폐막을 이틀 앞둔 8일 미국 라스베이거스에서 열리고 있는 세계 최대 가전?IT 전시회인 CES2026에서 모빌리티 분야의 주인공은 더욱 확장한 인공지능(AI)이라 할 수 있다.
특히 AI가 점차 자율주행을 위한 모든 신호를 하나로 묶는 구조로 진화하고 있음을 보여주고 있다. 내비 지도는 길 안내를 넘어 차량의 ‘예측(foresight)’이 되고 센서는 눈이 되며 학습 모델은 고도화되면서 판단을 맡게 됐다. 자율주행을 포함한 소프트웨어 정의차(SDV)는 결국 지도?센서?모델이 함께 훈련되고 검증되는 체계로 업그레이드 되고 있다.
이번에 여러 글로벌 기업들이 발표된 신기술들은 또 한번 진화한 모습을 보여주고 있다. 센서만으로는 부족한 맥락을 지도 AI가 보태고 그 위에서 주행 모델이 행동을 결정하는 식이다. 퀄컴 스냅드래곤 라이드와 결합한 AI 기반 지도 데이터를 ‘센서가 못 보는 앞날(foresight)’로 설명했다. 자율주행 AI도 ‘규칙 기반’에서 ‘추론 기반’으로 무게추가 옮겨갔다. 엔비디아는 안전을 전제로 한 추론형 자율주행 개발을 가속하는 알파마요(Alpamayo) 모델 및 도구 세트를 공개하며 학습과 검증을 하나로 묶는 방향을 분명히 했다. 지금의 정해진 조건에서 보조에 머물지 않고 희귀 돌발 상황을 더 많이 학습시키고 시뮬레이션으로 반복 검증하는 쪽으로 개발 문법을 바꿨다.
현대차그룹은 7일부터 10일까지 미국 라스베이거스에서 열리는 CES 2026에 참가해 그룹 AI 로보틱스 기술 개발 과정을 직접 경험할 수 있는 다양한 전시를 선보인다. 사진은 모베드(MobED) 상용화 모델 및 탑 모듈(Top Module) 결합 콘셉트 모델. 사진=현대차그룹 제공 변화는 완성차의 연합전으로 이어진다. 현대차그룹은 이번 행사에서 AI 로보틱스 전략을 전면에 내세우며 ‘피지컬 AI(현실에서 움직이는 AI)’ 흐름에 합류했다. 현대차그룹 계열사인 보스턴다이내믹스의 휴머노이드 ‘아틀라스’를 공장에 적용해 2028년부터 투입하겠다는 계획도 공개했다. 자율주행이든 로봇이든 센서, 엣지 컴퓨팅, 학습 데이터가 겹치는 만큼 “모빌리티와 로봇이 같은 두뇌를 쓴다”는 선언에 가깝다. 뿐만 아니라 현대차는 차세대 자율주행 모빌리티 로봇 플랫폼 ‘모베드(Mobile Eccentric Droid, MobED)’로 로보틱스 부문에서 최고혁신상을 수상해 기술력과 제품 경쟁력을 동시에 인정받았다.
현대차의 행보는 ‘파트너십 경제’와도 맞물린다. 업계에서는 CES 현장에서 정의선 현대차그룹 회장과 젠슨 황 엔비디아 CEO의 비공개 회동 소식을 전하며 양사의 협력 확대 기대가 주가에까지 반영되기도 했다. SDV 전환에서 연산 인프라와 개발 스택은 비용이 큰 영역이다. 따라서 현실화된다면 완성차 업체는 AI 칩을 구매하는 고객사에서 AI 생태계를 공동 설계하는 동맹으로 성격이 바뀔 가능성이 크다.
이보다 앞서 현대차그룹 로보틱스 계열사 보스턴다이내믹스는 구글 딥마인드와 미래 휴머노이드 기술 개발을 위해 협력하기로 했다. 자사의 로보틱스 경쟁력에 구글 딥마인드의 AI 모델을 결합해 차별화된 기술을 내놓겠다는 구상이다.
정 회장은 이날 삼성전자 전시관을 찾아 AI와 로봇, 모빌리티 분야 협업 가능성을 언급하며 “저희와 같이 한번 콜라보 해보시죠”라는 즉석 제안을 던지기도 했다. 모빌리티 기업 총수가 글로벌 IT?가전사 부스를 직접 방문해 공개적으로 협업 의지를 드러낸 장면은 여러모로 상징적이라 할 수 있다.
한 자동차업계 관계자는 “결론적으로 지도 AI가 맥락을 주고 센서가 현실을 읽으며 학습 모델이 행동을 내리는 ‘AI 팀플레이’가 표준이 될 가능성을 봤다”며 “모빌리티는 이제 ‘운전 기술’이 아니라 AI 운영 체계로 경쟁하는 국면에 들어섰다”고 말했다.
김재원 기자 jkim@sportsworldi.com