A Peek into Tesla’s Autonomous Future: Core Tech Revealed by VP Ashok Elluswamy at ICCV25 WDFM-AD

A Peek into Tesla’s Autonomous Future: Core Tech Revealed by VP Ashok Elluswamy at ICCV25 WDFM-AD

avatar
BSPK
2025.11.13조회수 57회

https://youtu.be/IRu-cPkpiFk?si=3H619msRjKroD347


[요약]

1. End-to-End 신경망 구조 도입

image.png
  • 테슬라는 과거처럼 인지 → 계획 모듈을 조합하는 방식이 아니라, 하나의 거대 신경망(E2E)으로 전체 파이프라인을 구성하는 방향으로 전환하고 있음.

  • 카메라 영상(픽셀)을 입력받으면 차선/보행자/차량 등을 개별적으로 추출하는 과정 없이 직접 차량의 액션(조향·가속)을 출력함.

  • 기존 모듈형 구조는 디버깅에는 유리했으나, 모듈 간 정보 손실이 커서 자연스러운 판단이 어려웠고,
    또한 모듈마다 지연(latency)이 달라 실시간 제어 안정성에 문제가 발생함.


2. 스스로 판단하고 행동하는 ‘기계’로의 진화

IMG_1801.png
  • 테슬라는 이러한 방식이 결국 ‘로보틱스의 본질, 즉 스스로 판단하고 움직이는 기계를 만드는 올바른 방향’이라고 설명함.

  • 규칙 기반 또는 모듈형 시스템은 새로운 상황이 등장할 때 실패하기 쉬움.


● 실제 사례

IMG_1802.png
  • 예: 양방향 도로에서 물 웅덩이를 발견했을 때, 사람은 맞은편 차량이 없고 시야가 충분하면 잠시 차선을 벗어나 피할 수 있음. 이를 규칙 기반으로 구현하는 것은 매우 복잡함.

  • 예: 도로 위를 횡단하는 닭들을 모두 통과할 때까지 기다린 뒤 출발하거나,
    움직이지 않는 거위들을 보고 후진 후 우회하는 행동 등도 직관적 판단 학습의 예로 제시됨.



→ E2E 모델은 장면 전체를 보고 맥락적으로 판단할 수 있는 능력이 있음.



3....

회원가입만 해도
이 글을 무료로 읽을 수 있어요.

이미 계정이 있으신가요?로그인하기
댓글 0
avatar
BSPK
구독자 374명구독중 9명
전자전기공학 박사, AI 연구자를 거쳐 전략기획 업무를 합니다. 기술의 발전이 가져올 세상의 변화를 먼저 포착하고 전달하고자 합니다.