Generative Autonomy — 이스라엘 Imagry가 정의한 자율주행 접근. 현실세계에서 기계를 실제로 움직이게 하는 실시간 지능 (real-time intelligence that drives machines in the real world). HD맵·라이다·규칙 기반 추론에 기대지 않고, 카메라 비전으로 실시간 환경을 해석해 상황에 맞는 판단·반응을 만들어낸다.

정의의 출처

  • ‘Generative Autonomy 파이오니어’로 자칭한 Imagry의 CTO 아이란 샤비브(Ilan Shaviv)가 AEM 인터뷰(2026-02)에서 제시한 용어

자율주행 접근의 분류 안에서

접근특징Generative Autonomy 위치
모듈러 스택 (Modular)인지·예측·판단·제어 단계 분리Generative Autonomy는 이쪽에 더 가까움
모방학습 (Imitation Learning)인간 운전 데이터 모방
End-to-End (E2E)단일 네트워크가 센서~제어를 직접 매핑

샤비브 CTO

이 접근 방식은 E2E 학습보다는 모듈러 스택에 더 가깝습니다.

‘Generative’의 의미 (Imagry 사용)

  • 시스템이 경험과 지도학습(supervised learning)에 기반해 시간이 지날수록 점진적으로 개선된다는 뜻
  • 런타임에 ‘생성’되는 것 = 실시간 카메라 영상의 해석 결과로 만드는 차량 경로(path)와 제어 명령
  • 사전 정의된 규칙이나 고정된 지도 의존이 아닌, 실시간 시각 정보를 AI가 해석하고 그 상황에 맞는 판단·반응

구성 요소 — Imagry 사례

구성채택
카메라 온리 (Camera-Only)채택. IR 결합 시 인간보다 우위 가능
HD맵사용 안 함 (No HD Maps)
규칙 기반 추론사용 안 함
로컬라이제이션내비게이션 수준으로 충분 (Google Maps 정도)
라이다·레이다의존성 제거
분산 신경망객체 식별·분류
모션 플래닝도로 토폴로지 온라인 인지 + 내비게이션 안내 결합으로 경로 생성

양산 가정과 한계

작동 가정

  • 인간이 운전 가능한 ODD = 비전-온리도 충분
  • 폭우·짙은 안개·완전 암흑 등은 인간도 어려움 → IR 카메라 결합 시 인간보다 우위 가능

양산 HW 요건 (Imagry)

  • 승용차 약 150 TOPS, M3 등급 버스 약 300 TOPS
  • 추천 구성: NVIDIA Drive Orin + 표준 2.5MP 카메라 8대 (30Hz)

NCAP 통과 사례

  • Imagry는 자율주행 버스로 유럽 NCAP을 통과한 유일한 기업 (총 90가지 시나리오, 30~60km/h)
  • 버스용 시스템은 승용차용과 동일 코어 + 버스 정류장 대응 추가 기능

다른 접근과의 대비

Generative Autonomy는 ‘카메라 온리 양산’ 진영의 한 갈래다. The Autonomous 키노트의 미시 커밍스 교수가 단언한 “비전 단일 자율주행 절대 불가능”과 정면 대비. 보쉬 마티아스 필린의 Hybrid E2E + VLM 양산 노선과도 다름. 운영 단순성·HW 비용·로컬라이제이션 부담 제거를 핵심 가치로 둔다.

같이 보기