Generative Autonomy — 이스라엘 Imagry가 정의한 자율주행 접근. 현실세계에서 기계를 실제로 움직이게 하는 실시간 지능 (real-time intelligence that drives machines in the real world). HD맵·라이다·규칙 기반 추론에 기대지 않고, 카메라 비전으로 실시간 환경을 해석해 상황에 맞는 판단·반응을 만들어낸다.
정의의 출처
- ‘Generative Autonomy 파이오니어’로 자칭한 Imagry의 CTO 아이란 샤비브(Ilan Shaviv)가 AEM 인터뷰(2026-02)에서 제시한 용어
자율주행 접근의 분류 안에서
| 접근 | 특징 | Generative Autonomy 위치 |
|---|---|---|
| 모듈러 스택 (Modular) | 인지·예측·판단·제어 단계 분리 | Generative Autonomy는 이쪽에 더 가까움 |
| 모방학습 (Imitation Learning) | 인간 운전 데이터 모방 | — |
| End-to-End (E2E) | 단일 네트워크가 센서~제어를 직접 매핑 | — |
샤비브 CTO
이 접근 방식은 E2E 학습보다는 모듈러 스택에 더 가깝습니다.
‘Generative’의 의미 (Imagry 사용)
- 시스템이 경험과 지도학습(supervised learning)에 기반해 시간이 지날수록 점진적으로 개선된다는 뜻
- 런타임에 ‘생성’되는 것 = 실시간 카메라 영상의 해석 결과로 만드는 차량 경로(path)와 제어 명령
- 사전 정의된 규칙이나 고정된 지도 의존이 아닌, 실시간 시각 정보를 AI가 해석하고 그 상황에 맞는 판단·반응
구성 요소 — Imagry 사례
| 구성 | 채택 |
|---|---|
| 카메라 온리 (Camera-Only) | 채택. IR 결합 시 인간보다 우위 가능 |
| HD맵 | 사용 안 함 (No HD Maps) |
| 규칙 기반 추론 | 사용 안 함 |
| 로컬라이제이션 | 내비게이션 수준으로 충분 (Google Maps 정도) |
| 라이다·레이다 | 의존성 제거 |
| 분산 신경망 | 객체 식별·분류 |
| 모션 플래닝 | 도로 토폴로지 온라인 인지 + 내비게이션 안내 결합으로 경로 생성 |
양산 가정과 한계
작동 가정
- 인간이 운전 가능한 ODD = 비전-온리도 충분
- 폭우·짙은 안개·완전 암흑 등은 인간도 어려움 → IR 카메라 결합 시 인간보다 우위 가능
양산 HW 요건 (Imagry)
- 승용차 약 150 TOPS, M3 등급 버스 약 300 TOPS
- 추천 구성: NVIDIA Drive Orin + 표준 2.5MP 카메라 8대 (30Hz)
NCAP 통과 사례
- Imagry는 자율주행 버스로 유럽 NCAP을 통과한 유일한 기업 (총 90가지 시나리오, 30~60km/h)
- 버스용 시스템은 승용차용과 동일 코어 + 버스 정류장 대응 추가 기능
다른 접근과의 대비
Generative Autonomy는 ‘카메라 온리 양산’ 진영의 한 갈래다. The Autonomous 키노트의 미시 커밍스 교수가 단언한 “비전 단일 자율주행 절대 불가능”과 정면 대비. 보쉬 마티아스 필린의 Hybrid E2E + VLM 양산 노선과도 다름. 운영 단순성·HW 비용·로컬라이제이션 부담 제거를 핵심 가치로 둔다.