DeepFusion AI (DFAI) — 한국 4D 이미징 레이다 + 전파계 딥러닝 전문기업. 인지 자체를 표준화하는 ‘퍼셉티브 센서 스탠다드(Perceptive Sensor Standard)’ 접근으로 카메라·라이다·레이다의 결과를 ‘후합산’하는 센서 퓨전을 넘어 레이다를 독립적인 인지 주체로 만든다. 첫 레퍼런스가 자율주행이 아니라 해상·방산(무인 수상정·무인 전투 차량)에서 나왔다는 점이 회사의 정체성을 규정한다. CES 2026 인공지능 분야 최고혁신상(Best of Innovation) 수상.

핵심 개념 — 퍼셉티브 센서 스탠다드

‘센서 퓨전’이 아니라 세상을 인식하는 기준 자체를 하나의 공통 언어로 정의하는 접근. 센서는 그 기준을 채우는 수단일 뿐이며 인지의 판단 구조는 바뀌지 않는다.

“이것은 일반적인 센서 퓨전이 아닙니다. 딥러닝 관점에서 인지 자체를 새롭게 표준화하는 접근입니다. 이 표준화란 E2E에 ‘무엇을 더 붙이느냐’의 문제가 아니라, 레이다 센서를 중심으로 인지를 어떻게 정의할 것인가에 가깝습니다.” — 유승훈 CEO

기술 스택

RAPA-R (Real-time Attention-based Pillar Architecture for Radar)

  • 레이다 전파 데이터를 그대로 ‘인식’의 입력으로 삼는 전파계 딥러닝 엔진
  • 레이다 데이터 자체를 딥러닝이 다룰 수 있는 인지 언어로 만들기
  • 4D 이미징 레이다·근거리 통합인지·멀티 레이다 전방위 딥러닝·레이다 기반 SLAM 논의의 출발점

RAPA-RC / RAPA-RL — Early Fusion 확장

  • RAPA-RC — 레이다 + 카메라 Early Fusion
  • RAPA-RL — 레이다 + 라이다 Early Fusion
  • 둘 다 동일한 퍼셉티브 센서 스탠다드 위에서 설계 → 센서 구성이 달라져도 판단 구조는 변하지 않음

가상 레이다 + 프리트레이닝

  • 실제 전파 센서를 디지털 환경에서 모델링해 가상 데이터 생성
  • 그 데이터로 모델 사전 학습 → 실제 하드웨어가 바뀌어도 짧은 파인튜닝만으로 동일한 인지 구조 이식
  • 레이다 제조사마다 하드웨어 특성·안테나 구성·포인트클라우드 형태가 제각각이라는 그동안의 ‘정형화된 데이터 셋 부재’ 문제를 우회

핵심 인사이트 — 정밀도 vs 운영성

  • 라이다의 정밀함은 컴퓨팅 부담 + 회전식 라이다의 미세 진동·축 정렬 흐트러짐 → 정기 캘리브레이션·전문 인력 필수. 비·눈·안개·먼지·염분·흙먼지가 광학계 수명 단축.
  • 자율주행이 요구하는 허용오차는 항상 밀리미터가 아닐 수 있다 — 10cm 수준의 안정성·지속가능성이 더 중요한 장면이 많음.

“정밀도가 항상 운영 효율로 이어지지는 않습니다.” — 유승훈 CEO

근거리 통합인지 (Near-Field Integrated Perception)

  • 레이다의 약점(형상 정보·시야각 제약)을 4D 이미징 레이다 + 중첩(오버랩)으로 우회
  • 전면·코너에 여러 레이다 배치 → 근거리에서 포인트가 겹치며 인식 밀도 자연 상승
  • 사고·충돌이 실제로 발생하는 근거리 영역을 ‘여러 센서 결과의 후합산’이 아니라 하나의 인지 공간으로 통합 해석
  • 차량의 기본 배치(전방 카메라 1 + 다수 레이다)를 유지하면서 인식 구조만 업그레이드 — 4D 이미징 레이다는 센서 추가가 아니라 기존 레이다 대체

“360도 서라운드 인지의 리던던시, 그리고 근거리까지 아우르는 통합 인지에 대한 이야기입니다.”

해상·방산을 첫 레퍼런스로 삼은 이유

  • 무인 수상정 — 안개·태풍 속 출동. 해상 X-band 레이다는 약 500m 이내 근거리에 음영 구간 — 그 구간이 충돌·교전이 발생하는 가장 중요한 범위. 4D 이미징 레이다로 메움. 부표·파도까지 인식 대상.
  • 무인 전투 차량 — 야지에서 1분 흙먼지를 뒤집어쓰면 라이다 즉시 무력화. 전장에서 회전식 라이다를 닦아가며 쓰는 것은 비현실적.
  • 광학계+전파계 융합이 ‘성능 향상’이 아니라 생존성(survivability)의 문제로 바뀜.

Early Fusion에 대한 실용주의

“얼리퓨전은 굉장히 어렵습니다. 레이다도 좋아야 하고, 카메라도 좋아야 합니다. 함부로 했다가 망하는 사례가 훨씬 많아요.”

DFAI는 모든 센서를 한꺼번에 묶지 않는다. 레이다 중심의 인지 구조를 먼저 완성한 뒤, 실제 운용 환경에서 필요가 확인되는 경우에만 다른 센서를 보완적으로 결합한다.

CES 2026 최고혁신상

  • 핵심 데모 — 4D 이미징 레이다만으로 360도를 실시간 딥러닝으로 인지
  • “카메라 딥러닝 아니냐”는 오해를 받지만 레이다 데이터만으로 구현
  • 데모는 기술 과시가 아니라 가장 거친 환경에서도 인지가 무너지지 않도록 설계된 결과

인물

유승훈 (SungHun Yu) — CEO

  • 라이다 산업을 오랫동안 지켜본 경력자
  • 4D 이미징 레이다를 “라이다가 대략 4년차에 들어갔을 때와 비슷한 위치”로 진단

이규진 — 상무

  • 현실 주행 환경의 불확실성을 다루는 DFAI의 기술적 방향성·실행법 소개

차기 일정

  • CES 2027 (2027-01) — 새로운 기능·응용 사례 공개 준비

같이 보기

참고 자료