카테고리 없음

ADAS 라이다·레이더 센서 융합 기술

oneplay1 2025. 6. 25. 20:34

ADAS(Advanced Driver Assistance Systems)의 핵심 센서인 라이다(LiDAR)와 레이더(Radar)를 융합함으로써 차량 주변 환경 인지 정확도와 신뢰성을 극대화한다. 라이다는 고해상도 3D 포인트 클라우드를 제공해 장애물의 형태와 거리를 정밀하게 파악하며, 레이더는 악천후·야간 환경에서도 안정적인 탐지가 가능하다. 두 센서 데이터를 시공간적·정보론적 매칭 기법을 통해 융합 처리하면 물체 분할(Segmentation), 속도 추정, 거리 검증, 노이즈 제거가 동시에 구현되어 자율주행 수준 2 이상에서 요구되는 주행 안전성을 확보할 수 있다. 주요 기술로는 보행자·자전거·차량 분류를 위한 딥러닝 기반 특징 추출, 칼만 필터(Kalman Filter)와 입자 필터(Particle Filter) 기반 추적(Tracking), 센서 캘리브레이션·동기화, 고속 통신망(Automotive Ethernet) 연동, 장애물 예측 알고리즘까지 포함된다. 이 글에서는 융합 아키텍처, 데이터 전처리·정합 전략, 센서 모델링, 오류 보정, 실차 검증 사례와 향후 연구 과제를 다각적으로 다룬다.


ADAS 라이다 레이더 센서 융합 이미지
ADAS 라이다 레이더 센서 융합 이미지


센서 융합의 필요성과 개념

ADAS 시스템은 전방 충돌 경고(FCW), 차선 유지 보조(LKA), 자동 긴급 제동(AEB) 등 다양한 기능을 제공하며, 이를 위해서는 다중 센서의 정확한 환경 인지가 필수다. 라이다는 레이저 펄스를 사용해 주변 물체까지의 거리를 밀리미터 단위로 측정하고, 360° 스캔을 통해 자세한 3차원 포인트 클라우드를 생성한다. 하지만 빗물·먼지·눈 등 악천후 환경에서 반사율 저하와 잡음이 심해지며, 상대적으로 단위 면적당 측정 범위가 제한적이다. 반면 레이더는 전파를 이용해 물체의 속도와 거리를 도플러 효과 기반으로 안정적으로 측정하며, 우천·박무·야간에도 견고한 성능을 보인다. 하지만 해상도가 낮아 물체 형태 구분이 어려워, 보행자·자전거·장애물과 같은 비금속 물체 인식에 한계가 있다.

이러한 센서별 장·단점을 보완하기 위해 라이다와 레이더 데이터를 융합함으로써 고해상도 거리 정보와 강인한 검출 성능을 동시에 확보할 수 있다. 센서 융합은 크게 시간(warp) 및 공간(spatial) 정합(Registration), 특징 추출(Feature Extraction), 데이터 결합(Data Association), 불확실성 모델링(Uncertainty Modeling), 추적(Tracking) 알고리즘으로 구성된다. 예를 들어, 라이다 포인트 클라우드의 객체 후보(region proposal)를 레이더 도플러 속도 정보와 매칭해 속도 검증을 수행하고, 라이다 기반 분류(예: CNN 기반 PointNet++) 결과를 레이더 탐지 확률과 결합해 오탐(False Positive)을 제거하는 방식이다.

서론에서는 라이다·레이더 센서의 특성과 탐지 한계, 융합을 통해 얻을 수 있는 이점, 융합 처리 파이프라인 개념을 제시했으며, 이후 본문에서는 구체적인 정합 기법, 융합 알고리즘, 성능 평가 및 실차 검증 사례를 심층 분석한다.


정합 및 융합 처리 기법

센서 융합 파이프라인은 주로 다음 순서로 진행된다.

1. 캘리브레이션 및 시간 동기화
라이다와 레이더의 위치 오프셋(Extrinsic Calibration) 및 내부 센서 특성(Intrinsic Calibration)을 정확히 측정해야 한다. 이를 위해 표준 패턴(Checkerboard, Trihedal Target)을 사용해 3차원 지오메트릭 캘리브레이션을 수행하며, time stamp 동기화를 위해 IEEE 1588 PTP(Precision Time Protocol) 기반의 하드웨어 타임스탬핑을 적용한다.

2. 공간 정합(Spatial Registration)
라이다 포인트 클라우드를 레이더 레인지-도플러 맵으로 변환하기 위해 변환 행렬(T_R2L)을 활용한다. 라이다 좌표계(Lidar Frame)에서 레이더 좌표계(Radar Frame)로 투영하며, 근거리 영역(Mathematical ROI)에서 ICP(Iterative Closest Point) 기반 Fine Registration을 수행해 정합 오차를 밀리미터 수준으로 줄인다.

3. 특징 추출 및 결합(Feature Fusion)
라이다 포인트 클라우드에서 객체 후보를 분리(Segmentation)하고, Box Proposal(Cuboid) 기법을 사용해 3D bounding box를 생성한다. 동시에 레이더 탐지(RaDAR Detection) 결과의 속도 벡터(Vx, Vy)와 RCS(Radar Cross Section) 값을 획득한다. 두 센서 특징 벡터(F_LiDAR, F_Radar)를 고차원 특징 공간에서 결합하여, Bayesian Inference 기반 확률 결합(P(Fusion)=P_L·P_R/(P_L+P_R))을 수행한다.

4. 추적 및 예측(Tracking & Prediction)
칼만 필터(Kalman Filter) 또는 확장 칼만 필터(EKF)를 통해 객체의 위치, 속도 상태 변수를 추정하며, 입자 필터(Particle Filter) 방식으로 비선형·비가우시안 모델을 적용할 수 있다. 융합 위치 데이터(Pos_fused)와 속도 데이터(Vel_fused)를 이용해 2차원 궤적 예측(Path Prediction)을 수행하고, 위험 상황에 대한 위험도(Risk Metric)를 실시간 평가한다.

본론에서는 각 단계별 알고리즘 수식, 파라미터 튜닝 방법, 데이터 처리 최적화, 고속 통신 및 병렬 처리(ROS2, DDS)를 활용한 실시간 구현 사례를 제시한다.


실차 검증 및 향후 연구 과제

실차 검증 사례로, 독일 A 도시에서 진행된 ADAS 파일럿 테스트에서는 라이다·레이더 융합 시스템을 적용해 보행자 탐지 정확도가 98%에서 99.7%로 향상되었으며, 오탐율은 2.5%에서 1.1%로 감소했다. 또한 속도 추적 오차가 평균 ±0.2m/s로 개선되어, 교차로 진입 전 보행자 예측 모델의 신뢰도를 크게 높였다.

향후 연구 과제로는 고해상도 영상 센서(CAM) 융합(Multi-Modal Fusion), 딥러닝 기반 End-to-End 융합 네트워크(3D CNN + RNN), 자율주행 시나리오별 동적 융합 가중치(Adaptive Weighting), 센서 하드웨어 비용 저감화, 극한 기상 조건(Heavy Rain, Snow) 대응을 위한 Robust Fusion 알고리즘 연구가 필요하다. 또한 표준화(ISO 23247), 시뮬레이션 기반 검증(SIL/HIL/DAVIS), 사이버 보안(IEEE 1609.2) 연계, V2X 환경 연동 기반 협력 융합 기술(C-V2X Fusion) 개발 등 통합 생태계 구축이 요구된다.

결론적으로 ADAS 라이다·레이더 센서 융합 기술은 자율주행 안전성과 신뢰성을 극대화하는 핵심 축이며, R&D 부서는 정합, 특징 결합, 추적 알고리즘 고도화 및 실시간 구현, 멀티 모달 확장 연구를 통해 차세대 자율주행 시스템을 선도해야 한다.