| 양쪽 이전 판이전 판다음 판 | 이전 판 |
| 자율주행 [2026/04/13 12:57] – 자율주행 sync flyingtext | 자율주행 [2026/04/13 13:00] (현재) – 자율주행 sync flyingtext |
|---|
| ==== 초기 연구와 실험적 시도 ==== | ==== 초기 연구와 실험적 시도 ==== |
| |
| 20세기 중반의 무선 조종 차량 실험과 초기 컴퓨터 비전을 이용한 자율주행 연구 사례를 소개한다. | 자율주행 기술의 기원은 현대적인 인공지능이나 고성능 센서가 등장하기 훨씬 이전인 20세기 초반으로 거슬러 올라간다. 초기 연구는 주로 외부 신호를 통한 원격 제어 방식에서 시작되었으며, 이후 도로 인프라에 지능을 부여하려는 시도를 거쳐 차량 스스로 주변 환경을 인식하는 독립적 시스템으로 진화하였다. |
| | |
| | 1920년대에 등장한 초기 형태의 무인 차량은 [[무선 통신]] 기술을 이용한 [[원격 제어]] 방식이었다. 1925년 프랜시스 후디나(Francis Houdina)가 선보인 ’아메리칸 원더(American Wonder)’는 뒤따라오는 차량에서 송신하는 무선 신호를 통해 조향, 제동, 가속을 조절하는 방식이었다. 이는 엄밀한 의미의 자율주행이라기보다 [[무선 조종]] 차량에 가까웠으나, 인간 운전자가 탑승하지 않은 상태에서 차량을 물리적으로 구동할 수 있다는 가능성을 제시하였다는 점에서 기술적 단초를 마련하였다. |
| | |
| | 1950년대에 이르러 자율주행 연구는 도로 인프라와 차량 간의 협력을 강조하는 방향으로 전개되었다. [[제너럴 모터스]](General Motors)와 [[RCA]]는 도로 바닥에 전기 케이블을 매설하고, 차량 하부에 장착된 코일이 케이블에서 발생하는 [[자기장]]을 감지하여 경로를 추종하는 시스템을 개발하였다. 1956년 공개된 ‘파이어버드 II(Firebird II)’ 컨셉트카는 이러한 전자기 유도 방식을 통해 운전자의 조작 없이 주행하는 모습을 시연하였다. 이 시기의 연구는 차량 자체의 지능보다는 지능형 도로 인프라 구축에 방점을 두었으며, 이는 현대의 [[지능형 교통 체계]](ITS) 개념의 모태가 되었다. |
| | |
| | 컴퓨터 비전을 이용한 진정한 의미의 자율적 환경 인식은 1960년대와 1970년대에 본격적으로 시작되었다. [[스탠퍼드 대학교]]의 ’스탠퍼드 카트(Stanford Cart)’는 초기 [[로봇 공학]]과 [[컴퓨터 비전]] 연구의 중요한 이정표이다. 이 로봇은 장착된 카메라를 통해 주변 이미지를 획득하고, 이를 컴퓨터로 분석하여 장애물을 회피하는 경로를 계산하였다. 비록 당시의 연산 능력 한계로 인해 1미터를 이동하는 데 수십 분의 처리 시간이 소요되는 등 실용성에는 한계가 있었으나, 시각 정보를 바탕으로 독립적인 의사결정을 내리는 자율주행의 핵심 구조를 확립하였다. |
| | |
| | 1977년 일본의 쓰쿠바 기계공학 연구소(Tsukuba Mechanical Engineering Laboratory)는 두 대의 카메라를 활용한 [[스테레오 비전]] 시스템을 탑재하여 실제 도로 주행이 가능한 차량을 개발하였다. 이 차량은 차선과 장애물을 실시간으로 인식하며 시속 30km의 속도로 주행하는 데 성공하였다. 이는 통제된 실험실을 벗어나 실제 물리 환경에서 시각 정보를 기반으로 차량을 제어한 선구적인 사례로 평가받는다. |
| | |
| | 1980년대에는 [[에른스트 디만스]](Ernst Dickmanns)가 이끄는 뮌헨 연방방위대학교(UniBwM) 연구팀에 의해 기술적 도약이 이루어졌다. 디만스는 시간 축을 포함한 동적 모델링 기법인 ‘4D 비전’ 개념을 도입하고, [[칼만 필터]](Kalman Filter)를 활용하여 예측 기반의 실시간 영상 처리를 구현하였다((Contributions to Visual Autonomous Driving: A Review, https://dyna-vision.de/wp-content/uploads/2021/05/2015-ContribPart-I-to-Visual-Auton.-Driving-EDD.pdf |
| | )). 1987년, 이들이 개발한 VaMoRs 차량은 아무런 인프라 장치가 없는 아우토반에서 시속 96km의 속도로 자율주행하는 성과를 거두었다. 이는 현대 자율주행 시스템의 핵심 알고리즘인 [[상태 추정]]과 동적 환경 인지의 기틀을 마련한 사건이었다. |
| | |
| | 동시대에 카네기 멜론 대학교(CMU)의 [[내브랩]](Navlab) 프로젝트는 자율주행에 초기 [[인공신경망]] 기술을 접목하기 시작하였다. 1980년대 후반에 개발된 ALVINN(Autonomous Land Vehicle In a Neural Network) 시스템은 카메라 영상과 레이저 거리 측정기 데이터를 입력받아 조향각을 결정하는 3층 구조의 [[역전파]] 네트워크를 사용하였다((ALVINN: AN AUTONOMOUS LAND VEHICLE IN A NEURAL NETWORK, https://proceedings.neurips.cc/paper_files/paper/1988/file/812b4ba287f5ee0bc9d43bbf5bbe87fb-Paper.pdf |
| | )). 이는 현대의 [[딥러닝]] 기반 자율주행 방식의 선구적 시도로서, 복잡한 규칙 기반 알고리즘 대신 데이터 학습을 통해 주행 전략을 도출할 수 있음을 입증하였다. |
| |
| ==== 기술적 도약과 경진 대회 ==== | ==== 기술적 도약과 경진 대회 ==== |
| |
| 다르파 그랜드 챌린지와 같은 주요 대회를 통해 비약적으로 발전한 자율주행 알고리즘과 센서 기술을 다룬다. | 자율주행 기술이 실험실 수준의 기초 연구를 넘어 실질적인 기술적 도약을 이룬 결정적 계기는 2000년대 초반 [[미국 방위고등연구계획국]](Defense Advanced Research Projects Agency, DARPA)이 주최한 경진 대회들이었다. 당시 자율주행은 복잡한 외부 환경을 실시간으로 처리하기에 연산 능력과 알고리즘 측면에서 한계가 뚜렷했으나, DARPA 챌린지는 명확한 목표와 막대한 보상을 제시함으로써 전 세계 연구진의 혁신을 촉발하였다. 특히 2004년과 2005년에 개최된 ’DARPA 그랜드 챌린지(Grand Challenge)’와 2007년의 ’DARPA 어반 챌린지(Urban Challenge)’는 현대 자율주행 시스템의 표준적인 아키텍처를 정립하는 데 기여하였다. |
| | |
| | 2004년 제1회 그랜드 챌린지는 모하비 사막의 거친 지형을 약 240km 주행하는 임무를 부여하였으나, 참가한 모든 차량이 완주에 실패하며 기술적 난관을 확인시켰다. 그러나 이듬해 열린 2005년 대회에서 [[스탠퍼드 대학교]]의 ’스탠리(Stanley)’가 우승하며 자율주행의 가능성을 증명하였다. 스탠리는 기존의 규칙 기반 제어에서 벗어나 [[머신러닝]](Machine Learning) 기법을 적극적으로 도입하여 노면의 상태를 학습하고 판단하는 방식을 취하였다. 특히 [[레이저 거리 측정기]](Laser Range Finder)와 [[컴퓨터 비전]] 데이터를 통합하여 전방의 지형을 실시간으로 분류하고 주행 가능한 경로를 생성하는 기술적 진보를 보여주었다((Sebastian Thrun et al., “Stanley: The robot that won the DARPA Grand Challenge”, https://www-cs.stanford.edu/people/dstavens/jfr06/thrun_etal_jfr06.pdf |
| | )). |
| | |
| | 2007년에 개최된 어반 챌린지는 자율주행 기술의 초점을 오프로드에서 복잡한 도심 환경으로 전환하였다. 참가 차량은 단순한 장애물 회피를 넘어 다른 차량과의 상호작용, [[교통 법규]] 준수, 교차로 통행, 주차 등 고도의 의사결정 능력을 갖추어야 했다. 이 대회에서 우승한 [[카네기 멜런 대학교]]의 ’보스(Boss)’는 인지, 예측, 계획으로 구성된 계층적 소프트웨어 아키텍처를 선보였다((Chris Urmson et al., “Autonomous driving in urban environments: Boss and the Urban Challenge”, https://www.ri.cmu.edu/publications/autonomous-driving-in-urban-environments-boss-and-the-urban-challenge/ |
| | )). 보스는 [[라이다]](LiDAR), [[레이더]](Radar), [[글로벌 포지셔닝 시스템]](GPS) 등 다종 센서로부터 유입되는 데이터를 [[칼만 필터]](Kalman Filter)와 같은 확률적 모델로 융합하여 정밀한 환경 지도를 생성하고, 동적 장애물의 움직임을 예측하여 최적의 궤적을 산출하였다((Michael S. Darms et al., “Obstacle Detection and Tracking for the Urban Challenge”, https://www.ri.cmu.edu/pub_files/2009/9/09ieee-transport-darms.pdf |
| | )). |
| | |
| | 이러한 경진 대회들을 통해 확보된 기술적 성과는 크게 세 가지 측면에서 현대 자율주행 기술의 근간이 되었다. 첫째, [[라이다]]를 필두로 한 고정밀 센서의 유효성이 입증되었으며, 이는 이후 자율주행 차량의 필수적인 하드웨어 구성 요소로 자리 잡았다. 둘째, 불확실성이 존재하는 환경에서 최적의 판단을 내리기 위한 [[확률적 로보틱스]](Probabilistic Robotics) 이론이 실제 차량 제어에 성공적으로 이식되었다. 셋째, 대회를 통해 양성된 전문 인력들이 [[구글]]의 자율주행 프로젝트(현 [[웨이모]])를 비롯한 민간 기업으로 대거 유입되면서 자율주행 기술의 상용화 단계가 가속화되었다. 결과적으로 DARPA 챌린지는 자율주행이 단순한 학술적 호기심을 넘어 실제 도로 위를 달릴 수 있는 공학적 실체임을 전 세계에 각인시킨 역사적 전환점이었다. |
| |
| ==== 상용화 및 인공지능의 도입 ==== | ==== 상용화 및 인공지능의 도입 ==== |
| |
| 딥러닝 기술의 적용과 민간 기업의 참여로 가속화된 현대 자율주행 기술의 상용화 흐름을 분석한다. | 2012년 [[알렉스넷]](AlexNet)이 [[이미지넷]](ImageNet) 경진대회에서 우승하며 촉발된 [[심층 학습]](Deep Learning)의 부흥은 자율주행 연구의 패러다임을 근본적으로 변화시켰다. 이전의 자율주행 시스템이 사전에 정의된 규칙에 의존하는 [[전문가 시스템]](Expert System)에 머물렀다면, 현대의 시스템은 방대한 주행 데이터를 기반으로 환경을 이해하고 판단하는 [[인공 신경망]](Artificial Neural Network) 모델을 적극적으로 채택하고 있다. 특히 [[합성곱 신경망]](Convolutional Neural Network, CNN)은 시각 데이터 처리에 혁신을 가져왔으며, 이는 자율주행 차량이 보행자, 차량, 차선 및 교통 표지판을 실시간으로 식별하는 인지 능력의 비약적 향상을 이끌었다((Bojarski, M., et al. (2016). End to End Learning for Self-Driving Cars. NVIDIA Technical Report. https://arxiv.org/pdf/1604.07316 |
| | )). |
| | |
| | 민간 기업의 적극적인 참여는 연구실 단계에 머물던 기술을 시장의 영역으로 성공적으로 전이시켰다. [[구글]](Google)의 자율주행 프로젝트에서 분사한 [[웨이모]](Waymo)는 고가의 [[라이다]](LiDAR) 센서와 정밀 지도를 결합한 시스템을 통해 [[로보택시]](Robotaxi) 서비스의 기술적 가능성을 입증하였다. 웨이모의 시스템은 센서 데이터의 중첩과 다중화를 통해 안전성을 확보하며, 실제 도로 주행 데이터와 시뮬레이션 데이터를 결합한 학습 체계를 구축하였다((Favarò, F., et al. (2023). Building a Credible Case for Safety: Waymo’s Approach for the Determination of Absence of Unreasonable Risk. Waymo LLC. https://storage.googleapis.com/waymo-uploads/files/documents/safety/Waymo%20Safety%20Case%20Approach.pdf |
| | )). 반면, [[테슬라]](Tesla)는 고가의 센서를 배제하고 카메라 기반의 시각 정보와 대규모 차량 함대(Fleet)로부터 수집된 데이터를 학습시키는 [[모방 학습]](Imitation Learning) 및 [[강화 학습]](Reinforcement Learning) 전략을 취하며 상용화의 경로를 다각화하였다. |
| | |
| | 상용화 과정에서 가장 큰 기술적 난제는 일상적이지 않은 상황인 [[엣지 케이스]](Edge Case)의 해결이다. 인공지능 모델이 학습하지 못한 예외적인 상황에서 시스템의 신뢰성을 보장하기 위해, 최근에는 인지부터 제어까지 하나의 신경망으로 처리하는 [[엔드 투 엔드 학습]](End-to-End Learning) 방식이 주목받고 있다. 이 방식은 입력 영상으로부터 직접 조향 및 가감속 명령을 도출함으로써 기존의 단계별 처리 과정에서 발생하는 정보 손실을 최소화한다((Bojarski, M., et al. (2016). End to End Learning for Self-Driving Cars. NVIDIA Technical Report. https://arxiv.org/pdf/1604.07316 |
| | )). 또한, 결과의 해석 가능성을 높이기 위한 [[설명 가능한 인공지능]](Explainable AI, XAI) 연구와 실도로 주행의 위험성을 최소화하면서도 가상의 환경에서 무한한 주행 시나리오를 생성해 학습시키는 [[디지털 트윈]](Digital Twin) 기술은 상용화 속도를 높이는 핵심적인 동력으로 작용하고 있다. |
| | |
| | 현대 자율주행 기술의 상용화 흐름은 단순한 기술 개발을 넘어 [[서비스형 모빌리티]](Mobility as a Service, MaaS)와의 결합으로 이어지고 있다. 기업들은 자율주행 알고리즘의 고도화를 위해 데이터 루프(Data Loop)를 구축하고 있으며, 이는 차량이 주행 중 수집한 데이터를 클라우드로 전송하여 모델을 재학습시키고 다시 차량에 배포하는 순환 구조를 의미한다. 이러한 데이터 중심(Data-centric) 접근법은 자율주행 시스템이 주행 환경의 변화에 유연하게 대응하고 성능을 지속적으로 개선할 수 있는 토대가 된다. |
| |
| ===== 자율주행 시스템의 기술적 구성 요소 ===== | ===== 자율주행 시스템의 기술적 구성 요소 ===== |
| ==== 인지 시스템 및 센서 기술 ==== | ==== 인지 시스템 및 센서 기술 ==== |
| |
| 주변 환경 정보를 수집하는 다양한 센서 장비와 데이터 처리 기법을 상세히 기술한다. | 자율주행 시스템에서 [[인지]] 계층은 인간 운전자의 시각과 청각 등의 감각 기관을 대체하여 차량 주변의 환경 정보를 실시간으로 수집하고 해석하는 핵심적인 역할을 수행한다. 인지 시스템의 일차적인 목표는 도로 위의 다양한 [[동적 객체]](Dynamic Objects)와 [[정적 객체]](Static Objects)를 식별하고, 차량과 이들 사이의 상대적인 위치 및 속도 관계를 정밀하게 파악하는 것이다. 이를 위해 자율주행 차량에는 각기 다른 물리적 특성을 지닌 다수의 센서가 탑재되며, 이들로부터 획득된 데이터는 [[컴퓨터 비전]](Computer Vision) 및 [[신호 처리]](Signal Processing) 기술을 통해 유의미한 정보로 변환된다. |
| | |
| | 가장 대표적인 시각 센서인 [[카메라]](Camera)는 주변 환경의 색상과 질감 정보를 고해상도로 포착한다. 카메라는 도로 표지판의 문자를 판독하거나 신호등의 색상 변화를 인식하는 데 있어 독보적인 성능을 발휘하며, [[심층 신경망]](Deep Neural Network) 기반의 [[객체 인식]] 알고리즘과 결합하여 보행자, 차량, 이륜차 등을 분류하는 데 필수적이다. 특히 [[시맨틱 세그멘테이션]](Semantic Segmentation) 기법을 활용하면 이미지 내의 모든 픽셀을 특정 클래스로 분류하여 도로의 경계나 가용한 주행 영역을 정밀하게 구분할 수 있다. 그러나 카메라는 조도 변화가 심한 야간이나 역광 상황, 혹은 폭우와 안개 같은 악천후 환경에서 인지 성능이 급격히 저하된다는 한계가 있다. |
| | |
| | 이러한 카메라의 약점을 보완하는 것이 [[라이다]](Light Detection and Ranging, LiDAR) 기술이다. 라이다는 고출력 레이저 펄스를 발사한 후 물체에 반사되어 돌아오는 시간을 측정하는 [[비행 시간 거리 측정]](Time of Flight, ToF) 원리를 이용하여 주변 환경을 3차원으로 재구성한다. |
| | |
| | $$d = \frac{c \cdot \Delta t}{2}$$ |
| | |
| | 위 식에서 $d$는 물체와의 거리, $c$는 빛의 속도, $\Delta t$는 레이저의 왕복 시간을 의미한다. 라이다는 수백만 개의 점으로 구성된 [[포인트 클라우드]](Point Cloud) 데이터를 생성하여 센티미터 단위의 정밀한 거리 정보를 제공하며, 이를 통해 물체의 입체적인 형상을 파악할 수 있다. 능동형 센서로서 외부 광원의 영향을 받지 않는다는 장점이 있으나, 레이저의 파장이 대기 중의 수분 입자에 산란되기 쉬워 강설이나 강우 상황에서는 탐지 거리가 짧아지는 특성을 보인다. |
| | |
| | [[레이더]](Radio Detection and Ranging, Radar)는 전자기파를 송출하여 물체의 상대 속도와 거리를 측정하는 장치로, 특히 [[도플러 효과]](Doppler Effect)를 이용해 움직이는 객체의 속도를 즉각적으로 산출하는 데 탁월하다. 레이더가 방출하는 전자기파의 주파수 변화량 $\Delta f$와 물체의 상대 속도 $v$의 관계는 다음과 같이 표현된다. |
| | |
| | $$\Delta f = \frac{2v}{\lambda}$$ |
| | |
| | 여기서 $\lambda$는 송신파의 파장이다. 레이더는 파장이 길어 안개나 먼지 등을 투과할 수 있으므로 기상 조건에 관계없이 안정적인 성능을 보장하며, 장거리 탐지에 유리하다. 다만 물체의 구체적인 형태를 파악하는 해상도가 낮아 단독으로 사용하기보다는 타 센서와의 결합을 통해 신뢰성을 확보한다. |
| | |
| | 현대 자율주행 기술은 이처럼 상이한 물리적 한계를 지닌 개별 센서들의 데이터를 통합하여 단일 센서의 불확실성을 극복하는 [[센서 융합]](Sensor Fusion) 기술을 지향한다. 인지 시스템은 각 센서로부터 전달받은 원시 데이터(Raw data) 혹은 가공된 객체 데이터를 논리적으로 통합하며, 이 과정에서 국제 표준인 [[ISO 23150]] 등에서 정의하는 논리 인터페이스 규격을 준수하여 데이터 전송의 일관성과 호환성을 확보한다((KS R ISO 23150 도로 차량 — 자율주행 기능을 위한 센서와 데이터 융합 유닛 사이의 데이터 통신 — 논리 인터페이스, https://www.kssn.net/search/stddetail.do?itemNo=K001010143440 |
| | )). 최종적으로 인지 시스템은 통합된 환경 모델을 구축하고, 이를 [[판단 및 주행 계획 시스템]]에 전달함으로써 안전한 자율주행을 위한 토대를 마련한다. |
| |
| === 센서 융합 기술 === | === 센서 융합 기술 === |
| |
| 카메라, 라이다, 레이더 등 서로 다른 특성을 가진 센서 데이터를 통합하여 정확도를 높이는 기술을 다룬다. | 자율주행 시스템의 신뢰성을 확보하기 위해서는 외부 환경에 대한 결점 없는 [[상황 인식]](Situation Awareness)이 전제되어야 한다. 그러나 [[카메라]](Camera), [[라이다]](Light Detection and Ranging, LiDAR), [[레이더]](Radio Detection and Ranging, RADAR)와 같은 단일 센서는 각각 고유한 물리적 한계와 환경적 제약을 지닌다. 카메라는 시각적 해상도가 높아 객체의 종류와 색상 정보를 정밀하게 파악할 수 있으나, 조도 변화에 민감하고 거리 측정의 정확도가 상대적으로 낮다. 라이다는 고정밀 3차원 [[점군]](Point Cloud) 데이터를 통해 정밀한 거리 정보를 제공하지만, 안개나 폭우와 같은 악천후 상황에서 산란 현상으로 인해 성능이 급격히 저하된다. 레이더는 전파를 이용하므로 기상 조건의 영향을 거의 받지 않고 객체의 상대 속도를 정확히 측정할 수 있으나, 해상도가 낮아 객체의 형상을 구별하는 데 한계가 있다. 이러한 개별 센서의 결점을 상호 보완하고 인지 정보의 [[중복성]](Redundancy)을 확보하여 전체 시스템의 안전성을 높이는 과정이 바로 센서 융합(Sensor Fusion) 기술이다. |
| | |
| | 센서 융합은 정보가 통합되는 단계에 따라 크게 데이터 수준 융합, 특징 수준 융합, 의사결정 수준 융합으로 분류된다. 데이터 수준 융합(Data-level Fusion)은 각 센서에서 수집된 가공되지 않은 로 데이터(Raw Data)를 직접 결합하는 방식이다. 이는 정보의 손실을 최소화할 수 있다는 장점이 있으나, 서로 다른 센서 간의 좌표계 정렬(Spatial Alignment)과 시간 동기화(Temporal Synchronization)를 위해 막대한 연산량이 요구된다. 특징 수준 융합(Feature-level Fusion)은 각 센서 데이터에서 추출된 특징값(Feature)들을 하나의 벡터로 통합하여 [[기계 학습]](Machine Learning) 모델의 입력값으로 사용하는 방식이다. 최근에는 [[심층 신경망]](Deep Neural Network)을 활용하여 카메라의 2차원 영상 정보와 라이다의 3차원 공간 정보를 [[조감도]](Bird’s Eye View, BEV) 좌표계로 투영하여 융합하는 기법이 활발히 연구되고 있다. |
| | |
| | 의사결정 수준 융합(Decision-level Fusion)은 각 센서가 독립적으로 객체를 검출하고 추적한 결과를 바탕으로 최종적인 판단을 내리는 방식이다. 이 단계에서는 각 센서의 신뢰도를 고려한 [[확률론적 모델링]](Probabilistic Modeling)이 핵심적인 역할을 한다. 대표적인 방법론으로는 [[베이즈 정리]](Bayes’ theorem)에 기반한 [[칼만 필터]](Kalman Filter)와 그 확장형인 [[확장 칼만 필터]](Extended Kalman Filter, EKF)가 있다. 시스템의 상태 변수를 $ x $, 관측값을 $ z $라고 할 때, 상태 전이 모델과 관측 모델은 다음과 같은 선형 시스템으로 정의될 수 있다. |
| | |
| | $$ x_{k} = F_k x_{k-1} + B_k u_k + w_k $$ $$ z_{k} = H_k x_{k} + v_k $$ |
| | |
| | 여기서 $ F_k $는 상태 전이 행렬, $ H_k $는 관측 행렬이며, $ w_k $와 $ v_k $는 각각 시스템 노이즈와 관측 노이즈를 의미한다. 센서 융합 알고리즘은 각 센서로부터 들어오는 관측값 $ z_k $를 바탕으로 최적의 상태 추정치인 $ _k $를 갱신하며, 이 과정에서 센서별 오차 특성을 반영한 [[공분산]](Covariance) 행렬을 조절함으로써 데이터의 불확실성을 최소화한다. |
| | |
| | 최근의 센서 융합 기술은 단순한 산술적 통합을 넘어 [[인공지능]](Artificial Intelligence) 기반의 적응형 융합으로 진화하고 있다. 주행 환경의 변화에 따라 특정 센서의 가중치를 실시간으로 조정하는 [[어텐션 메커니즘]](Attention Mechanism)이 도입되고 있으며, 이는 복잡한 도심 주행이나 예측 불가능한 기상 악화 상황에서도 자율주행 차량이 강건한(Robust) 인지 성능을 유지할 수 있게 한다. 결과적으로 센서 융합은 개별 하드웨어의 물리적 한계를 소프트웨어적 알고리즘으로 극복하여 시스템 전체의 [[가용성]](Availability)을 극대화하는 중추적 기술이라 할 수 있다. |
| |
| === 정밀 지도 및 위치 추정 === | === 정밀 지도 및 위치 추정 === |
| |
| 고정밀 지도 데이터와 위성 항법 시스템을 결합하여 차량의 정확한 위치를 파악하는 기법을 설명한다. | 자율주행 시스템에서 차량의 현재 위치를 정확히 파악하는 [[위치 추정]](Localization)은 안전한 주행 경로를 생성하고 제어 명령을 내리기 위한 필수적인 전제 조건이다. 일반적인 차량용 내비게이션 시스템이 수 미터(m) 단위의 오차를 허용하는 것과 달리, 자율주행 차량은 차로 내에서의 상대적 위치와 정지선, 교차로 등과의 거리를 센티미터(cm) 단위의 정밀도로 파악해야 한다. 이를 위해 자율주행 시스템은 [[위성 항법 시스템]](Global Navigation Satellite System, GNSS)과 [[관성 측정 장치]](Inertial Measurement Unit, IMU)를 결합한 절대 위치 추정 방식과, [[고정밀 지도]](High Definition Map, HD Map) 상의 특징점과 실시간 센서 데이터를 비교하는 상대 위치 추정 방식을 융합하여 사용한다. |
| | |
| | [[고정밀 지도]]는 자율주행을 위한 가상 세계의 청사진 역할을 하며, 단순한 도로 기하 구조를 넘어 차선 단위의 정보, 도로 표지판, 신호등의 위치, 도로 경계석(Curb) 등 도로 위의 모든 정적 정보를 3차원 좌표계로 포함한다. HD Map은 통상적으로 여러 층위(Layer)로 구성되는데, 도로의 연결 관계를 다루는 도로망 층(Road Network Layer), 차선과 규제 정보를 포함하는 차선 층(Lane Layer), 그리고 위치 추정의 기준점이 되는 특징점들을 담은 점군 층(Point Cloud Layer) 또는 랜드마크 층(Landmark Layer)으로 나뉜다. 이러한 지도는 자율주행 차량의 센서가 악천후나 가림 현상으로 인해 주변 환경을 완벽히 인식하지 못할 때도 도로의 형상을 미리 예측할 수 있게 함으로써 [[인지]] 시스템의 한계를 보완하는 ’가상 센서’의 기능을 수행한다. |
| | |
| | 절대 위치 추정의 핵심인 [[위성 항법 시스템]]은 위성으로부터 수신한 신호를 바탕으로 지구 중심 좌표계에서의 위치를 결정한다. 그러나 일반적인 GNSS 신호는 전리층 지연이나 멀티패스(Multipath) 현상으로 인해 상당한 오차를 발생시킨다. 이를 극복하기 위해 지상의 기준국(Base Station)에서 보정 신호를 받아 오차를 제거하는 [[정밀 위성 항법]](Real-Time Kinematic, RTK) 기술이 주로 활용된다. RTK-GNSS는 이론적으로 수 센티미터 수준의 정밀도를 제공하지만, 고층 빌딩이 밀집한 도심(Urban Canyon)이나 터널 내에서는 위성 신호 수신이 불량해지는 단점이 있다. 따라서 차량의 가속도와 각속도를 측정하는 [[관성 측정 장치]]와 바퀴의 회전수를 측정하는 [[주행 기록계]](Odometry)를 통합한 [[관성 항법 시스템]](Inertial Navigation System, INS)을 통해 GNSS 신호가 단절된 구간에서도 차량의 궤적을 추정하는 [[추측 항법]](Dead Reckoning)을 병행한다. |
| | |
| | 실시간 위치 추정의 정밀도를 극대화하기 위해 사용되는 기법은 [[지도 매칭]](Map Matching)이다. 이는 차량에 탑재된 [[라이다]](LiDAR)나 [[카메라]]를 통해 획득한 주변 환경 데이터와 HD Map에 저장된 특징 정보를 대조하는 과정이다. 예를 들어, 라이다 센서로 스캔한 주변 건물의 외곽선이나 전신주의 위치를 HD Map의 점군 데이터와 정렬(Registration)함으로써 차량의 정확한 좌표와 방향(Heading)을 산출한다. 이 과정에서는 확률적 추정 모델인 [[칼만 필터]](Kalman Filter) 또는 [[파티클 필터]](Particle Filter)가 사용된다. 필터링 알고리즘은 이전 시점의 위치 정보와 현재 입력된 다양한 센서 데이터를 통계적으로 결합하여 최적의 상태 변수를 도출한다. 베이즈 정리(Bayes’ theorem)에 기반한 상태 추정식은 다음과 같이 표현될 수 있다. |
| | |
| | $$ P(x_t | z_{1:t}, u_{1:t}) = \eta P(z_t | x_t) \int P(x_t | x_{t-1}, u_t) P(x_{t-1} | z_{1:t-1}, u_{1:t-1}) dx_{t-1} $$ |
| | |
| | 위 식에서 $ x_t $는 $ t $ 시점에서의 차량 상태(위치 및 자세)를, $ z_t $는 센서 관측값, $ u_t $는 제어 입력(속도 및 조향각)을 의미하며, $ $는 정규화 상수이다. 이 모델은 제어 입력에 따른 예측 단계와 관측값에 따른 보정 단계를 반복하며 위치 오차를 최소화한다. 최근에는 지도가 없는 미지의 환경에서도 위치 추정과 지도 작성을 동시에 수행하는 [[동시적 위치추정 및 지도작성]](Simultaneous Localization and Mapping, SLAM) 기술이 HD Map의 생성 및 갱신 과정에 핵심적으로 적용되고 있으며, 이는 자율주행의 운행 가능 영역을 확장하는 데 기여하고 있다.((Seif, H. G., & Hu, X. (2016). Autonomous Driving in the Real World: The Application of HD Maps. IEEE Intelligent Transportation Systems Magazine, https://ieeexplore.ieee.org/document/7463137 |
| | )) ((Kuutti, S., et al. (2018). A Survey of the State-of-the-Art Localization Techniques and Their Potentials for Autonomous Vehicle Applications. IEEE Internet of Things Journal, https://ieeexplore.ieee.org/document/8334233 |
| | )) |
| |
| ==== 판단 및 주행 계획 시스템 ==== | ==== 판단 및 주행 계획 시스템 ==== |
| |
| 인지된 정보를 바탕으로 주행 경로를 결정하고 돌발 상황에 대응하는 의사결정 과정을 다룬다. | 자율주행 시스템의 판단 및 주행 계획(Decision Making and Motion Planning) 계층은 인지 시스템이 구축한 주변 환경 모델을 바탕으로 차량의 최적 거동을 결정하는 중추적인 역할을 수행한다. 이 시스템은 인간 운전자의 인지적 판단 과정을 모의하며, 수 밀리초(ms) 단위의 실시간성(Real-time)과 높은 수준의 안전성을 동시에 확보해야 한다. 학술적으로 주행 계획은 복잡한 문제를 효율적으로 해결하기 위해 대개 전역 경로 계획(Global Planning), 행동 결정(Behavioral Decision Making), 그리고 지역 경로 계획(Local Planning)의 세 가지 계층으로 구분되는 [[계층적 구조]](Hierarchical Structure)를 취한다. |
| | |
| | 가장 상위 계층인 전역 경로 계획은 출발지에서 목적지까지의 최적 이동 경로를 설정하는 과정이다. 이는 [[고정밀 지도]](High-Definition Map, HD Map)와 [[도로 네트워크]] 데이터를 기반으로 수행되며, [[그래프 이론]](Graph Theory)을 응용하여 도로를 노드(Node)와 에지(Edge)로 모델링한다. 이 단계에서는 주로 [[에이스타 알고리즘]](A* Algorithm)이나 [[다익스트라 알고리즘]](Dijkstra’s Algorithm)과 같은 최단 경로 탐색 기법이 사용되며, 실시간 교통 상황과 도로 규제 정보를 반영하여 시간적·거리적 비용을 최소화하는 경로를 산출한다. |
| | |
| | 중간 계층인 행동 결정 시스템은 전역 경로를 준수하면서도 주변의 동적 객체들과 상호작용하기 위한 전략을 수립한다. 차로 유지, 차로 변경, 교차로 통과, 정지선 준수 등 구체적인 주행 행태를 선택하는 과정이다. 초기에는 [[유한 상태 기계]](Finite State Machine, FSM)를 활용한 규칙 기반(Rule-based) 방식이 주로 사용되었으나, 복잡한 도심 주행 상황에서의 예외 처리 한계를 극복하기 위해 확률론적 모델이 도입되었다. 특히 주변 차량의 의도를 예측하기 위해 [[마르코프 결정 과정]](Markov Decision Process, MDP)이나 [[부분 관측 마르코프 결정 과정]](Partially Observable Markov Decision Process, POMDP)이 활용되며, 이는 불확실한 환경 속에서 기대 효용을 최대화하는 의사결정을 가능하게 한다. |
| | |
| | 최하위 계층인 지역 경로 계획은 결정된 행동 전략을 구체적인 물리적 궤적으로 변환하는 단계이다. 이 과정에서는 차량의 [[동역학]](Dynamics)적 제약 조건과 장애물 회피를 고려하여 가속도, 조향각, 시간 상의 위치를 포함하는 궤적(Trajectory)을 생성한다. 궤적 생성 시에는 안전성, 효율성, 승차감을 정량화한 [[비용 함수]](Cost Function)를 정의하고 이를 최소화하는 [[최적화]](Optimization) 문제를 해결한다. 예를 들어, 시간 $t$에 따른 차량의 상태 벡터를 $x(t)$라 할 때, 목적 함수 $J$는 다음과 같이 표현될 수 있다. |
| | |
| | $$J = \int_{t_0}^{t_f} (w_1 \|x(t) - x_{ref}(t)\|^2 + w_2 \|\dot{u}(t)\|^2) dt$$ |
| | |
| | 여기서 $x_{ref}$는 참조 경로를, $u$는 제어 입력을 의미하며, $w_1, w_2$는 각 항목의 가중치이다. 이러한 최적화 문제를 풀기 위해 [[동적 프로그래밍]](Dynamic Programming)이나 [[모델 예측 제어]](Model Predictive Control, MPC) 기법이 널리 사용된다. 최근에는 [[심층 강화학습]](Deep Reinforcement Learning)을 도입하여 복잡한 비정형 환경에서도 유연하게 대응하려는 연구가 활발히 진행되고 있으나, 결과의 해석 가능성(Explainability)과 [[기능 안전]](Functional Safety) 확보는 여전히 해결해야 할 과제로 남아 있다. 최종적으로 생성된 궤적은 하부의 차량 제어 시스템으로 전달되어 조향 및 가감속의 물리적 신호로 변환된다. |
| |
| === 경로 생성 및 궤적 계획 === | === 경로 생성 및 궤적 계획 === |
| |
| 목적지까지의 최적 경로와 실시간 장애물 회피를 위한 국부적 주행 궤적을 생성하는 알고리즘을 기술한다. | 경로 생성 및 궤적 계획(Path Generation and Trajectory Planning)은 [[인지]] 시스템이 구축한 주변 환경 모델과 차량의 현재 상태를 바탕으로, 목적지까지 안전하고 효율적으로 도달하기 위한 최적의 이동 경로를 수학적으로 도출하는 과정이다. 이 시스템은 대개 시간적·공간적 범위에 따라 거시적인 주행 노선을 결정하는 [[전역 경로 계획]](Global Path Planning)과 실시간 장애물 회피 및 차량의 동적 특성을 고려하는 [[지역 궤적 계획]](Local Trajectory Planning)의 계층적 구조로 구성된다. 판단 및 주행 계획 시스템의 핵심은 불확실한 도로 환경 속에서도 차량의 물리적 한계를 준수하며 주행의 안전성과 승차감을 동시에 확보하는 데 있다. |
| | |
| | 전역 경로 계획은 [[정밀 지도]](High-Definition Map) 데이터와 [[전역 항법 위성 시스템]](Global Navigation Satellite System, GNSS) 정보를 활용하여 출발지부터 목적지까지의 간선 경로를 설정한다. 이 단계에서는 도로망을 [[그래프 이론]](Graph Theory)에 기반한 [[노드]](Node)와 [[엣지]](Edge)의 집합으로 모델링하며, 각 도로 구간에 거리, 예상 소요 시간, 도로 등급 등의 가중치를 부여한다. 대표적인 알고리즘으로는 시작점에서 모든 노드까지의 최단 거리를 구하는 [[다익스트라 알고리즘]](Dijkstra’s Algorithm)과 휴리스틱 함수를 도입하여 탐색 효율을 극대화한 [[A* 알고리즘]]이 주로 사용된다. 전역 경로는 주행 중 도로 통제나 극심한 정체와 같은 대규모 환경 변화가 발생하지 않는 한 비교적 긴 시간 동안 유지되는 정적인 특성을 갖는다. |
| | |
| | 지역 궤적 계획은 전역 경로를 추종하는 동시에 센서를 통해 실시간으로 탐지되는 동적 장애물을 회피하기 위한 구체적인 움직임을 생성한다. 이 과정에서는 차량의 [[운동학]](Kinematics) 및 [[동역학]](Dynamics)적 제약 조건을 반드시 고려해야 한다. 차량은 조향 각도의 한계로 인해 측면으로 즉시 이동할 수 없는 [[비홀로노믹]](Non-holonomic) 특성을 가지므로, 생성된 궤적은 차량이 물리적으로 주행 가능한 곡률을 유지해야 한다. 이를 해결하기 위해 고차 다항식을 이용한 [[곡선 피팅]](Curve Fitting) 기법이나, 상태 공간을 격자 형태로 나누어 탐색하는 [[래티스 플래너]](Lattice Planner)가 활용된다. 또한, 복잡한 환경에서는 무작위 표본 추출을 통해 경로를 확장하는 [[RRT]](Rapidly-exploring Random Tree) 알고리즘이나 그 변형 모델이 경로 탐색의 실시간성을 확보하기 위해 도입되기도 한다. |
| | |
| | 최종적인 궤적은 위치 정보뿐만 아니라 시간(Time)에 따른 속도, 가속도, [[저크]](Jerk, 가속도의 변화율) 정보를 포함하는 시계열 데이터의 집합으로 정의된다. 궤적의 최적화는 주행의 안전성, 효율성, 승차감을 종합적으로 고려한 [[비용 함수]](Cost Function)를 최소화하는 문제로 귀결된다. 일반적인 궤적 최적화 문제는 다음과 같은 수식으로 정식화할 수 있다. |
| | |
| | $$J = \int_{t_0}^{t_f} [w_1 \cdot f_{safety}(t) + w_2 \cdot f_{smoothness}(t) + w_3 \cdot f_{efficiency}(t)] dt$$ |
| | |
| | 여기서 $J$는 전체 주행 비용을 의미하며, $w_i$는 각 항목에 부여된 가중치이다. 안전성 항은 장애물과의 거리 및 차선 준수 여부를 판단하고, 평활성(Smoothness) 항은 가속도와 저크를 최소화하여 승차감을 높이며, 효율성 항은 목표 속도 유지와 최단 시간 도달을 목표로 한다. 이러한 최적화 문제를 실시간으로 해결하기 위해 [[모델 예측 제어]](Model Predictive Control, MPC) 기법이 널리 사용되며, 이는 짧은 미래 구간에 대한 최적 거동을 반복적으로 계산하여 외부 교란에 강건한 제어 성능을 제공한다. |
| | |
| | 최근에는 전통적인 기하학적·수학적 모델링의 한계를 극복하기 위해 [[심층 학습]](Deep Learning)과 [[강화 학습]](Reinforcement Learning)을 결합한 지능형 경로 계획 연구가 활발히 진행되고 있다. 이는 비정형 도로 상황이나 복잡한 교차로에서 인간 운전자의 판단 능력을 모사하여, 명시적인 규칙으로 정의하기 어려운 상황에서도 유연한 의사결정을 내릴 수 있게 한다. 특히 [[심층 강화 학습]](Deep Reinforcement Learning)은 보상 함수 설계를 통해 다양한 주행 시나리오를 스스로 학습함으로써, 고도화된 [[자율주행]] 시스템의 판단 지능을 구현하는 핵심 기술로 자리 잡고 있다. |
| |
| === 인공지능 기반 의사결정 === | === 인공지능 기반 의사결정 === |
| |
| 복잡한 교통 상황에서 규칙 기반 또는 학습 기반 모델을 통해 최선의 주행 전략을 선택하는 과정을 설명한다. | 자율주행 시스템의 의사결정 계층은 [[인지]] 시스템이 전달한 주변 환경의 추상화된 정보와 차량의 현재 상태를 결합하여, 안전하고 효율적인 주행을 위한 최적의 전략을 선택하는 중추적 기능을 수행한다. 이 과정은 단순한 장애물 회피를 넘어 도로 교통 법규 준수, 타 차량과의 상호작용, 승객의 승차감 및 에너지 효율성 등 다각적인 목적 함수를 최적화하는 복합적인 문제로 정의된다. 초기 자율주행 연구에서는 주로 사전에 정의된 논리 체계에 기반한 [[규칙 기반 모델]](Rule-based Model)이 주를 이루었으나, 최근에는 복잡하고 예측 불가능한 도로 환경에 대응하기 위해 [[인공지능]](Artificial Intelligence) 및 [[기계 학습]](Machine Learning)을 활용한 학습 기반 모델이 핵심적인 역할을 담당하고 있다. |
| | |
| | 규칙 기반 의사결정 모델의 대표적인 형태는 [[유한 상태 기계]](Finite State Machine, FSM)이다. 이는 주행 상황을 ‘차선 유지’, ‘차선 변경’, ‘교차로 정지’ 등 이산적인 상태로 정의하고, 특정 조건이 충족될 때 상태 간 전이를 수행하는 방식이다. 이러한 방식은 동작의 결정론적(Deterministic) 특성 덕분에 결과의 예측 가능성과 [[설명 가능성]](Explainability)이 높다는 장점이 있다. 그러나 실제 도로의 시나리오는 기하급수적으로 다양하며, 모든 예외 상황(Edge Case)을 수동으로 프로그래밍하는 데에는 한계가 존재한다. 또한, 규칙 간의 충돌이나 복잡한 다중 차량 상호작용 상황에서 유연한 대처가 어렵다는 단점이 있다. |
| | |
| | 이러한 한계를 극복하기 위해 도입된 [[심층 학습]](Deep Learning) 기반 의사결정 기술은 방대한 주행 데이터를 통해 최적의 주행 정책을 스스로 학습한다. 특히 [[심층 강화 학습]](Deep Reinforcement Learning, DRL)은 자율주행 차량을 하나의 에이전트로 간주하고, 주변 환경과의 상호작용을 통해 누적 보상을 최대화하는 방향으로 주행 전략을 수립한다((B. R. Kiran et al., “Deep Reinforcement Learning for Autonomous Driving: A Survey,” IEEE Transactions on Intelligent Transportation Systems, 2021, https://ieeexplore.ieee.org/document/9351818/ |
| | )). 이 과정은 일반적으로 [[마르코프 결정 과정]](Markov Decision Process, MDP)으로 정형화되며, 상태 공간 $ S $, 행동 공간 $ A $, 전이 확률 $ P $, 그리고 [[보상 함수]](Reward Function) $ R $의 요소로 구성된다. 에이전트는 다음과 같은 목적 함수를 최대화하는 정책 $ $를 학습한다. |
| | |
| | $$ J(\pi) = \mathbb{E}_{\pi} \left[ \sum_{t=0}^{\infty} \gamma^t R(s_t, a_t) \right] $$ |
| | |
| | 여기서 $ $는 미래 보상의 가치를 조절하는 할인 인자(Discount Factor)이다. 보상 함수는 사고 회피 시 큰 양의 보상을, 법규 위반이나 급격한 가감속 발생 시 음의 보상을 부여함으로써 시스템이 안전하고 매끄러운 주행을 지향하도록 유도한다. |
| | |
| | 또 다른 접근 방식인 [[모방 학습]](Imitation Learning)은 숙련된 인간 운전자의 주행 데이터를 직접 학습하여 전문가의 판단 능력을 복제한다. [[행동 복제]](Behavioral Cloning) 기법은 인지 데이터와 운전 조작 사이의 매핑을 직접 학습함으로써 복잡한 보상 함수 설계 없이도 자연스러운 주행 거동을 구현할 수 있게 한다. 그러나 학습 데이터에 포함되지 않은 생소한 상황에 직면했을 때 시스템의 안정성이 급격히 저하되는 [[공변량 변화]](Covariate Shift) 문제에 취약하다는 과제가 남아 있다. |
| | |
| | 현대적 자율주행 시스템은 규칙 기반 모델의 안전성과 학습 기반 모델의 유연성을 결합한 하이브리드 구조를 채택하는 추세이다. 예를 들어, 인공지능이 생성한 후보 궤적들을 규칙 기반의 [[안전 계층]](Safety Layer)에서 검증하거나, [[게임 이론]](Game Theory)을 활용하여 타 차량의 의도를 예측하고 협력적 의사결정을 내리는 [[다중 에이전트 시스템]](Multi-Agent System) 관점의 연구가 활발히 진행되고 있다. 이러한 지능형 의사결정 시스템은 [[형식 검증]](Formal Verification) 기술과의 결합을 통해 인공지능의 불확실성을 제어하고, 실질적인 도로 주행에서의 신뢰성을 확보해 나가고 있다. |
| |
| ==== 차량 제어 시스템 ==== | ==== 차량 제어 시스템 ==== |
| |
| 결정된 주행 계획을 실제 차량의 물리적 움직임으로 변환하는 하부 제어 기술을 다룬다. | 차량 제어 시스템은 자율주행 시스템의 최하위 계층으로서, 상위의 [[판단]] 및 주행 계획 시스템으로부터 전달받은 목표 궤적(Target Trajectory)을 차량의 물리적인 움직임으로 구현하는 핵심적인 역할을 수행한다. 이는 [[제어 공학]](Control Engineering)의 관점에서 차량의 현재 상태를 목표 상태에 일치시키기 위해 가속, 제동, 조향 장치를 정밀하게 조작하는 [[폐루프 제어]](Closed-loop Control) 과정으로 정의된다. 제어 시스템은 차량의 동적 특성과 노면 상태, 바람과 같은 외부 외란(Disturbance)을 실시간으로 고려하여 시스템의 안정성과 승차감을 확보해야 한다. |
| | |
| | 차량의 움직임을 수학적으로 기술하기 위해서는 [[차량 동역학]](Vehicle Dynamics) 모델의 수립이 선행되어야 한다. 가장 널리 사용되는 모델은 차량을 평면상의 운동체로 가정하는 [[자전거 모델]](Bicycle Model)이다. 이 모델은 차량의 복잡한 4륜 구조를 전륜과 후륜 각각 하나의 바퀴로 단순화하여 조향각과 차량의 진행 방향 사이의 관계를 기술한다. 제어 시스템은 이러한 모델을 바탕으로 차량의 상태 벡터를 정의하며, 일반적으로 상태 벡터 $ $는 다음과 같이 구성된다. |
| | |
| | $$ \mathbf{x} = [x, y, \psi, v]^T $$ |
| | |
| | 여기서 $ x, y $는 차량의 좌표, $ $는 요각(Yaw angle), $ v $는 차량의 속도를 의미한다. 제어 시스템은 이 상태 변수들을 목표값과 비교하여 오차를 산출하고, 이를 최소화하기 위한 제어 입력을 계산한다. |
| | |
| | 제어의 영역은 크게 종방향 제어(Longitudinal Control)와 횡방향 제어(Lateral Control)로 구분된다. 종방향 제어는 차량의 가감속을 담당하며, 앞차와의 거리 유지나 설정된 속도 추종을 목표로 한다. 초기에는 [[PID 제어]](Proportional-Integral-Derivative Control)가 주로 사용되었으나, 엔진의 비선형성과 변속기의 응답 지연 등을 극복하기 위해 최근에는 [[모델 예측 제어]](Model Predictive Control, MPC)와 같은 고도화된 기법이 도입되고 있다. 종방향 제어기는 엔진 토크나 제동 압력을 조절하는 [[액추에이터]](Actuator) 신호를 생성하여 차량의 속도 프로파일을 관리한다. |
| | |
| | 횡방향 제어는 차량이 계획된 경로를 이탈하지 않도록 조향각을 조절하는 기술이다. 고전적인 기법으로는 목표 경로상의 한 점을 주시하여 조향을 결정하는 [[순수 추종]](Pure Pursuit) 알고리즘이나, 차량 전륜의 횡방향 오차를 기반으로 하는 [[스탠리 제어기]](Stanley Controller)가 있다. 그러나 고속 주행 시의 안정성과 경로 추종 성능을 동시에 확보하기 위해 현대 자율주행 시스템에서는 차량의 동역학적 한계를 고려할 수 있는 MPC를 선호한다. MPC는 미래 일정 시간(Prediction Horizon) 동안의 차량 거동을 예측하여 최적의 제어 입력을 결정하며, 다음과 같은 [[비용 함수]](Cost Function)를 최소화하는 최적화 문제를 매 주기 해결한다. |
| | |
| | $$ J = \sum_{k=0}^{N-1} (\|\mathbf{x}_k - \mathbf{x}_{ref,k}\|^2_Q + \|\mathbf{u}_k\|^2_R) $$ |
| | |
| | 여기서 $ %%//%%k $는 예측된 상태, $ %%//%%{ref,k} $는 목표 상태, $ _k $는 제어 입력을 의미하며, $ Q $와 $ R $은 각 항목의 가중치를 결정하는 행렬이다. 이를 통해 차량은 물리적 한계 내에서 가장 부드럽고 정확하게 경로를 추종할 수 있게 된다. |
| | |
| | 최종적으로 차량 제어 시스템은 계산된 제어 명령을 차량 내부의 통신망인 [[CAN]](Controller Area Network)을 통해 각 하위 제어기(ECU)로 전달한다. 이때 시스템은 센서 데이터의 지연이나 통신 오류와 같은 불확실성 속에서도 제어 성능을 유지할 수 있는 [[강건 제어]](Robust Control) 특성을 갖추어야 한다. 자율주행의 안전성은 결국 계획된 궤적과 실제 주행 궤적 사이의 오차를 얼마나 정밀하게 제어하느냐에 달려 있으며, 이는 기계 공학과 소프트웨어 공학의 유기적인 결합을 통해 완성된다.((A Survey of Motion Planning and Control Techniques for Self-Driving Urban Vehicles, https://ieeexplore.ieee.org/document/7406695 |
| | )) |
| |
| === 종방향 및 횡방향 제어 === | === 종방향 및 횡방향 제어 === |
| |
| 차량의 가감속과 조향을 정밀하게 조절하여 계획된 궤적을 추종하는 제어 기법을 기술한다. | 차량 제어 시스템의 핵심은 상위 계층인 [[판단]] 및 주행 계획 시스템에서 생성된 목표 궤적(Target Trajectory)을 실제 차량의 물리적 움직임으로 변환하는 것이다. 이를 위해 제어 시스템은 차량의 진행 방향인 종방향(Longitudinal)과 그에 수직인 횡방향(Lateral)으로 제어 평면을 분리하여 설계하는 것이 일반적이다. 이러한 분리 접근법은 계산의 복잡성을 줄이고 각 방향의 동역학적 특성을 독립적으로 최적화할 수 있게 한다. |
| | |
| | 종방향 제어는 차량의 가속과 제동을 조절하여 목표 속도를 유지하거나 전방 차량과의 안전거리를 확보하는 것을 목적으로 한다. 이는 주로 [[구동계]](Powertrain)와 [[제동 시스템]](Braking System)의 [[액추에이터]]를 조작함으로써 수행된다. 종방향 제어의 가장 기본적인 형태는 [[PID 제어]](Proportional-Integral-Derivative Control) 알고리즘을 활용하여 목표 속도와 현재 속도 사이의 오차를 최소화하는 것이다. 더 나아가 [[적응형 크루즈 컨트롤]](Adaptive Cruise Control, ACC)과 같은 시스템에서는 앞차와의 거리를 일정하게 유지하기 위해 레이더나 라이다로부터 얻은 거리 정보를 피드백으로 사용한다. 종방향 동역학을 모델링할 때에는 차량의 질량, 공기 저항, 구름 저항 등을 고려한 운동 방정식이 활용된다. |
| | |
| | 횡방향 제어는 차량의 조향각(Steering Angle)을 정밀하게 조절하여 계획된 경로를 이탈하지 않고 추종하도록 하는 기술이다. 횡방향 제어 알고리즘은 크게 기하학적 모델 기반 방식과 동역학적 모델 기반 방식으로 구분된다. 기하학적 모델의 대표적인 예인 [[Pure Pursuit]] 알고리즘은 차량의 후륜 중심과 경로 상의 전방 주시 지점(Look-ahead Point)을 잇는 원호의 곡률을 계산하여 조향각을 산출한다. 또한 [[Stanley 제어기]]는 전륜 차축의 중심에서 경로까지의 거리에 해당하는 횡방향 오차(Cross-track Error)와 차량의 헤딩 오차(Heading Error)를 동시에 고려하여 제어 입력을 결정한다. |
| | |
| | 고속 주행이나 급격한 선회 상황에서는 차량의 질량 관성과 타이어의 슬립(Slip) 현상을 무시할 수 없으므로, 단순한 기하학적 모델을 넘어선 [[자전거 모델]](Bicycle Model) 기반의 동역학적 제어가 필수적이다. 이때 [[모델 예측 제어]](Model Predictive Control, MPC)가 널리 사용된다. MPC는 차량의 동역학 모델을 바탕으로 미래 일정 시간 동안의 거동을 예측하고, 제어 입력의 변화량과 오차를 최소화하는 최적화 문제를 매 주기 해결함으로써 제어 입력을 도출한다. |
| | |
| | $$ J = \sum_{k=0}^{N} (w_e e_k^2 + w_u \Delta u_k^2) $$ |
| | |
| | 위 식에서 $ J $는 비용 함수(Cost Function), $ e_k $는 목표 궤적과의 오차, $ u_k $는 제어 입력의 변화량을 의미하며, $ w_e $와 $ w_u $는 각 항목에 대한 가중치이다. 이러한 최적화 기반 제어는 차량의 물리적 한계(최대 조향각, 가속도 제한 등)를 제약 조건으로 설정할 수 있다는 장점이 있다. |
| | |
| | 최근의 연구는 종방향과 횡방향 제어를 독립적으로 수행할 때 발생하는 결합(Coupling) 문제를 해결하기 위해 통합 제어 시스템을 구축하는 방향으로 전개되고 있다. 예를 들어, 급선회하며 제동하는 상황에서는 타이어의 마찰력이 종방향과 횡방향으로 분산되므로, 이를 통합적으로 고려한 [[비선형 동역학]] 모델링과 제어가 시스템의 안정성을 확보하는 데 결정적인 역할을 한다. 또한 [[상태 공간 방정식]](State-space Equation)과 [[칼만 필터]](Kalman Filter)를 활용하여 센서 노이즈가 포함된 차량 상태 정보를 정확히 추정함으로써 제어의 정밀도를 높이고 있다. |
| |
| ===== 자율주행 단계별 분류 체계 ===== | ===== 자율주행 단계별 분류 체계 ===== |
| |
| 국제적인 기준에 따라 자율주행의 자동화 수준을 단계별로 구분하고 각 단계의 특징을 정의한다. | 자율주행 기술의 발전 양상을 체계적으로 파악하고 기술적·법적 기준을 수립하기 위해, 국제적으로 통용되는 표준화된 분류 체계의 정립은 필수적이다. 현재 전 세계 자동차 산업과 학계에서 가장 널리 인용되는 기준은 [[미국자동차공학회]](Society of Automotive Engineers, SAE International)가 제정한 표준 문서인 ‘J3016’이다. 이 표준은 자율주행의 단계를 0단계부터 5단계까지 총 6개 수준으로 구분하며, 각 단계는 [[동적 운전 작업]](Dynamic Driving Task, DDT)의 수행 주체와 주행 중 환경 모니터링의 책임, 그리고 시스템의 개입 정도에 따라 정의된다. 특히 이 분류 체계는 주행의 주도권이 인간 운전자에게 있는 ’운전자 보조(Driver Support)’ 단계와 시스템이 주도권을 갖는 ‘자동 운전(Automated Driving)’ 단계로 크게 이분화되는 특징을 가진다.((J3016_202104: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, https://saemobilus.sae.org/content/j3016_202104 |
| | )) |
| | |
| | 0단계(비자동화)는 모든 주행 작업을 인간 운전자가 직접 수행하는 상태이다. 비록 전방 충돌 경고나 차선 이탈 경고와 같은 능동형 안전 시스템이 장착되어 있더라도, 이들 장치가 차량의 조향이나 가감속을 지속적으로 제어하지 않는다면 0단계로 분류된다. 1단계(운전자 보조)는 조향 보조 또는 가감속 제어 중 어느 하나를 시스템이 수행하는 상태를 의미한다. [[어댑티브 크루즈 컨트롤]](Adaptive Cruise Control, ACC)이나 [[차로 유지 보조]](Lane Keeping Assist, LKA)가 대표적인 예시이며, 운전자는 항상 운전대를 잡고 주변 상황을 주시해야 한다. 2단계(부분 자동화)는 시스템이 조향과 가감속을 동시에 제어하는 수준을 말한다. 이 단계까지는 인간 운전자가 주행 환경을 실시간으로 모니터링해야 하며, 시스템의 오류나 한계 상황에 즉각적으로 대응할 책임이 운전자에게 귀속된다. |
| | |
| | 3단계(조건부 자동화)부터는 기술적 패러다임이 전환되어 시스템이 주행 환경의 모니터링을 담당하게 된다. 3단계에서는 일정한 [[운행 설계 영역]](Operational Design Domain, ODD) 내에서 시스템이 모든 주행 작업을 수행한다. 다만, 시스템이 기능 수행의 한계에 도달하여 제어권 전환 요구(Request to Intervene)를 보낼 경우, 운전자는 지체 없이 운전 업무에 복귀해야 한다. 4단계(고도 자동화)는 지정된 조건이나 영역 내에서 시스템이 모든 주행을 책임지며, 비상 상황 시에도 시스템이 스스로 [[최소 위험 상태]](Minimal Risk Condition, MRC)에 도달할 수 있는 능력을 갖춘 상태이다. 이 단계에서는 특정 구역 내에서 운전자의 개입이 전혀 필요하지 않다. 마지막 5단계(완전 자동화)는 지리적 영역이나 기상 조건의 제한 없이 모든 도로 환경에서 시스템이 인간 운전자와 동일하거나 그 이상의 운전 능력을 발휘하는 최종적인 단계를 의미한다. |
| | |
| | 이러한 단계적 구분은 단순히 기술적 성취도를 나타내는 지표를 넘어, 교통사고 발생 시의 [[법적 책임]] 소재를 판단하거나 자율주행 관련 법규를 제정하는 데 중요한 근거가 된다. 2단계와 3단계 사이의 구분은 특히 중요한데, 이는 사고의 일차적 책임이 인간 운전자에게 있는지 혹은 제조사가 설계한 자율주행 시스템에 있는지 결정짓는 분기점이 되기 때문이다. 따라서 현대 [[자동차 공학]] 연구에서는 각 단계별 제어권 전환 과정의 안정성을 확보하고, 시스템이 인식할 수 있는 ODD를 확장하는 데 주력하고 있다. |
| |
| ==== 운전자 보조 및 부분 자동화 ==== | ==== 운전자 보조 및 부분 자동화 ==== |
| |
| 운전자가 주도권을 가지되 시스템이 특정 기능을 보조하는 초기 단계의 자율주행 기술을 설명한다. | 자율주행 기술의 초기 단계는 운전자의 주행 부담을 경감시키고 교통사고의 주요 원인인 인적 오류를 줄이기 위한 보조적 수단으로 발전하였다. [[미국자동차공학회]](SAE International)가 정립한 자율주행 단계 분류 표준인 [[SAE J3016]]에 따르면, 이러한 초기 기술은 [[레벨 1]](운전자 보조)과 [[레벨 2]](부분 자동화)로 구분된다.((SAE International, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016_202104), https://www.sae.org/standards/content/j3016_202104/ |
| | )) 이 단계들의 핵심적인 특징은 시스템이 차량의 움직임을 물리적으로 제어함에도 불구하고, 주변 환경에 대한 모니터링과 [[동적 주행 업무]](Dynamic Driving Task, DDT)의 수행 책임이 전적으로 인간 운전자에게 귀속된다는 점이다. |
| | |
| | [[레벨 1]] 단계인 운전자 보조(Driver Assistance)는 시스템이 차량의 [[종방향 제어]] 또는 [[횡방향 제어]] 중 어느 하나만을 지속적으로 수행하는 상태를 의미한다. 대표적인 기술로는 [[어댑티브 크루즈 컨트롤]](Adaptive Cruise Control, ACC)과 [[차로 유지 보조]](Lane Keeping Assist, LKA)가 있다. 어댑티브 크루즈 컨트롤은 전방에 장착된 [[레이더]] 센서를 통해 선행 차량과의 거리 및 상대 속도를 측정하고, 이를 바탕으로 차량의 가속과 감속을 자동으로 조절한다. 이때 시스템이 목표로 하는 가속도 $ a_{target} $는 일반적으로 다음과 같은 제어 알고리즘을 통해 결정된다. |
| | |
| | $$ a_{target} = K_p (d_{actual} - d_{safe}) + K_v (v_{rel}) $$ |
| | |
| | 여기서 $ d_{actual} $은 실제 차간 거리, $ d_{safe} $는 설정된 안전 거리, $ v_{rel} $은 선행 차량과의 상대 속도를 의미하며, $ K_p $와 $ K_v $는 각각 거리와 속도 편차에 대한 제어 이득(gain)이다. 반면, 차로 유지 보조는 카메라 센서가 차선을 인식하여 차량이 차로 중앙을 유지하도록 스티어링 휠을 미세하게 조정하는 횡방향 제어에 집중한다. 레벨 1에서는 이 두 기능이 독립적으로 작동하거나, 운전자가 동시에 활성화하더라도 시스템 간의 유기적 통합이 제한적인 수준에 머문다. |
| | |
| | [[레벨 2]] 단계인 부분 자동화(Partial Automation)는 종방향 제어와 횡방향 제어가 하나의 시스템 내에서 통합되어 동시에 이루어지는 단계를 말한다. 고속도로 주행 보조(Highway Driving Assist, HDA)와 같은 기술이 이에 해당하며, 차량은 스스로 앞차와의 거리를 맞추는 동시에 차선을 따라 곡선 구간을 주행할 수 있다. 기술적으로는 [[센서 융합]](Sensor Fusion)을 통해 카메라와 레이더의 데이터를 통합 처리함으로써 주변 상황에 대한 인지 정확도를 높인다. 그러나 레벨 2 시스템은 여전히 인지 및 판단 영역에서 명확한 한계를 지닌다. 예를 들어, 급격한 기상 변화, 복잡한 교차로, 혹은 인식되지 않은 장애물 등의 상황에서 시스템은 기능을 정상적으로 수행할 수 없으며, 이때 운전자는 별도의 유예 시간 없이 즉각적으로 제어권을 회수하여 사고를 방지해야 한다. |
| | |
| | 이러한 낮은 단계의 자동화에서 가장 중요한 학술적 쟁점 중 하나는 [[인간-기계 상호작용]](Human-Machine Interaction, HMI)과 운전자의 주의력 유지 문제이다. 운전자가 시스템의 성능을 과신하여 전방 주시를 소홀히 하는 [[오토메이션 컴플리전시]](Automation Complacency) 현상은 심각한 안전 위협 요소로 지목된다. 이를 방지하기 위해 레벨 2 차량에는 운전자의 스티어링 휠 파지 여부를 감지하는 [[핸즈온]] 센서나, 적외선 카메라로 운전자의 시선과 안면 방향을 추적하는 [[드라이버 모니터링 시스템]](Driver Monitoring System, DMS)이 필수적으로 탑재된다. 만약 운전자가 일정 시간 이상 전방을 주시하지 않거나 스티어링 휠에서 손을 뗄 경우, 시스템은 시각적·청각적 경고를 통해 [[제어권 전환]]을 준비시키며, 불응 시 시스템을 강제로 종료하는 등의 안전 로직을 수행한다. 결국 운전자 보조 및 부분 자동화 단계는 기계가 인간을 완전히 대체하는 것이 아니라, 인간의 주행 능력을 보완하고 확장하는 공생적 관계의 초기 모델이라 할 수 있다. |
| |
| ==== 조건부 및 고도 자동화 ==== | ==== 조건부 및 고도 자동화 ==== |
| |
| 특정 조건에서 시스템이 운행을 주도하며, 필요 시 운전자가 개입하는 중간 단계의 특징을 다룬다. | 자율주행의 단계별 분류에서 [[미국자동차공학회]](Society of Automotive Engineers, SAE International)가 정의한 레벨 3와 레벨 4는 주행의 주도권이 인간 운전자에서 시스템으로 전전환되는 결정적인 기술적 분기점을 형성한다. 이 단계들은 특정 조건하에서 시스템이 [[동적 주행 과제]](Dynamic Driving Task, DDT)를 전적으로 수행한다는 공통점이 있으나, 시스템의 한계 상황 발생 시 대응 주체와 책임의 소재에 따라 명확히 구분된다. 레벨 3인 [[조건부 자동화]](Conditional Automation)는 시스템이 주행을 주도하되 시스템의 요청이 있을 경우 운전자가 즉각 개입해야 하는 단계이며, 레벨 4인 [[고도 자동화]](High Automation)는 특정 조건 내에서라면 운전자의 개입 없이도 시스템이 스스로 안전을 확보할 수 있는 단계를 의미한다.((SAE International, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016_202104), https://wiki.unece.org/download/attachments/128418539/SAE%20J3016_202104.pdf |
| | )) |
| | |
| | 레벨 3 단계에서 자율주행 시스템은 정해진 [[운행 설계 영역]](Operational Design Domain, ODD) 내에서 차량의 가감속, 조향, 그리고 주변 환경의 모니터링을 포함한 모든 동적 주행 과제를 수행한다. 이 단계의 핵심적 특징은 운전자가 운전대에서 손을 떼고 전방 주시 의무에서 일시적으로 해방될 수 있다는 점이다. 그러나 시스템이 자신의 작동 한계를 감지하거나 기능적 오류가 발생할 경우, 시스템은 운전자에게 [[제어권 전환]](Take-over)을 요청하는 ‘개입 요청(Request to Intervene, RtI)’ 신호를 보낸다. 이때 운전자는 즉시 주행 상황을 파악하고 물리적인 제어권을 인수해야 하는 ’제어권 전환 준비 운전자(Fallback-ready User)’로서의 역할을 수행해야 한다. 이러한 특성 때문에 레벨 3는 기술적 완성도와 별개로 인간과 기계 간의 [[인간-기계 인터페이스]](Human-Machine Interface, HMI) 설계 및 운전자의 주의 분산에 따른 안전성 확보가 주요한 학술적·실무적 쟁점이 된다. |
| | |
| | 레벨 4 단계인 고도 자동화는 시스템이 주행 과제뿐만 아니라 비상 상황 시의 사후 조치인 [[동적 주행 과제 폴백]](DDT Fallback)까지 독자적으로 수행할 수 있는 수준을 말한다. 레벨 3와의 결정적인 차이는 시스템이 개입 요청을 보냈음에도 불구하고 운전자가 응답하지 않는 상황에서도 시스템 스스로 안전을 확보할 수 있다는 점이다. 즉, 시스템은 스스로 차량을 안전한 장소에 정차시키는 [[최소 위험 상태]](Minimal Risk Condition, MRC)에 도달할 수 있는 능력을 갖추어야 한다. 레벨 4 차량은 특정 지역(Geofencing), 특정 기상 조건, 혹은 특정 시간대와 같은 엄격한 운행 설계 영역 내에서 운용되며, 해당 영역 안에서는 인간의 개입이 전혀 필요하지 않다. 따라서 이 단계부터는 운전석이 없는 형태의 [[셔틀]] 서비스나 특정 노선을 주행하는 무인 물류 차량 등의 형태로 상용화가 추진된다. |
| | |
| | 이러한 중간 단계의 자율주행 기술은 [[객체 및 사건 탐지 및 대응]](Object and Event Detection and Response, OEDR) 능력의 비약적인 향상을 전제로 한다. 레벨 3와 레벨 4 시스템은 복잡한 도심 교차로나 예측 불가능한 보행자의 움직임 등을 실시간으로 인지하고 판단해야 하므로, [[딥러닝]] 기반의 인지 알고리즘과 고성능 연산 장치의 결합이 필수적이다. 또한, 시스템의 신뢰성을 보장하기 위해 센서나 제어기 중 하나가 고장 나더라도 보조 시스템이 작동하는 [[리던던시]](Redundancy) 설계가 핵심적인 기술적 요구사항으로 강조된다. 결과적으로 조건부 및 고도 자동화 단계는 인간 운전자의 보조를 넘어선 ’시스템 주도 주행’의 시대를 여는 기술적 토대이며, 이는 향후 운전자의 개입이 완전히 배제되는 [[완전 자율주행]] 단계로 진입하기 위한 필수적인 과정이라 할 수 있다.((SAE International, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016_202104), https://wiki.unece.org/download/attachments/128418539/SAE%20J3016_202104.pdf |
| | )) |
| |
| ==== 완전 자율주행 ==== | ==== 완전 자율주행 ==== |
| |
| 모든 도로 조건과 환경에서 운전자의 개입 없이 시스템이 독자적으로 운행하는 최종 단계를 기술한다. | 완전 자율주행(Full Driving Automation)은 [[미국자동차공학회]](Society of Automotive Engineers, SAE International)가 정의한 자율주행 6단계 중 최종 단계인 레벨 5를 지칭한다. 이 단계에서 자율주행 시스템은 지리적 영역, 기상 상태, 도로의 종류 등 어떠한 환경적 제약도 없이 인간 운전자가 수행할 수 있는 모든 [[동적 주행 과업]](Dynamic Driving Task, DDT)을 독립적으로 완수한다. 레벨 4인 고도 자동화(High Automation)와 구별되는 결정적 차이는 [[운행 설계 영역]](Operational Design Domain, ODD)의 한계가 존재하지 않는다는 점이다. 레벨 4 차량이 고정밀 지도가 구축된 특정 구역이나 양호한 기상 조건 내에서만 자율주행이 가능한 것과 달리, 레벨 5 차량은 전 세계 모든 도로에서 운전자의 개입이나 감시 없이 독자적으로 운행할 수 있는 범용적 주행 능력을 갖추어야 한다. |
| | |
| | 기술적 관점에서 완전 자율주행의 실현은 [[인지]](Perception), [[판단]](Planning), [[제어]](Control)의 전 과정이 인간의 인지적 유연성을 상회하는 수준으로 고도화되어야 함을 의미한다. 특히 데이터 학습 과정에서 경험하지 못한 이례적 상황인 [[에지 케이스]](Edge Case)에 대한 완벽한 대응이 필수적이다. 이를 위해 시스템은 [[딥러닝]](Deep Learning) 기반의 [[컴퓨터 비전]] 기술을 고도화할 뿐만 아니라, 차량 주변의 물리적 센서 정보를 넘어선 광역적 정보 처리를 위해 [[차량 사물 통신]](Vehicle-to-Everything, V2X)과 [[에지 컴퓨팅]](Edge Computing) 기술을 유기적으로 결합한다. 또한, 주행 중 발생할 수 있는 시스템의 하드웨어적 고장이나 소프트웨어 오류에 대비하여 이중화 또는 삼중화된 설계를 통해 안전성을 보장하는 [[결함 허용 제어]](Fault-tolerant Control) 아키텍처가 핵심적인 기반 기술로 작용한다. |
| | |
| | 완전 자율주행 단계에 도달하면 차량의 내부 구조와 기능은 근본적인 패러다임의 변화를 맞이한다. 운전자의 조작이 배제되므로 스티어링 휠, 가속 페달, 브레이크 등 전통적인 조작 인터페이스가 제거될 수 있으며, 이는 자동차를 단순한 이동 수단에서 거주 및 업무가 가능한 지능형 이동 공간으로 전이시킨다. 학술적으로 이러한 변화는 자동차가 [[로보틱스]](Robotics)와 [[사물인터넷]](Internet of Things, IoT)이 결합된 거대한 모바일 노드로 진화했음을 시사하며, 이는 향후 [[모빌리티 서비스]](Mobility as a Service, MaaS)의 완전한 구현을 가능케 하는 기술적 토대가 된다. |
| | |
| | 아래 표는 국제 표준인 SAE J3016을 바탕으로 완전 자율주행(레벨 5)과 그 직전 단계인 고도 자율주행(레벨 4)의 주요 기술적 특성을 비교한 것이다. |
| | |
| | ^ 구분 ^ 레벨 4 (고도 자동화) ^ 레벨 5 (완전 자동화) ^ |
| | | **운행 설계 영역 (ODD)** | 특정 지역, 날씨 등 제한적 조건 | 제한 없음 (모든 도로 조건 및 환경) | |
| | | **주행 주체** | 시스템 (설정된 조건 내에서만) | 시스템 (항상) | |
| | | **운전자 개입 요구** | 조건 외 상황 발생 시에만 필요 | 시스템 작동 중 일체 불필요 | |
| | | **비상시 대응 (Fallback)** | 시스템이 스스로 안전하게 정지 | 시스템이 인간과 동일하게 상황 대처 | |
| | |
| | 완전 자율주행의 구현은 기술적 완성도뿐만 아니라 사회적·윤리적 합의를 전제로 한다. 비정형 도로에서의 복잡한 상호작용을 처리하기 위한 알고리즘의 신뢰성 확보는 물론, 사고 발생 시의 법적 책임 소재를 규명하기 위한 제도적 정비가 병행되어야 한다. 특히 인명 피해가 불가피한 극한 상황에서 시스템이 어떠한 가치 판단을 내릴 것인가에 대한 [[윤리적 가이드라인]]의 정립은 기술적 구현만큼이나 중요한 학술적 쟁점으로 다루어진다. 결과적으로 완전 자율주행은 인간의 개입이 배제된 상태에서도 [[사회 구조]] 내에서 안전하고 조화롭게 작동할 수 있는 지능형 교통 생태계의 완성을 지향한다.((SAE International, “J3016_202104: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems”, https://www.sae.org/standards/content/j3016_202104/ |
| | )) |
| |
| ===== 통신 인프라 및 협력 주행 ===== | ===== 통신 인프라 및 협력 주행 ===== |
| |
| 차량 단독의 자율주행을 넘어 외부 인프라 및 타 차량과의 통신을 통해 안전성을 높이는 기술을 다룬다. | 자율주행 시스템의 신뢰성을 확보하기 위해서는 차량 개별 센서의 인지 범위를 넘어서는 광역적 정보 수집이 필수적이다. [[차량 사물 통신]](Vehicle-to-Everything, V2X)은 차량이 유·무선 망을 통해 다른 차량, 도로 인프라, 보행자 및 네트워크와 실시간으로 정보를 교환하는 기술 체계를 의미한다. 이는 차량 단독의 자율주행(Autonomous Driving) 방식이 가진 물리적 한계, 즉 센서의 가시거리(Line-of-Sight) 제약이나 기상 악화로 인한 인지 성능 저하를 극복하기 위한 핵심적 수단으로 작용한다. V2X 기술은 크게 차량 간 통신(Vehicle-to-Vehicle, V2V), 차량과 인프라 간 통신(Vehicle-to-Infrastructure, V2I), 차량과 보행자 간 통신(Vehicle-to-Pedestrian, V2P), 그리고 차량과 네트워크 간 통신(Vehicle-to-Network, V2N)으로 구분된다.((NGMN Alliance, V2X White Paper v1.0, https://5gaa.org/content/uploads/2018/08/V2X_white_paper_v1_0.pdf |
| | )) |
| | |
| | 협력 주행의 기술적 근간은 [[근거리 전용 무선 통신]](Dedicated Short Range Communications, DSRC) 기술인 [[WAVE]](Wireless Access in Vehicular Environments)와 이동통신망을 활용하는 [[C-V2X]](Cellular V2X)로 양분된다. IEEE 802.11p 표준에 기반한 WAVE는 낮은 [[지연 시간]](Latency)과 검증된 안정성을 바탕으로 초기 시장을 주도해 왔으나, 3GPP 표준 기반의 C-V2X는 넓은 커버리지와 고속 데이터 전송 역량을 바탕으로 차세대 자율주행의 표준으로 급부상하고 있다.((5G Automotive Association, The Case for Cellular V2X for Safety and Cooperative Driving, https://5gaa.org/content/uploads/2017/10/5GAA-whitepaper-23-Nov-2016.pdf |
| | )) 특히 5G 기술이 도입됨에 따라 초저지연(Ultra-Reliable Low Latency Communications, URLLC) 특성이 강화되어, 수 밀리초(ms) 단위의 실시간 제어가 요구되는 자율주행 환경에서 통신의 신뢰성이 크게 향상되었다. |
| | |
| | V2X를 통해 구현되는 [[협력 지능형 교통 체계]](Cooperative Intelligent Transport Systems, C-ITS)는 차량이 사각지대에서 접근하는 차량의 정보를 미리 파악하거나, 신호등의 잔여 시간을 수신하여 최적의 속도를 유지하는 등 능동적인 주행 전략 수립을 가능하게 한다.((Impact assessment of cooperative intelligent transport systems (C-ITS): a structured literature review, https://etrr.springeropen.com/articles/10.1186/s12544-024-00702-9 |
| | )) 이를 통해 차량은 자신의 센서로 직접 관측할 수 없는 ’가시거리 밖(Beyond Line-of-Sight)’의 위험 요소를 사전에 인지할 수 있다. 예를 들어, 전방 차량으로부터 급제동 신호(Emergency Electronic Brake Light, EEBL)를 수신하면 후방 차량은 시각적 인지 이전에도 즉각적인 감속 준비를 할 수 있으며, 이는 연쇄 추돌 사고를 방지하는 데 결정적인 역할을 한다. |
| | |
| | 또한, 통신 인프라는 [[군집 주행]](Platooning) 기술의 실현을 가속화한다. 군집 주행은 선두 차량의 주행 데이터를 후행 차량들이 실시간으로 공유하여 매우 좁은 차간 거리를 유지하며 주행하는 기술이다. 이때 각 차량 간의 정보 공유 지연 시간 $\tau$가 작을수록 안전 거리를 단축할 수 있으며, 이는 공기 저항 감소를 통한 연비 향상과 도로 용량 증대로 이어진다. 시스템의 안정성을 보장하기 위해 요구되는 통신 지연 시간은 일반적으로 10~100ms 사이로 규정되며, 완전 자율주행 단계에서는 이보다 엄격한 수준의 실시간성이 요구된다.((International Telecommunication Union, Connected automated vehicles (Report ITU-R M.2534-0), https://itu.int/dms_pub/itu-r/opb/rep/R-REP-M.2534-2023-PDF-E.pdf |
| | )) |
| | |
| | 통신 기반의 협력 주행은 개별 차량의 지능을 넘어 교통 생태계 전체의 최적화를 지향한다. 도로 인프라(Road Side Unit, RSU)는 수집된 교통 흐름 데이터를 분석하여 개별 차량에 최적 경로와 권장 속도를 배정함으로써 정체를 완화한다. 이러한 지능형 연동은 자율주행 차량이 단순한 이동 수단을 넘어 [[스마트 시티]]의 구성 요소로서 기능하게 하며, 교통사고 감소와 이동 효율성 극대화라는 사회적 가치를 창출하는 토대가 된다. |
| |
| ==== 차량 사물 통신 기술 ==== | ==== 차량 사물 통신 기술 ==== |
| |
| 차량과 차량, 차량과 인프라 간의 실시간 정보 교환을 가능하게 하는 통신 규격과 기술을 설명한다. | [[차량 사물 통신]](Vehicle-to-Everything, V2X)은 차량이 유·무선망을 통해 주변의 모든 요소와 정보를 교환하는 기술 체계로, 자율주행 시스템의 인지 범위를 물리적 한계 너머로 확장하는 핵심 인프라 기술이다. 자율주행 차량에 탑재된 [[라이다]](LiDAR)나 [[레이더]](RADAR) 등의 [[온보드 센서]](On-board Sensor)는 가시거리 내의 환경 정보만을 수집할 수 있다는 태생적 한계를 지닌다. 반면 차량 사물 통신 기술은 전파의 회절과 투과 특성을 이용하여 교차로 사각지대나 대형 차량에 가려진 [[비가시 영역]](Non-Line-of-Sight, NLoS)의 위험 요소를 사전에 파악할 수 있게 한다. 이러한 정보 공유는 개별 차량의 독립적인 지능을 넘어, 도로 위의 모든 객체가 협력하여 안전을 도모하는 [[협력형 지능형 교통 체계]](Cooperative Intelligent Transport Systems, C-ITS)의 근간이 된다. |
| | |
| | 차량 사물 통신은 통신 대상에 따라 크게 네 가지 세부 기술로 구분된다. [[차량 간 통신]](Vehicle-to-Vehicle, V2V)은 인접한 차량끼리 위치, 속도, 조향 상태 등의 주행 데이터를 실시간으로 공유하여 충돌을 방지하고 [[군집 주행]](Platooning)을 가능하게 한다. [[차량-인프라 간 통신]](Vehicle-to-Infrastructure, V2I)은 신호등, 노변 기지국(Roadside Unit, RSU) 등 도로 시설물로부터 신호 잔여 시간이나 결빙 구간 정보를 수신하며, 차량의 주행 데이터를 교통 관제 센터로 전송하여 교통 흐름을 최적화한다. [[차량-보행자 간 통신]](Vehicle-to-Pedestrian, V2P)은 스마트폰이나 웨어러블 기기를 소지한 보행자, 자전거 이용자의 위치를 파악하여 사고를 예방하며, [[차량-네트워크 간 통신]](Vehicle-to-Network, V2N)은 클라우드 서버와 연결되어 [[고정밀 지도]](High-Definition Map) 업데이트나 인포테인먼트 서비스를 제공한다. |
| | |
| | V2X 기술의 구현을 위한 무선 통신 규격은 크게 [[전용 단거리 통신]](Dedicated Short Range Communications, DSRC) 기반의 [[WAVE]](Wireless Access in Vehicular Environments)와 이동통신망을 활용하는 [[C-V2X]](Cellular Vehicle-to-Everything)로 양분되어 발전해 왔다. IEEE 802.11p 표준을 기반으로 하는 WAVE는 5.9GHz 대역의 전용 주파수를 사용하며, 중앙 서버 없이 차량 간 직접 통신이 가능하여 낮은 지연 시간을 보장한다는 장점이 있다((IEEE Standard for Information technology– Local and metropolitan area networks– Specific requirements– Part 11: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications Amendment 6: Wireless Access in Vehicular Environments, https://ieeexplore.ieee.org/document/5514475 |
| | )). 그러나 통신 거리가 상대적으로 짧고 대역폭 확장에 한계가 있어 대용량 데이터 전송에는 제약이 따른다. 이에 대응하여 [[3GPP]](3rd Generation Partnership Project)가 제안한 C-V2X는 LTE 및 [[5G]] 네트워크 인프라를 활용하며, 기존 기지국 망을 사용하는 모드와 기지국 없이 차량 간 직접 통신하는 사이드링크(Sidelink) 모드를 모두 지원한다((3GPP Release 14 Description of V2X, https://www.3gpp.org/specifications-technologies/releases/release-14 |
| | )). 특히 5G 기반의 V2X는 초고속·초저지연·초연결 특성을 바탕으로 센서 데이터 원격 공유와 원격 주행 등 고도의 자율주행 기능을 지원할 수 있는 잠재력을 지닌다. |
| | |
| | 차량 간 원활한 정보 교환을 위해서는 통신 규격뿐만 아니라 데이터의 형식을 정의하는 메시지 표준화가 필수적이다. [[미국자동차공학회]](SAE International)는 J2735 표준을 통해 [[기본 안전 메시지]](Basic Safety Message, BSM)의 데이터 사전과 구조를 규정하고 있다. BSM은 차량의 크기, 위치, 속도, 가속도, 제동 상태 등 안전 주행에 직결되는 핵심 정보를 포함하며, 통상적으로 초당 10회 이상의 빈도로 주변에 방송된다. 유럽 지역에서는 [[유럽전기통신표준협회]](ETSI) 주도로 [[협력 인식 메시지]](Cooperative Awareness Message, CAM)와 [[분산 환경 알림 메시지]](Decentralized Environmental Notification Message, DENM) 등의 표준이 사용된다. 이러한 표준화된 메시지 규격은 서로 다른 제조사의 차량과 인프라가 동일한 언어로 소통할 수 있게 함으로써 시스템의 [[상호운용성]](Interoperability)을 보장한다. |
| | |
| | 자율주행의 고도화 단계에서 차량 사물 통신 기술은 단순한 정보 전달 매체를 넘어 인지 모델의 신뢰도를 높이는 결정적 역할을 수행한다. [[센서 융합]](Sensor Fusion) 과정에서 V2X를 통해 수신된 타 차량의 상태 정보는 온보드 센서가 탐지한 객체 정보와 결합되어 주변 환경에 대한 입체적인 이해를 가능하게 한다. 예를 들어, 전방 차량의 급제동 정보를 V2V 통신으로 수신하면 후속 차량은 센서가 물리적인 감속을 감지하기 전이라도 즉각적인 제동 준비를 시작할 수 있다. 이러한 협력적 인지는 자율주행 차량의 반응 시간을 획기적으로 단축하며, 결과적으로 교통 사고율 감소와 도로 용량 증대라는 사회적 편익을 창출한다. |
| |
| ==== 지능형 교통 체계와의 연동 ==== | ==== 지능형 교통 체계와의 연동 ==== |
| |
| 교통 신호 정보 및 도로 상황 데이터를 자율주행 시스템과 통합하여 전체 교통 흐름을 최적화하는 방안을 다룬다. | 자율주행 차량이 개별적인 센서 데이터에만 의존하는 단계를 넘어, 도로 인프라와 유기적으로 상호작용하는 [[지능형 교통 체계]](Intelligent Transport Systems, ITS)와의 연동은 시스템의 완전성을 결정짓는 핵심 요소이다. 기존의 자율주행이 차량 내부에 탑재된 [[온보드 센서]](On-board Sensor)를 통한 주변 환경 인지에 집중했다면, 지능형 교통 체계와의 연동은 개별 차량을 거대한 교통 네트워크의 구성원으로 통합시킨다. 이를 통해 자율주행 시스템은 자신의 물리적 탐지 범위를 벗어난 원거리 도로 상황이나 전방의 신호 체계 정보를 실시간으로 수신함으로써 더욱 정교하고 선제적인 주행 전략을 수립할 수 있다. 이러한 협력적 구조는 [[커넥티드 자율주행 차량]](Connected and Automated Vehicle, CAV)의 개념으로 구체화되며, 단일 차량의 안전을 넘어 전체 교통 시스템의 효율성을 극대화하는 것을 목표로 한다. |
| | |
| | 지능형 교통 체계 연동의 기술적 중추는 [[신호 위상 및 잔여 시간]](Signal Phase and Timing, SPaT) 정보의 실시간 공유이다. 도로변 기지국(Road Side Unit, RSU)은 교차로 신호등의 현재 상태와 다음 신호 변화까지 남은 시간을 자율주행 차량에 전송한다. 자율주행 시스템은 이 데이터를 바탕으로 교차로 통과 여부를 미리 판단하거나, 적색 신호에 맞춰 최적의 감속 곡선을 계산하는 [[친환경 주행]](Eco-driving) 알고리즘을 수행한다. 이는 불필요한 급제동과 공회전을 줄여 [[에너지 효율]]을 높이는 동시에, 교차로 내에서의 상충 사고 위험을 현저히 낮춘다. 또한 정밀 지도 데이터와 결합된 [[로컬 동적 지도]](Local Dynamic Map, LDM)는 실시간 사고 정보, 공사 구간, 기상 악화 등의 동적 데이터를 통합하여 자율주행 차량의 경로 재탐색 및 위험 회피 능력을 강화하는 데 기여한다. |
| | |
| | 교통 흐름 최적화 관점에서 지능형 교통 체계와의 연동은 [[교통 용량]](Traffic Capacity)의 비약적인 증대를 가능케 한다. 중앙 교통 관제 센터는 개별 차량으로부터 수집된 위치, 속도, 목적지 데이터를 분석하여 도로 전체의 밀도를 조절하는 [[교통 수요 관리]](Transportation Demand Management, TDM)를 수행할 수 있다. 특히 [[군집 주행]](Platooning) 기술은 앞차와 뒷차 사이의 간격을 극도로 좁히면서도 안전을 유지할 수 있게 하는데, 이는 인프라로부터 제공받는 실시간 교통 흐름 정보와 가변 속도 제한(Variable Speed Limit, VSL) 값에 의해 정밀하게 제어된다. 이러한 체계는 고속도로와 같은 간선 도로망에서 병목 현상을 완화하고 도로 점유 효율을 극대화하여 전체 교통 시스템의 [[처리량]](Throughput)을 높이는 효과를 거둔다. |
| | |
| | 결과적으로 지능형 교통 체계와의 연동은 자율주행 기술이 직면한 [[비가시 영역]](Non-Line-of-Sight, NLOS) 인지 한계를 극복하는 결정적인 수단이 된다. 교차로 사각지대에서 접근하는 차량이나 돌발적으로 진입하는 보행자의 정보를 인프라에 설치된 노변 센서가 감지하여 차량에 전달함으로써, 차량 단독으로는 대응 불가능한 상황에 대비할 수 있게 한다. 이는 [[협력적 지능형 교통 체계]](Cooperative Intelligent Transport Systems, C-ITS)로의 진화를 의미하며, 분산된 개별 자율 지능들이 상호 연결되어 하나의 거대한 지능형 유기체처럼 작동하는 사회적 기술 기반을 형성한다. 이러한 통합적 접근은 자율주행 차량의 사회적 수용성을 높이고, 지속 가능한 [[도시 모빌리티]] 생태계를 구축하는 데 필수적인 전제 조건이다. |
| |
| ===== 사회적 영향과 제도적 과제 ===== | ===== 사회적 영향과 제도적 과제 ===== |
| ==== 법적 책임 및 사고 처리 체계 ==== | ==== 법적 책임 및 사고 처리 체계 ==== |
| |
| 자율주행 중 발생한 사고의 책임 소재 규명과 관련된 법적 쟁점 및 보험 제도의 변화를 다룬다. | 자율주행 기술의 도입은 기존의 [[도로교통법]]과 [[손해배상]] 체계가 전제하던 ‘인간 운전자’ 중심의 법적 패러다임을 근본적으로 재편할 것을 요구한다. 특히 [[조건부 자동화]](Conditional Automation) 단계인 레벨 3부터는 주행의 주도권이 인간에서 시스템으로 전전환되는 구간이 존재하므로, 사고 발생 시 책임 소재를 규명하는 기준이 모호해지는 문제가 발생한다. 이에 따라 법학계와 입법 기관은 자율주행 중 사고에 대한 민사적·형사적 책임 귀속 원칙을 재정립하고, 피해자의 신속한 구제를 위한 보험 제도의 개편을 추진하고 있다. |
| | |
| | 민사 책임의 경우, 현행 [[자동차손해배상 보장법]]은 사고 시 차량의 소유자나 운행자에게 [[무과실 책임]]에 가까운 엄격한 책임을 부과하는 [[운행자 책임]] 원칙을 고수하고 있다. 자율주행차 사고에서도 이러한 원칙은 기본적으로 유지된다. 한국의 개정 자동차손해배상 보장법에 따르면, 자율주행 모드 중 사고가 발생하더라도 일단 보험사가 피해자에게 손해를 배상하는 ‘선(先)보상’ 원칙을 적용한다. 이후 사고의 원인이 자율주행 시스템의 결함으로 밝혀질 경우, 보험사가 차량 제조사나 소프트웨어 공급자에게 [[구상권]](Right to Indemnity)을 행사하는 ‘후(後)구상’ 체계를 통해 최종적인 책임 소재를 가리게 된다.((자율주행차의 상용화를 위한 자동차손해배상보장법 개정방향, https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003116859 |
| | )) 이는 피해자가 제조사의 결함을 직접 증명해야 하는 번거로움을 덜어주고 신속한 구제를 보장하기 위한 장치이다. |
| | |
| | 그러나 [[제조물 책임]](Product Liability)의 관점에서는 여전히 논쟁적인 요소가 남아 있다. 자율주행 시스템의 오작동이 하드웨어적 결함이 아닌 [[알고리즘]]의 판단 오류나 소프트웨어의 [[버그]]에 기인할 경우, 이를 [[제조물 책임법]]상의 ’결함’으로 규정할 수 있는지가 핵심 쟁점이다. 특히 인공지능의 학습 결과로 나타나는 비결정론적 거동은 제조 당시의 설계 결함으로 입증하기가 매우 까다롭다. 따라서 전문가들은 자율주행 사고에 한해 입증 책임을 제조사로 전환하거나, 고도의 기술적 데이터를 분석할 수 있는 전문적인 사고 조사 위원회의 필요성을 강조하고 있다. |
| | |
| | 형사 책임의 영역에서는 더욱 복잡한 법적 공백이 존재한다. 전통적인 [[형법]] 체계는 인간의 주의 의무 위반을 전제로 하는 [[과실범]] 처벌 원칙을 따른다. 만약 완전 자율주행 상태에서 사고가 발생하여 인명 피해가 발생했다면, 운전대를 잡지 않은 인간에게 업무상 과실치사상죄를 묻기 어렵다. 그렇다고 인격체가 아닌 알고리즘 자체를 형사 처벌할 수도 없으므로, 책임의 화살은 시스템을 설계한 엔지니어나 제조사의 관리 책임으로 향하게 된다. 이는 기술 혁신을 위축시킬 수 있다는 우려와 함께, 사고에 대한 아무도 책임지지 않는 ‘책임의 공백’ 상태를 야기할 위험이 있다. |
| | |
| | 이러한 법적 쟁점을 해결하기 위한 기술적 기반으로서 [[사고기록장치]](Event Data Recorder, EDR)와 [[자율주행정보 기록장치]](Data Storage System for Automated Driving, DSSAD)의 역할이 강조된다. [[유엔 유럽경제위원회]](United Nations Economic Commission for Europe, UNECE) 산하의 자동차 기준 조화 세계포럼(WP.29)은 자율주행차의 주행 모드 전환 시점, 시스템의 작동 여부, 운전자의 개입 기록 등을 정밀하게 기록하도록 하는 국제 표준을 수립하고 있다.((자율주행 사고 누가 책임지나…TS, 서울서 국제 기록표준 논의, http://m.pressian.com/m/pages/articles/2026020222012577037 |
| | )) 이러한 데이터는 사고 당시의 제어권이 누구에게 있었는지를 판별하는 결정적 증거가 되며, 향후 법적 분쟁에서 [[증거법]]상의 핵심적인 지위를 차지하게 될 것이다. |
| |
| ==== 윤리적 가이드라인과 알고리즘 ==== | ==== 윤리적 가이드라인과 알고리즘 ==== |
| |
| 피할 수 없는 사고 상황에서 시스템이 내려야 할 윤리적 판단 기준과 사회적 합의 과정을 기술한다. | 자율주행 시스템의 기술적 완성도가 높아짐에 따라, 시스템이 직면할 수 있는 윤리적 딜레마(Ethical Dilemma)를 해결하기 위한 알고리즘 설계와 사회적 합의의 중요성이 증대되고 있다. 자율주행 차량은 도로 위에서 발생할 수 있는 수많은 변수에 대응해야 하며, 특히 인명 피해가 불가피한 ‘피할 수 없는 사고’ 상황에서 누구를 보호하고 누구를 희생시킬 것인가에 대한 판단 문제는 기술적 영역을 넘어선 철학적·사회적 과제로 대두되었다. 이러한 문제를 논의할 때 가장 빈번하게 인용되는 사고 실험은 [[트롤리 문제]](Trolley Problem)이다. 이는 자율주행 차량이 직진하여 다수의 보행자를 치거나, 방향을 틀어 탑승자 1명을 희생시켜야 하는 극단적인 상황에서 알고리즘이 어떤 결정을 내려야 하는지에 대한 질문을 던진다. |
| | |
| | 알고리즘의 윤리적 판단 기준을 설정하는 데 있어 가장 대립하는 두 가지 철학적 관점은 [[공리주의]](Utilitarianism)와 [[의무론]](Deontology)이다. 공리주의적 접근 방식은 전체적인 피해의 총량을 최소화하는 방향으로 알고리즘을 설계할 것을 제안한다. 예를 들어, 사고 시 희생자의 수를 최소화하는 것이 도덕적으로 정당하다는 논리이다. 그러나 이러한 방식은 차량 탑승자가 잠재적인 희생 대상이 될 수 있다는 점에서 소비자들의 수용성을 저해하며, 특정 집단에 대한 차별적 판단으로 이어질 수 있다는 비판을 받는다. 반면 의무론적 접근 방식은 결과와 상관없이 지켜야 할 보편적 도덕 원칙을 강조한다. 이는 인간을 도구화하지 말아야 한다는 [[임마누엘 칸트]](Immanuel Kant)의 정언명령에 기초하며, 알고리즘이 임의로 생명의 가치를 수치화하여 비교하는 행위 자체를 금기시한다. |
| | |
| | 이러한 논쟁을 바탕으로 국제 사회는 자율주행 윤리에 관한 공통의 가이드라인을 수립하기 시작하였다. 대표적인 사례로 2017년 [[독일 연방교통디지털인프라부]](BMVI) 산하 윤리위원회가 발표한 보고서를 들 수 있다. 이 보고서는 자율주행 알고리즘이 준수해야 할 20가지 원칙을 제시하였는데, 핵심적인 내용은 인명 보호를 최우선 가치로 두되 연령, 성별, 신체적·정신적 상태 등 어떠한 개인적 특성에 의해서도 생명의 가치를 차별해서는 안 된다는 것이다.((Ethics Commission, Automated and Connected Driving, https://www.bmv.de/SharedDocs/EN/publications/report-ethics-commission-automated-and-connected-driving.pdf?%%__%%blob=publicationFile |
| | )) 또한 사고 시 동물의 생명이나 재산 피해보다 인간의 생명을 우선시해야 하지만, 인간 사이의 희생을 선택하는 알고리즘의 프로그래밍은 법적으로 강제되거나 정당화될 수 없음을 명시하였다. |
| | |
| | 알고리즘에 사회적 가치를 반영하려는 시도는 [[가치 정렬]](Value Alignment) 연구를 통해 구체화되고 있다. 이는 인공지능의 의사결정 체계가 인간 사회의 규범 및 선호와 일치하도록 설계하는 과정이다. 매사추세츠 공과대학교(MIT)의 [[모럴 머신]](Moral Machine) 프로젝트는 전 세계 수백만 명의 데이터를 수집하여 사고 상황에서의 윤리적 선호도를 분석하였다. 연구 결과, 대다수의 응답자가 소수보다 다수를, 노인보다 어린이를, 무단횡단자보다 법규 준수자를 보호하려는 경향을 보였으나, 이러한 선호도는 국가와 문화권에 따라 상당한 차이를 나타냈다.((The Moral Machine experiment, https://www.nature.com/articles/s41586-018-0637-6 |
| | )) 이는 보편적인 윤리 알고리즘을 구축하는 것이 매우 복잡한 과정이며, 기술적 표준화뿐만 아니라 문화적 맥락을 고려한 [[사회적 합의]]가 필수적임을 시사한다. |
| | |
| | 결국 자율주행의 윤리적 알고리즘은 단일한 정답을 도출하는 도구가 아니라, 사회가 허용하는 위험의 수준과 책임의 분배 방식을 기술적으로 구현하는 체계라 할 수 있다. 이를 위해 [[IEEE]](Institute of Electrical and Electronics Engineers)와 같은 국제기구는 인공지능 및 자율 시스템 설계 시 윤리적 고려 사항을 반영하기 위한 표준화 작업을 진행하고 있다.((IEEE Standard Model Process for Addressing Ethical Concerns during System Design, https://standards.ieee.org/content/ieee-standards/en/standard/7000-2021.html |
| | )) 자율주행 차량의 판단은 투명하게 공개되어야 하며, 사고 발생 시 알고리즘의 결정 과정을 역추적할 수 있는 [[설명 가능한 인공지능]](Explainable AI, XAI) 기술의 도입 또한 윤리적 신뢰성을 확보하기 위한 중요한 과제로 다루어지고 있다. |
| |
| ==== 보안 및 안전성 표준 ==== | ==== 보안 및 안전성 표준 ==== |
| |
| 외부 해킹으로부터 시스템을 보호하는 사이버 보안 기술과 자율주행 차량의 안전 인증 기준을 설명한다. | 자율주행 시스템이 도로 위에서 실제 운행되기 위해서는 하드웨어와 소프트웨어의 결함으로 인한 오작동뿐만 아니라, 외부의 악의적인 공격으로부터 시스템을 보호할 수 있는 고도의 보안 체계가 필수적이다. 자율주행 차량은 수많은 [[센서]], [[제어기]], 그리고 외부 네트워크와 연결된 복잡한 [[임베디드 시스템]]의 집합체이므로, 안전성 확보를 위한 표준은 크게 [[기능 안전]](Functional Safety), [[의도된 기능의 안전성]](Safety of the Intended Functionality, SOTIF), 그리고 [[사이버 보안]](Cybersecurity)의 세 가지 축을 중심으로 전개된다. |
| | |
| | 기능 안전은 시스템의 전기·전자(E/E) 장치 고장으로 인해 발생하는 위험을 최소화하는 것을 목표로 한다. 이와 관련한 국제 표준인 [[ISO 26262]]는 차량의 전체 수명 주기 동안 발생할 수 있는 잠재적 위험을 분석하고, 이를 관리하기 위한 프로세스를 규정한다. 핵심 개념인 [[자동차 안전 무결성 수준]](Automotive Safety Integrity Level, ASIL)은 사고의 심각도(Severity), 노출 빈도(Exposure), 통제 가능성(Controllability)을 결합하여 $ $부터 $ $까지 등급을 부여한다. 위험도($ R $)를 정량적으로 평가하는 논리는 대략 다음과 같은 함수 관계로 표현될 수 있다. |
| | |
| | $$ R = f(S, E, C) $$ |
| | |
| | 여기서 $ S $는 사고 발생 시 인명 및 재산 피해의 정도, $ E $는 해당 위험 상황에 노출될 확률, $ C $는 운전자나 시스템이 위험을 회피할 수 있는 능력을 의미한다. 가장 높은 안전 등급인 $ $는 시스템 고장이 치명적인 사고로 직결될 가능성이 큰 조향 및 제동 시스템 등에 적용되며, 엄격한 [[중복성]](Redundancy) 설계와 검증이 요구된다. |
| | |
| | 그러나 자율주행 시스템은 부품의 고장이 없더라도 센서의 물리적 한계나 [[인공지능]] 알고리즘의 판단 오류로 인해 위험 상황에 처할 수 있다. 이를 다루는 표준이 [[ISO 21448]](SOTIF)이다. 예를 들어, 강한 역광으로 인해 [[카메라]] 센서가 전방의 장애물을 인식하지 못하거나, 학습되지 않은 특이 상황(Edge Case)에서 알고리즘이 잘못된 경로를 생성하는 경우가 이에 해당한다. SOTIF는 ’알려진 위험 상황’과 ’알려지지 않은 위험 상황’을 체계적으로 식별하고, 이를 ’안전한 영역’으로 전환하기 위한 설계적 보완과 광범위한 시뮬레이션 검증을 강조한다. |
| | |
| | 사이버 보안은 자율주행 차량이 외부와 데이터를 주고받는 과정에서 발생할 수 있는 해킹 위협을 방어하는 기술적·관리적 체계이다. [[차량 사물 통신]](V2X)과 [[무선 업데이트]](Over-the-Air, OTA) 기술의 도입으로 차량의 접점(Attack Surface)이 확대됨에 따라, 국제 표준인 [[ISO/SAE 21434]]가 제정되었다. 이 표준은 차량의 기획 단계부터 폐기 단계까지 사이버 보안 위험 관리 프로세스를 정의한다. 특히 외부 통신을 담당하는 [[텔레매틱스]] 제어기와 차량 내부망 사이에는 [[방화벽]]과 [[침입 탐지 시스템]](Intrusion Detection System, IDS)을 배치하여 비정상적인 메시지 흐름을 차단한다. |
| | |
| | 차량 내부 통신의 보안을 강화하기 위해 [[메시지 인증 코드]](Message Authentication Code, MAC)를 활용한 보안 통신 프로콜이 적용되며, 핵심 연산 장치 내에는 [[하드웨어 보안 모듈]](Hardware Security Module, HSM)을 탑재하여 [[암호화]] 키를 안전하게 관리한다. 또한, [[유엔 유럽 경제 위원회]](UNECE)의 자동차 법규 국제조화포럼(WP.29)은 차량 사이버 보안 관리 체계(CSMS) 인증인 [[UN R155]]와 소프트웨어 업데이트 관리 체계(SUMS) 인증인 [[UN R156]]을 시행하여, 보안 요건을 충족하지 못한 차량의 판매를 규제하고 있다. |
| | |
| | 자율주행의 안전 등급과 보안 수준은 상호 보완적인 관계에 있으며, 이를 요약하면 아래 표와 같다. |
| | |
| | ^ 구분 ^ 주요 표준 ^ 핵심 목표 ^ 대응 대상 ^ |
| | | **기능 안전** | ISO 26262 | 시스템 고장 방지 및 제어 | 하드웨어 결함, 소프트웨어 버그 | |
| | | **SOTIF** | ISO 21448 | 기능적 한계 극복 및 안전 확보 | 센서 성능 한계, AI 판단 오류 | |
| | | **사이버 보안** | ISO/SAE 21434 | 외부 공격 방어 및 데이터 보호 | 해킹, 데이터 위변조, 서비스 거부 공격 | |
| | |
| | 결론적으로 자율주행의 보안 및 안전성 표준은 단순히 기술적 사양을 넘어, 시스템의 신뢰성을 담보하는 법적·윤리적 기반이 된다. 기술의 고도화에 따라 [[형식 승인]](Type Approval) 절차는 더욱 정교해지고 있으며, 실시간 모니터링과 클라우드 기반의 보안 관제 시스템이 결합된 통합 안전 계층 구조로 진화하고 있다. 이러한 표준 체계의 준수는 자율주행 차량이 사회적 수용성을 확보하고 대중화 단계로 진입하기 위한 필수 전제 조건이라 할 수 있다. |
| |