RDX 공식블로그

존재하지 않은 물체를 보이도록 자율주행차량을 속이는 공격 본문

Tech.News

존재하지 않은 물체를 보이도록 자율주행차량을 속이는 공격

Redesign X(리디자인엑스) 2020. 3. 12. 18:17

출처 : https://marketrealist.com/2019/09/apples-self-driving-car-spotted-in-cupertino/

자율주행차량에 있어 주변에 무슨 일이 일어나는지를 감지하는 것만큼 중요한 것은 없습니다. 자율주행차량은 인간 운전자처럼 즉각적인 판단력이 필요한데요. 오늘날 대부분의 자율주행차량은 다양한 센서를 이용하여 주변 사물을 인식하고 있습니다. 대부분의 시스템은 카메라, 레이더 센서, LiDAR 센서를 사용하고 있고, 이러한 데이터를 이용해 차량 주변의 광범위한 뷰를 스크린에 띄워줍니다. 하지만 문제는 악의적인 목적으로 자율주행차량의 인식시스템을 속이는 공격자들이 있을 수 있다는 겁니다. 예를 들어 카메라 기반의 인식 시스템은 단순히 신호등에 스티커를 붙여놓는 것만으로도 쉽게 속일 수 있다고 합니다. 

 

미시간대의 RobustNet Research Group, UC Irvine의 컴퓨터과학자 Qi Alfred Chen, SPQR lab의 연구자들은 LiDAR 기반의 인식시스템 또한 이처럼 속일 수 있다고 합니다. LiDAR를 속이게 되면, 차량의 LiDAR 인식시스템이 존재하지 않은 물체를 마치 보이는 것처럼 속여, 교통정체를 일으키거나 갑자기 정지하면서 교통사고를 일으킬 가능성이 있다고 합니다.

Spoofing LiDAR signals

LiDAR 기반의 인식시스템은 센서와 센서의 데이터를 처리하는 머신러닝모델 두 가지로 구성되어 있습니다. LiDAR 센서는 광신호를 방출하고 이 신호가 물체를 튕겨나와 다시 센서로 돌아오는데 걸리는 시간을 측정함으로써 차량과 차량 주변의 거리를 계산하는 방식으로 작동합니다. 이것은 '사물거리 측정기술(Time of flight)'로 잘 알려져 있습니다. LiDAR가 1초당 만 개의 광신호를 내보내면 머신러닝모델이 되돌아오는 펄스를 이용해 차량 주위의 세상을 사진으로 그려냅니다. 

 

문제는 이러한 펄스를 속일 수 있다는 겁니다. 공격자는 자신의 센서에서 정확한 시간을 맞춰 광신호를 내보내 LiDAR를 속입니다. 이 때 광신호는 빛의 속도로 이동하기 때문에 나노초 단위로 일어나야 합니다. 또한 성공적으로 LiDAR 센서를 속였다면 머신러닝모델도 속여야 합니다. 머신러닝모델이 특수하게 만들어진 신호나 input에 취약하기 때문에 실제 존재하기 않은 물체가 존재한다고 생각하도록 속일 수 있다고 합니다. 예를 들어, 공격자는 움직이지 않는 트럭의 신호를 만들어내 교차로에 두거나 자율주행차량 앞에 달리는 것처럼 위치시킬 수 있습니다.

 

다음은 자율주행차량을 속이는 과정을 보여주는 영상입니다.

https://youtu.be/a6R6P3D70cE

Two possible attacks

이렇게 설계된 공격이 가능성이 있다는 것을 입증하기 위해, 연구팀에서는 자율주행시스템 Baidu Apollo에서 수집된 실제 센서 데이터를 이용해 두 가지의 공격이 가능하다는 것을 입증했다고 합니다.

 

(1) 긴급 제공 공격(emergency brake attack): 경로에 물체가 나타났다고 생각하도록 속임으로써 공격자가 갑자기 움직이는 차량을 멈출 수 있는지를 보여줍니다.

(2) AV freezing 공격: 적신호에서 멈춘 차량이 청신호로 바뀐 후에도 계속 멈춰있도록 차량을 속이는 방법을 보여줍니다.

 

다음은 LiDAR 공격 시뮬레이션 데모 영상입니다.

https://youtu.be/hYuvmwzqmsY

향후 자율주행시스템에 있어 새로운 유형의 보안 문제에 대한 연구가 계속 진행되어야 하고, 악의적인 목적으로 도로를 부당하게 사용하는 상황이 나타나기 전에 더 많은 문제들을 예측해서 해결해야 할 것입니다.

 

Author 박해리

 

출처 https://theconversation.com/autonomous-vehicles-can-be-fooled-to-see-nonexistent-obstacles-129427

 

Autonomous vehicles can be fooled to 'see' nonexistent obstacles

Driverless vehicles rely heavily on sensors to navigate the world. They're vulnerable to attack if bad actors trick them into 'seeing' things that aren't there, potentially leading to deadly crashes.

theconversation.com

 

Comments