RDX 공식블로그

자율주행 차량에 직면한 사이버 보안 문제 본문

Tech.News

자율주행 차량에 직면한 사이버 보안 문제

Redesign X(리디자인엑스) 2021. 3. 11. 16:03

 

(2021.03.08.) EU 사이버보안청(ENISA)과 공동연구센터(JRC)는 자율주행차가 심각한 사이버보안 위험을 안고 있다는 'Cybersecurity Challenges in the Uptake of Artificial Intelligence in Autonomous Driving' 보고서를 발표했다. 보고서에서는 자율주행차에 인공지능을 사용하면 도로 이용자와 보행자의 생명이 위험해질 수 있다고 지적했으며, 자율주행차 내 인공지능과 연결된 사이버보안 위험을 분석해 이를 완화하기 위한 권고안을 제시했다.

 

EU 사이버보안청은 인공지능과 연결된 사이버 보안 위험을 의도하지 않은 소프트웨어 및 하드웨어 취약성으로 분류했다. AI 기술의 활용도가 높아짐에 따라 이제 공급 체인의 일부가 된 복잡하고 불투명한 ML 알고리즘, 전용 AI 모듈, 타사의 사전 훈련 모델이 추가되면서 이 문제가 더욱 증폭되었다.

 

의도하지 않은 피해는 AI 모델의 한계, 오작동 및 잘못된 설계에서 비롯된다. 자율주행 차량의 사이버 보안 위험은 승객, 보행자, 기타 차량 및 관련 인프라의 안전에 직접적인 영향을 미칠 수 있다. 따라서 AI 사용으로 발생할 수 있는 잠재적 취약성을 조사하는 것이 필수적이라고 보고서는 밝히고 있다.

 

보고서는 자율주행차가 회피 또는 중독 공격과 같은 대립적 기계 학습 기법에 취약하다는 점에 주목했다. 이 위협 모델은 패턴 및 안면 인식 시스템을 스푸핑하는 것을 포함한다. 회피 공격은 시스템에 공급된 데이터를 조작하여 공격자의 이익을 위해 출력을 변경한다. 중독 공격은 훈련 과정을 손상시켜 공격자에게 이익이 되는 오작동을 일으킨다.

 

보고서 작성자들은 "다양한 분야에서 의사결정을 자동화하기 위해 AI가 증가함에 따라 디지털 시스템이 AIML 방식의 결함과 취약성을 이용할 수 있는 사이버 공격에 노출된다"고 말한다. AI 시스템은 위험 부담이 높은 결정에 관여하는 경향이 있기 때문에, AI 시스템에 대한 성공적인 사이버 공격은 심각한 영향을 미칠 수 있다. AI가 사이버 범죄의 주체로 작용할 수도 있다.

 

공동 보고서에 따르면 자율주행차는 물리적 센서, 제어 장치 및 연결 메커니즘에 영향을 미치는 사이버 보안 문제에도 취약하다. 물리적 구성요소와 관련된 가장 주목할 만한 사이버 보안 과제는 다음과 같다.

 

 

 

물리적 구성요소와 관련된 사이버 보안 문제 

 

센서 걸림, 블라인딩, 스푸핑 또는 포화 상태: 공격자는 센서를 블라인드하거나 방해하여 자율주행 차량에 접근할 수 있다. 이를 통해 악의적인 행위자들이 잘못된 또는 불완전한 데이터를 가진 인공지능 모델을 AV에 공급하여 모델 훈련을 저해할 수 있다.

 

DDoS 공격: 해커가 분산 서비스 거부 공격을 실행하여 차량을 외부 세계에 노출시킬 수 있다. DDoS 공격은 자율주행을 방해하여 정지 또는 오작동을 일으킬 수 있다.

 

자율주행차 통신장비 조작: 공격자가 통신채널을 가로채고 센서 판독값을 조작하거나 도로 메시지와 표지판을 잘못 해석할 수 있다.

 

정보 공개: 자율주행차는 민감한 개인 및 AI 데이터를 대량으로 저장한다. 공격자는 AV에 대한 데이터 침해를 유발하여 중요한 정보에 액세스할 수 있다.

 

Vdoo 수석 과학자 Ilya Khivrich"복원력과 안전에 중요한 시스템은 잠재적 공격자의 관점을 염두에 두고 설계되어야 한다"고 말했다. 특히 ML 알고리즘에 의존하는 시스템의 경우 복잡하며, 알고리즘은 정상적인 상황에서 올바르게 작동하도록 훈련되었는데 센서에 수신되는 데이터의 조작 또는 스푸핑에 예상치 못한 방식으로 대응할 수 있다. 이 문제를 해결하기 위해서는 새로운 툴이 필요할 것으로 생각된다." 라고 주장했다.

 

AV의 사이버 보안 과제에 대한 ANISA-JRC 공동 보고서에서는 도로의 AI 보안을 보장하기 위해 제조업체들이 설계별 보안 접근 방식을 채택해야 한다고 권고했다.

 

 

 

자율 주행 차량 사이버 보안 위험 완화를 위한 권장 사항

 

대량의 데이터를 수집하고 AI 모델과 알고리즘에 대한 위험 평가를 수행하여 AI 모델과 데이터를 체계적으로 보안 검증한다.

 

AI 보안 규정을 준수하고 개발자, 제조업체에서 최종 사용자 및 타사 서비스 공급업체에 이르기까지 공급망 전반에 걸쳐 책임을 분담하여 공급망 AI 사이버 보안 과제를 해결한다.

 

AI 관련 사고 처리 및 취약성 발견하고 학습된 관계자는 다양한 공격 시나리오를 시뮬레이션 및 훈련을 수행하고 사이버 보안 사고 처리 및 대응팀 구성이 필요하다.

 

사이버보안 및 ML 분야에서 다양한 팀을 구성하여 자동차 산업의 AI 사이버 보안에 대한 제한된 용량과 전문 지식을 해결한다. 특별 강좌 신설은 자동차 분야의 AI 기술 격차를 해소할 것이다.

 

AI 사이버 보안을 기존의 사이버 보안 원칙과 통합하기 위한 전체적인 접근 방식으로 R&D 투자, AI 사이버보안 정책의 적절한 거버넌스, 자동차 분야 전반의 AI 사이버보안 문화 채택 등이 포함된다.

 

 

 

과거 자율주행차 AI 악용 사례

보고서에서는 과거에 자율주행차를 악용하기 위해 다양한 AI 기술이 사용되었다고 언급했다. Deceiving Autonomous cars with Toxic Signs(DARTS) 기술을 이용하여 자율주행 차량 교통 표지 인식 시스템을 속이는 방법이다. 예를 들어, 테슬라 자율주행차는 '3'의 중간선을 35mph가 아닌 85mph로 연장해 도로표지판에 표시된 제한속도를 지나 가속하는 수법을 썼다. NegevBen-Gurion University의 이스라엘 연구진들은 분할 초 영상을 이용해 테슬라의 자동 조종 시스템을 속이는 방법을 시연했다. Tesla 3XSS(사이트 간 스크립팅) 취약성으로 인해 자동차의 중요 정보가 유출되는 영향을 받았다. Tencent 연구진은 테슬라의 오토파일럿이 스티커를 이용해 잘못된 차선으로 방향을 바꾸도록 속였다. 또한 스프레이 페인트를 사용하여 자율주행차가 제한 속도로 정지 신호를 잘못 읽도록 속였다.

 

Comparitech의 개인 정보 보호 옹호자이자 연구책임자인 Paul Bischoff"ENISA 보고서는 AI 기반 자율주행 시스템이 교통, 도로 상황, 표지판을 인식하지 않거나 잘못 인식하도록 어떻게 속일 수 있는지에 대해 구체적으로 논의한다"고 말한다. 예를 들어, 자율주행 차량은 차선을 유지하기 위해 도로에 도색된 선을 사용한다. 공격자는 도로에 잘못된 선을 긋거나 교통 표지판을 파손해 AI를 방해할 수 있다. 악의적인 행위자들은 차량을 인수한 후 사고를 일으키겠다고 위협하고 차량을 운전할 수 없게 함으로써 차량 탑승자에게 몸값을 지불하도록 협박할 수도 있다.

 

 

 

 

[출처]

www.cpomagazine.com/cyber-security/eu-agency-for-cybersecurity-says-autonomous-vehicles-highly-vulnerable-to-various-cybersecurity-challenges/

 

EU Agency for Cybersecurity Says Autonomous Vehicles Highly Vulnerable to Various Cybersecurity Challenges

The EU Agency for Cybersecurity says that autonomous vehicle manufacturers should address various cybersecurity challenges before venturing on European roads.

www.cpomagazine.com

 

Edited by Lucy

Comments