RDX 공식블로그

머신러닝은 인류에게 ‘독’이 될까 본문

Tech.News

머신러닝은 인류에게 ‘독’이 될까

Redesign X(리디자인엑스) 2020. 10. 14. 10:23

출처:https://bdtechtalks.com

머신 러닝이란?

기계학습의 뜻을 가지고 있는 인공지능의 한 분야입니다. 인간의 학습능력과 같은 능력을 구현하는 기능을 컴퓨터에서 실현하고자 하는 기술입니다. 경험적 데이터를 기반으로 학습을 한 후 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술이라고 할 수 있겠습니다.

위의 알고리즘은 엄격하게 정해진 명령을 수행하는 것이기보단, 입력데이터를 기반으로 스스로 예측 및 결정을 이끌어 낼 수 있는 특정모델을 만들어가는 것 입니다.

 

다만 머신러닝에게도 단점이 있습니다.

 

 

출처:https://bdtechtalks.com

잘못된 판단을 하는 머신 러닝 

대부분의 사람들은 위의 3가지 사진이 다른 사진 - , 강아지 그리고 말의 사진이라고 쉽게 알아차리곤 합니다.

하지만 머신 러닝의 경우 어떻게 될까요?

 

머신러닝의 알고리즘에 의하면 위의 세가지 사진은 모두 같은 사진으로 분류됩니다. 왜냐하면 사진 오른쪽 하단의 검은색 둘레의 작은 흰 상자 때문입니다.

위의 예시는, 머신러닝의 악용 가능성 하나를 보여줍니다여기서 말하는 악용이란, 악의적인 목적을 가진 행위자에 의해 데이터를 잘못 분류하는 백도어 알고리즘이 쓰일 있고, 기존의 AI알고리즘에 의한 시스템을 우회할 있음을 말합니다.

 

 

출처:https://bdtechtalks.com

머신러닝의 한계 1 – 논리적이지 않은 알고리즘

머신러닝의 놀라운 점은 엄격한 규칙을 세울 수 없는 작업을 수행해내는 능력이라고 볼 수 있습니다. 인간이 개를 인식할 때 우리의 마음은 사진의 많은 시각적특징을 무의식적으로 고려하고 복잡한 과정을 거치게 됩니다. 이러한 특징들의 대다수는 인공지능의 If-else 규칙으로 분류하기 힘듭니다.

(if-else 규칙을 간단히 설명하면 ‘if 조건일때 else 값을 실행입니다) 머신러닝의 경우 어려운 수학을 사용하여 입력데이터를 결과값에 연결시킬 수 있고 때론 인간을 능가하는 작업들을 수행하기도 합니다.

 

그러나 다만, 머신러닝은 인간의 감수성을 공유하진 않습니다.

머신러닝은 고양이와 개의 얼굴을 사진으로 충분히 훈련합니다. 여기서의 훈련은 해당 이미지의 매개변수를 해당이미지의 픽셀 값과 매칭합니다.

*매개변수 : 특정 값을 부를 때 필요한 정보를 보관하여 전달

 

그러나 AI 모델은 매개변수를 데이터에 맞추는 효율적인 방법만을 찾을 것이고 반드시 논리적이지는 않습니다. 예를 들어 AI가 모든 강아지 이미지에 동일한 상표로고를 발견하면, 해당 상표 로고가 있는 모든 이미지는 강아지가 포함되어 있다는 결론을 내립니다또 피부암 탐지 알고리즘에서 눈금자 표시가 포함된 모드 피부이미지가 흑색 종을 나타내는 것으로 분류하기도 했습니다. 기존의 흑색종 병변의 이미지에 대부분 눈금자가 표시되어 있었고, 머신러닝이 실제 흑색종에 대한 변화보다 이를 감지하기 더 쉬웠기 떄문입니다.

 

 

출처:https://bdtechtalks.com

머신러닝의 한계 2- 머신 러닝의 감염

악용은 스팸 탐지기를 속이거나 안면 인식 시스템을 우회하는 것 등으로 이어질 수 있습니다.

이런 악용을 하기 위한 머신 러닝 공격자는 입력에 대한 일련의 미묘한 변경 사항을 찾아서 대상이 잘못 분류되게 하고 이는 인간이 미처 인식하기가 힘들게 됩니다.

 

위의 예시를 보면 왼쪽(원본 판다)이미지에 노이즈 레이어를 추가한다면 CNN의 혼동이 일어나 판다를 긴팔 원숭이로 잘 못 분류합니다. 그러나 인간은 왼쪽 원본사진과 오른쪽 레이어 추가의 판다사진이 모두 똑같이 보이게 됩니다.

 

 

악용을 예방하기 위해서

먼저 공격자가 머신러닝을 혼동시키는 악용을 하기 위해선, 머신러닝의 액세스에 접근할 수 있어야 합니다.

공격자가 스스로 나쁜 목적의 기계학습을 개발하고 훈련시키는 데는 많은 비용이 들기 때문인데 , 해당 이유 때문에 기존 모델의 알고리즘에 감염을 시켜 배포하는 방식을 활용 합니다.

즉 기존 훈련된 모델의 프로그램에 연결하는 것을 선호하기 떄문에 보안,방화벽에 대한 철저한 대비와 개발이 이루어져 야할 것 같습니다. 다행히 머신러닝의 보안은 기존 소프트웨어보다 복잡합니다.

또한 사용자 개개인들은  다른 소프트웨어와 마찬가지로 AI 모델을 애플리케이션에 통합하기 전에 항상 신뢰할 수있는 소스에서 가져온 것인지 미리 확인하는 대비가 필요합니다. 

 위의 악용들을 대체로 잘 대비할 수 있다면, 인류에게 큰 편의를 가져다줄 머신러닝의 발전을 기대해보아도 좋겠습니다.

 

 

 

출처: bdtechtalks.com/2020/10/07/machine-learning-data-poisoning/

 

What is machine learning data poisoning?

Data poisoning attack target the training of machine learning algorithms and cause them to behave maliciously during inference.

bdtechtalks.com

Author Bella

 

Comments