문장의 단어를 대체 "AI를 속이는 기술", MIT 등이 개발

AI를 사용한 화상 인식이 진행되는 가운데, 2019년에는 그러한 AI를 속이는 "디지털 위장 기술"인 "적대적 공격(Adversarial Atack)" 등이 세계적으로 화제가되었다.



이것은 이미지에 특정의 소음이나 스티커 등을 추가하는 것으로, 인공 지능을 잘인식하지 못하게하는 수단, 예를 들면, 자동 운전이 확산했을 때, 도로 표지판이나 통행인의 존재를 잘못 인식시킴으로써 범죄와 테러를 일으킬 수도있는 등, 적대적 공격과 AI의 취약점의 문제는 해결해야 할 문제로 지적되고있다.


오인을 유발하는 기술에는 "돌핀 어택"도있다. 이것은, 초음파로 음성 인식 AI를 잘못 인식시킨다는 것이다. 중국 절강 대학은 그 연구보고에서, 돌핀 어택은 가정용 길잡이나 스마트폰을 오인시킬 수 있다고하고, 공격에 대한 대책이 필요하다고 경종을 울리고있다.




최근에는, MIT와 홍콩대, 싱가포르 과학 기술청은 공동으로, 자연 언어 처리 시스템을 무력화하는 프로그램 "TextFooler"를 개발했다고해서 화제다. TextFooler는 문장 내의 특정 핵심 단어를 동의어로 대체하는 프로그램이지만, 변환 된 문장은 AI로는 매우 인식하기 어려워진다. 



예를 들어, 구글의 자연 언어 처리 시스템 인 "BERT"에 있어서도, 오인식 비율이 5~7배로 뛰었다는 검증 결과가 발표되고있다.


가정용 길잡이나 스마트폰 등, 자연 언어 처리 시스템을 기반으로 한 단말이 확산되는 가운데, TextFooler를 이용한 검증 결과는, 사람들의 생활에 잠재적 인 위험이 퍼지는 것을 암시하는 것으로되었다. 




또한 현재의 SNS나 E 메일 등은, 자연 언어 처리 시스템에 의존하고 스팸 및 불법 광고 콘텐츠를 인지, 삭제하고있다. TextFooler와 같은 프로그램을 이용하면, 그 "감시망"을 돌파 할 수 있다는 것이 증명되었다.



확실히 화상 인식 AI나 음성 인식 AI에 대한 공격에 비하면, 사회에 미치는 위험은 작을지도 모른다. 단, "AI는 아직도 속일 수있다"는 근거가 또 입증 된 것은 틀림없다. 앞으로 AI의 취약점에 대해 기업과 연구자가 어떻게 대응 해 나갈 것인가....


AI의 사회 구현이 진행되는 가운데 여전히 큰 테마가 될 것 같다.