새로운 AI 알고리즘이 프라이버시를 제공해준다? 어떻게?!
kr-newbie·@jenna.pulse9·
0.000 HBD새로운 AI 알고리즘이 프라이버시를 제공해준다? 어떻게?!
<center></center> 이번 포스팅에서는 AI영역에서 논란이 될 수 있는 '프라이버시' 이슈를 AI가 다시 잠재울 수 있다라는 내용을 가져왔습니다. 이미지 인식기술의 발달로 인해 사진 혹은 영상에 포착되면 그 사람의 신상정보가 바로 누출될 수 있는 가능성이 점점 커시고 있습니다. 심지어 페이스북에서 자동으로 지인들을 태크해주기도 합니다. 이는 이미지 인식 알고리즘이 사진 또는 비디오를 소셜 미디어 플랫폼에 업로드 할 때마다 사용자 정보를 학습을 하고 있기때문입니다. 그리고 알고리즘은 사용자가 누구인지, 어디에 있는지, 누구와 인맥으로 묶여있는지 등 데이터를 지속적으로 수집하면서 점점 더 높은 완성도를 보여줄 것입니다. 이런 부분에서 '프라이버시'문제를 인식한 Parham Aarabi 교수와 대학원생 Avishek Bose가 이끄는 T공학 연구원은 소셜 네트워크에 대한 개인 정보 보호 및 데이터 보안에 대한 우려가 커지면서 역으로 얼굴 인식 시스템을 동적으로 방해하는 알고리즘을 만들었습니다. "얼굴인식이 점점 더 좋아지면서 이제는 개인 사생활은 진정한 문제로 떠오르고 있습니다. 우리가 개발한 알고리즘은 얼굴 인식 시스템이 얼굴인식기능에 대처할 수있는 방법 중 하나입니다."라고 Aarabi교수는 말합니다. Aarabi 교수팀이 제시하는 솔루션은 'adversarial training'이라는 딥러닝 기법을 사용하는데, 이 기법은 두 개의 인공 지능 알고리즘이 서로 부딪히게끔 하는 방식입니다. 즉, Aarabi와 Bose는 얼굴을 식별하는 첫 번째 작업과 첫 번째 작업의 얼굴 인식 작업을 방해하는 두 가지 뉴럴 네트워크 집합을 설계했습니다. 그러기때문에 서로 다른 알고리즘은 끊임없이 서로 싸우면서 배우갈 수 있기때문에 AI경쟁구도에서 살아남을 수 있게되는 것이죠. 그 결과 프라이버시를 보호하기 위해 사진에 적용 할 수있는 Instagram향 필터가 탄생했습니다. 그들의 알고리즘은 이미지의 매우 특정한 픽셀을 변경하여 인간의 눈에는 거의 감지 할 수 없게끔 변화를 줍니다. "'안티 얼굴인식' 인공 지능은 얼굴 인식를 위해 뉴럴 네트워크가 탐색을 할 때 공격을 개시합니다."라고 Bose가 말했습니다. "예를 들어서, 이미지 인식을 위한 AI가 눈꼬리 부분을 찾고 있다면, 앞서 말한 아주 미묘한 변화를 주면서 눈꼬리를 조정하여 눈에 띄지 않게 할 수 있습니다. 우리가 보기에는 눈에 띄지않는 미묘한 변화지만 알고리즘 상에선 시스템을 잠식시킬 수 있는 것이죠." Aarabi와 Bose는 안티 얼굴인식 기술의 범위를 늘리기위해서 다양한 조건에서 테스트를 진행해였는데요, 다양한 민족 및 인종 그리고 밝기조절 및 다른 환경 등의 변수를 포함하는 600개 이상의 샘플을 대상으로 하였습니다. 그리고 그들은 그들의 시스템이 100%에서 0.5%까지 얼굴을 검출 비율을 줄일 수 있음을 보여주었습니다. "여기서 핵심은 점점 더 강력한 얼굴 탐지 시스템을 만들고, 다른 하나는 얼굴 탐지 기능을 비활성화 하기위해 두 가지 신경 네트워크를 서로 훈련시켜 더 강력한 도구를 만드는 것입니다." Bose가 말했습니다. 이 팀의 연구는 올 여름 말 '2018 IEEE International Workshop on Multimedia Signal Processing'에서 현재 진행하는 연구에대해 발표할 예정이라고 합니다. 개인의 정보와 프라이버시가 점점 중요해지는 현대사회에서 이런 기술은 더 빛을 발할수 밖에 없겠네요. 추후 소셜 네트워크에 실제로 적용되게될 날이 기대됩니다. 출처 : https://www.sciencedaily.com/releases/2018/05/180531114620.htm