Opinion #View & Outlook

AI가 얼굴로 범죄자 가려냈는데… 알고리즘이 틀렸다면?

캐시 오닐 前버나드 칼리지 교수
  • 0
  • 0
입력 2017.09.30 16:16
  • 글자 크게
  • 글자 작게

[WEEKLY BIZ Column]
빅데이터 맹신이 파괴적 결과 낳을 수도


캐시 오닐 前버나드 칼리지 교수
캐시 오닐 前버나드 칼리지 교수
인공지능이 갈수록 섬뜩해지고 있다. 미 스탠퍼드대학의 한 연구에 따르면 안면 인식 기술이 동성애자를 매우 정확하게 가려낸다고 한다. 이러한 기술이 동성애를 범죄로 규정하는 국가에서 어떻게 쓰일지 상상해보면 끔찍하다. '게이더(게이와 레이더의 합성어)' 연구를 주도했던 마이클 코신스키는 자신은 기술의 가능성을 보여 줬을 뿐이라며 안면 인식 기술의 오남용을 막아야 한다고 주장한다. 앞뒤가 맞지 않는다.

사람들은 흔히 안면 인식 기술 이야기를 들으면 톰 크루즈가 연기한 영화 '마이너리티 리포트'를 떠올린다. 얼굴로 잠재적 범죄자인지 아닌지 알아본다는 것이다. 영화는 영화고, 현실은 현실이다. 알고리즘이 인간의 판단력보다 더 정확할 수 있지만 결코 완벽하지 않다. 그런데도 사람들 사이에선 인공지능 기술이 마치 수학 공식처럼 정확하다는 잘못된 인식이 퍼지고 있다.

과학과 수학에 대한 대중의 믿음은 견고하다. 이 때문에 데이터를 다루는 과학자들은 비록 데이터 알고리즘이 과학과 수학에 바탕을 두고 있지만 비극적 결과도 낳을 수 있다는 점을 알려야 할 도덕적 의무를 갖고 있다. 나는 이러한 점을 코신스키에게도 알렸다. 그러자 그는 자신이 빅데이터의 위험을 다른 방식으로 알리고 있다고 했다. 빅데이터를 이용한 알고리즘의 '장난감 버전'을 보여줌으로써 사람들의 경각심을 이끌어낸다는 것이다.

그러나 이는 마치 폭탄을 만들어내면서 동시에 전쟁은 위험하다고 외치는 것과 마찬가지라고 본다. 아무리 '장난감 버전'이라 하더라도 사람들이 맹목적 믿음을 갖게 되면 파괴적 도구로 전락할 수 있기 때문이다. 일부 독재 정권은 '게이더'를 적용해 민간인에게 무작위로 범죄자 꼬리표를 붙일 수 있다. 이 과정에서 억울한 피해자가 발생할 수 있다. 피해자가 아무리 항변해도 정부가 아무런 합리적인 설명 없이 '알고리즘 수학 계산에 따라 결정된 것'이라고 일축할 수 있기 때문이다.

물론 권위적 정부가 시민을 억압할 때 꼭 알고리즘이 필요한 것은 아니다. 그러나 독재자가 과학의 권위를 독재 수단으로 악용하는 것은 막아야 한다. 알고리즘으로 범죄자나 테러리스트를 완벽하게 가려내는 것이 시간문제라는 잘못된 믿음이 번져서는 안 된다.
위로가기 버튼