육·해·공으로 AI가 쳐들어온다, 인간 잡으러…

입력 2020.03.20 03:00 | 수정 2020.03.24 21:13

[이철민의 Global Prism] (31) AI와 결합한 킬러로봇… 인간 통제 벗어날까

이미지 크게보기
①2시간 공중에 체류하다가 육·해상의 타깃이 나타나면 자동으로 식별해 파괴하는 이스라엘의 하피2 미사일. ②F-18 미 전투기가 투하한 퍼딕스 드론 떼. ③영국 토네이도 전투기에서 발사된 뒤, 알아서 탱크 등의 목표물을 찾아가 파괴하는 브림스톤2 미사일. / 미·영·이스라엘 국방부 홈페이지
작년 10월 미국 버지니아주 월롭스 아일랜드에선 고무보트 6척이 서로 거리와 속도를 조정하며 한곳을 향해 돌진하고 있었다. 그런데 이 보트들의 조종간은 마치 유령이라도 탄 듯이 저절로 움직였다. 이물에 장착된 구경 0.5인치(1.27㎝) 기관총은 해안의 적을 자동으로 탐지해 공격하게 돼 있었다. 미 해병대가 개발 중인 '바다의 폭도(Sea Mob)'라는 로봇 보트였다.

학습 능력을 갖춘 인공지능(AI)이 장착된 자율 주행 차량과 수만 건의 이미지 데이터를 순식간에 식별하는 연산 능력을 갖춘 컴퓨터는 인류에게 상상도 못 했던 편리성을 제공했다. 화성 탐사 로봇인 스피리트와 오퍼튜니티는 지구에서 무려 5500만㎞ 떨어져 전파 신호가 도달하는 데만 3분이 넘는 화성의 척박한 표면을 수년간 각각 7㎞와 45㎞를 자율 주행해 경탄을 자아냈다. 그런데 이 똑같은 기술이 전장(戰場)에서는 인류에게 엄청난 공포를 초래할 수 있다. 바로 '킬러 로봇'이라는 '자율 살상 무기(LAWs·Lethal Autonomous Weapons)'다.

이철민 선임기자
이철민 선임기자
로봇 스스로 목표 선정하고 살상

킬러 로봇은 공격 목표 선정과 살상(殺傷) 결정을 인간의 개입 없이 자율적으로 하는 AI 로봇이다. 인간의 판단에 따른 살상을 알고리즘으로 대체한 것이다. 결코 먼 얘기가 아니다. 안토니우 구테흐스 유엔 사무총장은 지난달 24일 제네바 인권이사회에서 킬러 로봇을 기후변화, 소득 불평등 등과 더불어 인권을 위협하는 글로벌 이슈로 선정했다. 물론 이 킬러 로봇은 영화 '터미네이터'에서 그랬듯 인간과 비슷한 모습을 하고 악조건에서도 끊임없이 적응하는 만능 '로봇 병사'는 아니다. 좀 더 좁은 범위의 구체적 임무를 수행하도록 알고리즘에 따라 움직이는 로봇이다. 이미 각국은 고도의 AI 가 장착된 킬러 로봇을 배치했거나 개발하고 있다.

미 해군이 2016년 개발한 135톤짜리 대잠(對潛) 무인 함정인 시 헌터(Sea Hunter)는 자율 운항으로 하와이에서 캘리포니아까지 바다 밑을 훑는다. 또 유조선이나 군함에 비정상적으로 접근하는 선박을 미리 탐지해 에워싸고 공격하는 무인 '스웜 보츠(swarm boats)'도 배치했다. 이 보트들은 서로 통신하면서, 마치 군무(群舞)를 하듯이 조화를 이뤄 타깃에 돌진한다. 2000년 10월 예멘 항구에서 미 구축함 콜(Cole)이 이슬람 테러 집단의 자살 폭탄 보트 공격을 받아 17명이 전사한 뒤, 미 해군이 변화무쌍한 해양 환경을 고려해 화성 탐사 로봇의 센서를 더욱 개발한 결과였다. 2016년 10월 캘리포니아주 차이나레이크에서 F-18 전투기가 투하한 100대의 소형 드론들은 마치 물고기·새 떼처럼 집단적 유기체로 날아가면서 타깃들을 차례로 둘러싸 공격했다.

화약·원자폭탄 잇는 전쟁 혁명

이스라엘이 실전 배치한 AI 드론인 하피(HARPY)는 2시간가량 반경 100㎞ 공중에 떠 있다가, 적의 레이더 신호가 감지되면 수초 내에 폭격한다. 특정 타깃이 미리 입력된 것도 아니고, 공격 결정에 인간이 개입하지도 않는다. 하피는 한국과 중국, 인도, 터키 등에도 판매됐다. 우리나라 휴전선을 감시하는 테크윈의 SGR-AI도 이론적으로는 목표물을 자체 판단해 경기관총을 발사하는 킬러 로봇이다. 이 밖에 러시아·중국·영국 등도 타깃을 스스로 선정해 공격하는 미사일과 탱크 로봇을 개발하고 있다〈그래픽 참고〉.

네덜란드의 민간 단체 '팍스(Pax)'는 작년 11월 보고서에서 "킬러 로봇은 화약과 원자폭탄에 이어, 전쟁에서 제3 혁명"이라고 평했다. 이 단체에 따르면, 미국 록히드 마틴과 레이시언, 중국항공공업그룹(AVIC)과 중국항천과기집단(CASC), 이스라엘의 IAI와 라파엘, 터키의 STM 등 전 세계에서 30개 군수업체들이 킬러 로봇을 개발·생산하고 있다. 호주 뉴사우스웨일스대의 킬러 로봇 전문가인 토비 월시는 "드론과 통신이 두절되거나 지연 시간(lag time)이 발생하고 전파 방해를 겪는 상황에서, 군(軍)으로서는 자율적으로 작동하는 킬러 로봇에서 새로운 가능성을 보게 된다"고 말했다.

킬러 로봇은 일부 방어용 무기를 제외하고는, 아직 공격의 '마지막 권한'은 인간에게서 넘겨받지 않았다. '인간이 사라진 군대(Army of None)'의 저자 폴 샤레는 "이미 30여 국에서 인간이 최종 감독 권한을 갖고, 방어용 킬러 로봇을 운용하고 있다"고 말했다. 하지만, 작년 초 싱가포르 난양 공대의 한 실험에서 인체가 이미지에 반응하는 데에는 0.25초가 걸렸지만, 수퍼 컴퓨터는 무려 120만건의 이미지 데이터를 90초 만에 식별했다. 이미지 한 장당 반응 시간이 0.000075초에 불과했다. 걷잡을 수 없는 속도와 혼란이 지배하는 전투에서, 인간이 이런 능력을 갖춘 AI 로봇에 일일이 개입하려는 시도 자체가 킬러 로봇의 '효율성'과 존재 이유를 훼손할 수밖에 없다는 얘기다. 실제로 미 해군이 이미 지난 30년간 전함에 배치한 근접 방어용 기관포인 팔랑크스(Phalanx)는 2대의 레이더로 3㎞ 밖에서 접근하는 물체의 '성격'을 파악하고, 초당 75발 발사하는 포탄의 궤적을 추적해 수정을 되풀이한다. 이 모든 과정에서 인간이 개입할 여지는 없다. 현재 각국이 시범 운용하는 킬러 로봇들도 소프트웨어만 약간 수정하면 '마지막 문턱'을 쉽게 넘을 수 있다.

④보병과 함께 전투를 벌이는 미 육군의 MAARS 장갑 로봇. ⑤미 해군이 잠수함 파괴를 위해 배치한 시 헌터. ⑥러시아가 개발한 AI 탱크. ⑦적의 비행 물체를 자동 식별해 초당 5발을 쏘며 전함을 방어하는 미 해군의 팔랑크스.
④보병과 함께 전투를 벌이는 미 육군의 MAARS 장갑 로봇. ⑤미 해군이 잠수함 파괴를 위해 배치한 시 헌터. ⑥러시아가 개발한 AI 탱크. ⑦적의 비행 물체를 자동 식별해 초당 5발을 쏘며 전함을 방어하는 미 해군의 팔랑크스. / 미·러시아 국방부 홈페이지
테러와 인종 청소 등에 악용 가능

킬러 로봇 옹호론자들은 "융단 폭격을 대체한 정밀 유도 스마트 무기들이 민간인 피해를 최소화할 수 있었듯이, 킬러 로봇도 같은 효과를 거둘 수 있다"고 주장한다. 하지만, 테러 집단이나 깡패 국가의 수중에 들어간 킬러 로봇은 얘기가 다르다. 고작 50%의 정밀도를 지닌 AI 킬러 로봇만으로도 테러 효과는 충분히 거둘 수 있다. 또 인종 청소를 꾀하는 정부는 손바닥보다도 작은 수백 개의 소형 드론에 눈과 머리카락 색, 얼굴 특성을 지정하고 찾아서 살해하도록 지시할 수 있는 시대를 맞게 된다.

미국에서 남북전쟁이 벌어지던 1861년 4월, 의사인 리차드 조던 개틀링(Gatling)은 인디애나폴리스에서 한쪽에선 젊은이들을 가득 태운 열차가 전장으로 떠나고, 다른 한쪽에선 사상자들이 끝없이 늘어선 행렬을 봤다. 그는 전쟁에 동원되는 인력을 획기적으로 줄일 방법을 궁리했고, 보병 100명의 역할을 하는 개틀링 기관총을 발명했다. 이 기관총은 이후 수천만 명의 목숨을 앗아간 기관총의 효시가 됐다. 킬러 로봇은 어떤 길을 걷게 될까.


탈레반 군영의 여섯살 소녀, 킬러 로봇이 과연 쏘지 않을까… 도덕·윤리논쟁 가열

킬러 로봇 금지론자들은 '알고리즘에 의한 살해(death by algorithm)'가 지닌 도덕·윤리적 문제를 든다. 노벨평화상 수상자인 조디 윌리엄스는 "기계에게 목표 선정과 살상 결정권을 넘기는 순간, 인간은 도덕·윤리적 루비콘강을 건너게 된다"고 경고했다. 따라서 '완전한 살상 결정 권한'을 지닌 로봇이 아직 범용화하지 않은 지금이 금지의 최적기라는 것이다. 실제로 1995년의 실명(失明) 레이저 무기 금지 조약은 각국이 선제적으로 체결한 조약이었다. UC 버클리의 컴퓨터과학 교수인 스튜어트 J 러셀은 작년 12월 뉴욕타임스에 "인간처럼 종합적 지능을 갖춘 인공지능(AI)의 개발은 필연적이고, 관련 기술의 전문가들이 합치면 2년 내에 지금보다 훨씬 효과적인 킬러 로봇을 만들 수 있다"고 말했다.

킬러 로봇 금지 진영에는 프랑스·독일 등 세계 30국과 100여 개 민간 단체, 테슬라 창업자인 일론 머스크와 애플의 공동 창업자 스티브 워즈니악 등이 참여했다. 유엔도 지뢰·실명 레이저 무기·집속탄·소이성(燒夷性) 무기에 이어 킬러 로봇을 특정재래식 무기 금지협약(CCW)에 포함시키려고 2004년부터 매년 한 차례 이상 회의를 열지만 만장일치 결정이라는 한계에 막혀 답보를 면치 못했다.

반면에 옹호론자들은 "인간은 종종 감정에 휘둘려 학살과 같은 전쟁 범죄를 저지르지만 킬러 로봇은 입력된 코드대로만 움직이고, 인간처럼 피로와 긴장 속에서 그릇된 결정을 내리지도 않아 오히려 윤리적"이란 논리를 편다. 미 국무부도 "스마트 무기들이 그동안 민간인 피해를 얼마나 줄였는지를 고려할 때에, 미래의 새 기술에 대해 성급히 결정해선 안 된다"는 입장이다.

하지만 미 육군 특수부대 레인저의 저격수 출신으로 킬러 로봇 전문가인 폴 샤레는 "2000년대 초 아프간에서 여섯 살 소녀가 탈레반의 강압에 따라 우리 위치를 위성 전화기로 알려주고 있었지만, 우리는 사살이 교전 수칙에 적합해도 끝내 이 아이를 쏠 수 없었다"며 "킬러 로봇이 이런 상황에서 합법성과 옳고 그름을 구별할 수 있겠느냐"고 비판했다.

놓치면 안되는 기사

팝업 닫기

WEEKLY BIZ 추천기사

Idea & Trend

더보기
내가 본 뉴스 맨 위로

내가 본 뉴스 닫기