(New스토리)스스로 생각하고 결정하는 '인공지능', 문제는 없을까
"결함 없는 인공지능도 사고낼 수 있어"…기술적·제도적 보완책 마련해야
2016-08-15 12:00:00 2016-08-15 12:00:00
최근 정부가 인공지능과 자율주행차 등의 분야를 미래산업으로 집중 육성하겠다는 계획을 밝혔다. '알파고' 충격 이후 인공지능 기술이 뒤처졌다는 위기의식이 퍼지자 이를 만회하기 위해 나서고 있는 것이다. 정부의 구상대로 2026년 복합지능이 개발된다면 인공지능으로 인한 사회적 변화는 상상을 뛰어넘을 수 있다. 그러나 인공지능은 단순히 국가경쟁력을 높이는 데 쓰이는 것이 아니라 일자리와 법, 윤리적 과제 등 다양한 곳에서 새로운 문제를 만들어낼 수 있다. 스스로 생각하고 결정을 내리는 '자율성'을 가진 인공지능에서 파생될 수 있는 문제에는 무엇이 있는지, 이 같은 문제에는 어떻게 대처해야 할지에 대해 진지하게 생각해봐야 할 때다.
 
[뉴스토마토 원수경기자] 2010년 5월6일 오후 2시42분. 주식시장 폐장을 15분여 남기고 뉴욕증시의 다우존스지수는 5분 만에 998.5포인트 급락했다. 단 몇분 만에 증발한 돈은 1조달러에 달했다. 주식시장의 갑작스러운 붕괴, 이른바 '플래시 크래시(flash crash)'다. 
 
이 사태의 주범은 인공지능이었다. 천분의 일초 내지 백만분의 일초 단위로 움직이던 초단타매매(HFT·High-Frequency Trading) 인공지능들이 특정한 매도 거래에 개입했다 부족한 매수 주문을 확인하자마자 손실을 줄이기 위해 경쟁적으로 매도에 나섰던 것이다. 영향은 순식간에 포트폴리오 전체로 확산됐고 결국 시장 전체가 폭락했다. 
 
인공지능으로 인한 피해는 2010년의 플래시 크래시 사건처럼 금전적인 부분에서 끝나지 않을 수 있다. 통제를 벗어난 인공지능이 인간에게 직접적인 위협을 가하는 사례가 속속 확인되고 있다. 지난 7월 미국 캘리포니아주의 한 쇼핑센터에서는 최신형 보안서비스 로봇이 16개월 된 유아를 공격해 다치게 한 사고가 발생했다. 상반기에는 미국과 일본에서 낮은 수준의 자율주행 기능을 갖춘 자동차들이 여러 건의 교통사고를 일으켰다. 테슬라의 모델S의 운전자는 사망에 이르기도 했다. 
 
LG경제연구원은 최근 공개한 '인공지능의 자율성' 보고서를 통해 "인공지능의 자율성이 높아지면서 인간과 인공지능 둘 중 누구의 의견을 따라야 할지 판단할 수 있는 기준 마련의 필요성이 제기되고 있다"며 "인간 대 인공지능간의 문제뿐만 아니라 인공지능간의 경쟁에서 발생할 수 있는 갖가지 상황에 대한 우려들도 제기되고 있다"고 지적했다. 
 
똑똑해진 인공지능, 사고 가능성도 높아져
 
인공지능으로 인한 사고는 결함이 없어도 발생할 수 있다. 제대로 만들어져서 정상적으로 작동하는 인공지능도 사고를 일으킬 수 있다. 인공지능이나 로봇에 스스로 결정할 수 있는 자율성이 있기 때문이다. 최근 이슈가 된 구글의 알파고나 자율주행차 등은 과거에 보던 인공지능 로봇보다 훨씬 높은 수준의 자율성을 가지고 있다. 진석용 LG경제연구원 책임연구원은 "자율성이 높아지면 그만큼 인간 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아져 사고로 연결될 가능성도 높아지게 된다"고 지적했다. 
 
IBM 왓슨의 코그너티브(인식) 컴퓨팅 기술이 적용된 인공지능 로봇 나오미(Nao-mi). 사진/뉴시스
 
우선 인공지능은 인간과 갈등을 빚을 수 있다. 영화 '인터스텔라'를 보면 인공지능을 장착한 우주탐사로봇 '타스(TARS)'가 사용자의 기분을 고려하지 않은 채 유머감각을 뽐내자 사용자가 타스의 유머수준을 낮춰 농담을 못하게 하는 장면이 나온다. 비슷한 일이 실제로 발생할 가능성도 있다. 만약 냉장고의 인공지능이 이용자의 음식섭취를 조절한다면 "비만이니 그만 먹어라"는 충고를 던질 가능성이 있다. 이 같은 충고가 계속되고 냉장고 문까지 안 열어준다면 냉장고 주인은 기분이 상하게 될 것이다.
 
의료 현장에서도 인공지능과 의사가 충돌할 수 있다. 의사가 환자에 대해 내린 진단과 처방, 시술 등이 인공지능의 결정과 상충할 수 있기 때문이다. 만약 환자가 의사와 인공지능의 처방을 모두 보고 선택할 수 있다면 어떤 결과를 믿고 선택해야 할지 고민에 빠질 수밖에 없다. 
 
자율주행차에 대한 문제도 많이 지적되고 있다. 소수의 탑승자와 다수의 보행자 중 하나만을 구할 수 있는 상황에 놓인다면 인공지능은 어떤 선택을 내려야 할까. 어떤 선택을 하더라도 논란을 피하기는 힘들 것이다. 아울러 행동에 대해 도덕적 판단을 내리지 않는 인공지능은 주식이나 채권시장은 물론 에너지 등 각종 자원 거래시장을 실제 소비자에게 훨씬 불리하게 만들 수 있다. 킬러로봇이 민간인을 공격대상으로 오인하거나 임무수행을 위해 민간인 피해를 무시해도 되는지의 문제도 논란의 대상이다. 
 
인공지능 간의 사소한 갈등, 심각한 결과 초래할수도
 
인공지능의 적용 범위가 넓어지면서 인공지능 사이의 경쟁이나 충돌 같은 갈등 문제에 대한 고민도 커지고 있다. 전문가들은 인공지능이 사용상의 부작용에 대해서는 전혀 고려되지 않은 채 각각 독립적으로 목표성취만을 위해 개발되고 있는 점에 대해 우려를 표했다. 독립적으로 개발된 인공지능들 각각의 개별적이고 사소한 행동들이 모두 합쳐지면 심각한 현상으로 번질 수 있다는 것. 
 
웰던 월러치와 콜린 알렌의 '왜 로봇의 도덕인가(메디치미디어)'를 보면 피터 노빅 구글 인공지능 전문가는 인공지능들 각각의 개별적 행동이 모여 대형 사고를 낳을 수 있는 영역으로 의료분야를 꼽았다. 매일 발생하는 미국 내 의료사고 사망자 200명 중 상당수가 컴퓨터 오류에 의한 것이라며 컴퓨터의 실수와 의료과정상의 잘못이 결합할 경우 두어달 만에 9·11 테러 사망자와 맞먹는 규모의 의료사고 사망자가 발생할 수 있다는 지적이다. 
 
금융시장에서도 인공지능으로 인한 플래시 크래시가 발생할 가능성은 여전히 남아있다. 초단타매매의 속도가 더욱 빨라지고 있기 때문이다. 미국 메사추세츠공대(MIT)가 격월로 발행하는 과학기술 전문지 'MIT 테크놀로지 리뷰'에 따르면 호주의 IT기업인 메타마코는 4나노초(1나노초=10억분의 1초)만에 정보를 전송하는 기술을 완성했다. 주식시장에서 특정 정보를 받아 매수나 매도를 결정하고 집행하는 데 걸리는 시간도 85나노초에 불과하다고 한다. 앞서 시스코가 선보인 네트워크 기술보다 세배나 빠른 속도다. 이탈리아 등에서는 0.5초 미만 거래에 0.02%의 추가무담금을 물리는 제도를 도입했고, 힐러리 클린턴 미 민주당 대선후보도 초단타매매에 대한 과세 공약을 제시했으나 세금보다 초단태매매로 인한 이익이 더 클 수 있어 실효성은 미지수다. 
 
이 밖에도 자율주행차와 첨단교통시스템 사이의 갈등 가능성도 배제할 수 없다. 지능형 교통시스템은 국가마다 다양한 기술이 적용돼 운용될 것이다. 자동차 업체들은 각각 고유의 인공지능 기술을 사용할 것으로 예상되고 있어 장비 차이에 의한 통신 오류 또는 시스템 호환성 문제 등 다양한 충돌 가능성이 전망된다. 
 
자율주행 모드로 운행하던 중 사고가 난 테슬라 모델S의 차량 모습. 사진/뉴시스·미도로교통안전위원회
 
기술적·제도적 보완책 함께 마련해야
 
인공지능이 문제를 일으킬 수 있다고 해서 자율성을 완전히 제거할 수는 없다. 자율성은 인공지능, 로봇을 도입하는 목적인 인간 대체 효과, 인력투입 및 관련비용 절감을 위한 필수적인 요소기 때문이다. 결국 인간이 인공지능에게 자율적 의사결정권을 얼마나 부여해야 하는가에 대한 기준을 마련하는 것이 문제의 핵심이 될 전망이다. 
 
현재 인공지능 개발자들은 윤리적 기준과 안전 이슈를 고려하며 사전에 자율적 결정의 수위를 미리 조절해놓는 수동적 방안에서부터 유사시 인간이 개입할 수 있는 능동적 방안 등 다양한 방안을 고안해 적용하고 있다. 인공지능이 인류에 위협이 되지 않도록 행동할 것을 스스로 믿게 만드는 논리 구조를 적용한 '우호적 인공지능' 개발을 목표로 하고 있는 곳이 있으며, 인공지능의 폭주를 막기 위한 강제종료 기능인 '킬 스위치'도 개발되고 있다. 구글의 자회사 딥마인드는 지난 6월 인공지능이 인간에게 해를 끼칠 경우 수동으로 인공지능의 작동을 멈출 수 있는 '빅 레드 버튼(Big Red Button)'을 적용하겠다고 발표한 바 있다. 
 
각국 정부도 인공지능 시대를 맞아 법과 제도 보완에 나서고 있다. 아마존 등의 드론배달 서비스 추진과 맞물려 미국연방항공청(FAA)은 지난 6월말 민간용 드론의 운항규정을 확정, 발표했다. 가시권 내 비행과 원격조종만 허용했고 고도도 120m 이하로 제한했다. 가동시간은 해가 떠 있는 시간으로 한정했다. 일반 항공기와의 충돌이나 인적, 물적 사고를 방지할 수 있는 충분한 기술이 개발되기 전까지는 드론의 자율비행을 쉽게 허가하지 않겠다는 속내가 담겨있다. 
 
자동차 분야에서도 미국, 유럽, 일본 등 선진국은 자율주행차에 대한 정책적 가이드라인을 마련하고 있다. 다만 구글 본사가 있는 미 캘리포니아주에서도 운전대와 브레이크를 갖춘 자동차만 일반 도로에서 실험을 할 수 있도록 규제하고 있어 당분간은 인공지능의 자율성을 크게 인정하지 않을 것으로 보인다. 
 
일부에서는 인공지능에 법적 지위를 부여하는 방안에 대한 논의도 시작됐다. 미국 도로교통국(NHTSA)은 지난 2월 구글의 질의에 대해 자율주행차를 통제하는 인공지능을 운전자로 간주할 수 있다는 유권해석을 내린 바 있다. 지난 5월 공개된 유럽연합(EU) 의회의 보고서도 로봇에게 '전자인간' 자격을 부여해 권리와 의무를 부과하고 로봇 고용자에게 별도의 세금을 부과하자는 내용을 담고 있다. 
 
원수경 기자 sugyung@etomato.com
  
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김기성 편집국장이 최종 확인·수정했습니다.

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

지난 뉴스레터 보기 구독하기
관련기사