[뉴스토마토 배한님 기자] 사회 구석구석까지 인공지능(AI)이 영향을 미치면서 정부가 단순 가이드라인을 넘어 법·제도를 만들어야 한다는 목소리가 나오고 있다. 해외 각국에서 인공지능의 인권 침해를 막기 위한 노력을 하고 있는데 국내는 자율적 규제 상태에 멈춰있다는 지적이다.
120개 시민단체가 24일 서울 종로구 참여연대에서 '인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 선언'을 발표하는 기자간담회를 열었다. 사진/배한님 기자
참여연대를 비롯한 120개 시민사회단체는 24일 서울 종로구 참여연대에서 기자회견을 열고 정부와 국회에 '인권과 안전, 민주주의가 보장되는 인공지능 정책을 요구하는 선언'을 발표했다. 이들은 인공지능도 인권과 법률을 준수해야 하며 이를 위해 '인공지능 규율법'을 마련해야 한다고 촉구했다.
시민사회는 인공지능 규율법에 △인공지능 국가 감독 체계 마련 △정보 공개와 참여 △인공지능 평가 및 위험성 통제 △권리구제 절차 보장이 반드시 담겨야 한다고 주장했다.
장여경 정보인권연구소 이사. 사진/배한님 기자
장여경 정보인권연구소 이사는 "인공지능 챗봇 이루다의 개인정보위반 사건을 목격하면서 인공지능 역시 개인정보 보호법을 비롯한 현행 법률을 준수해야 할 책임이 있다는 것을 확인했다"며 "(현행법에는) 인공지능이 인권과 안전, 민주주의를 보장하기에 부족한 부분이 있어 시민사회가 정부와 국회에 대책을 촉구하는 선언에 이르게 됐다"고 말했다.
시민사회는 이루다 사태 등을 통해 인공지능의 편향성과 위험성이 인권과 안전에 영향을 미쳐 관련 제품과 서비스를 무조건 신뢰하기 어렵다고 강조했다. 장 이사는 "딥러닝 메커니즘 등으로 통제도 어렵고 내용을 알 수 없다고 기업은 설명하지만, 우리의 고용·사회 여러 생활·공론장·민주주의, 심지어 생명과 안전까지 위협한다면 이를 마냥 신비로운 기술이라고 둬야 하는지 근본적인 의문을 갖게 된다"고 했다.
김민 진보네트워크센터 활동가는 "약 한 달 전 유럽연합(EU)의 인공지능 규제 법안에서는 채용 과정이나 노동자의 권리에 영향을 미치는 인공지능은 고위험군으로 규정했다"며 "고위험군은 (제품이나 서비스) 출시 전 위험을 평가하고 감사를 위한 데이터 기록이나 문서화를 반드시 해야 하며, 사용자에게 명확한 정보를 제공해야 한다고 엄격하게 명시했다"고 설명했다.
간담회 참석자들은 정부가 마련한 인공지능 관련 정책이 '자율적인 윤리'만을 강조하고 있다고 지적했다. 지난해 12월 과학기술정보통신부가 마련한 인공지능 윤리나 로드맵, 지난 13일 발표한 '인공지능 전략', 방송통신위원회의 'AI 윤리 선언' 등은 모두 법과 제도에 의한 책임이 부여되지 않았다는 것이다.
이들은 "기업 자율적인 윤리가 인권과 법률의 준수 의무를 회피하는 이유가 돼서는 안 된다"고 강조했다. 시민사회는 적극적인 정책 마련을 위해 인공지능 진흥 부처인 과학기술정보통신부뿐만 아니라 공정거래위원회, 국가인권위원회, 개인정보보호위원회가 인공지능 감독 체계에 포함돼야 한다고 덧붙였다.
시민사회는 오늘 발표한 선언을 국회와 관련 상임위원회, 정부 관련 부처에 민원 등으로 제출할 계획이다. 장 이사는 "지금까지 시민사회 단체들은 각 이슈에 개별적으로 문제를 제기해 왔다"며 "이제 이를 넘어서서 포지티브하게 인공지능을 규율하기 위한 제도나 정책을 구체적으로 제안할 수 있는 계기가 되지 않을까 한다"고 말했다.
배한님 기자 bhn@etomato.com