딥페이크로 인한 피해가 사회적인 문제로 대두되면서 다시 인공지능(AI) 기본법 논의에 속도가 붙고 있습니다. AI 기본법에는 AI 기술 발전을 지원하고 AI 기술의 위험성을 막아 사회 신뢰를 조성할 수 있는 기본적인 사항들이 담깁니다. 최근 여야는 AI 기본법의 제정 시급성에 공감대를 형성하고 이달 공청회까지 예고했습니다. 하지만, 시민사회는 기본법 논의가 AI 기술과 산업 육성 쪽에만 무게가 실려 있다고 비판하고 있습니다. 토마토Pick이 시민 안전과 인권을 위한 AI 기본법을 주장하는 시민사회 입장을 살펴봤습니다.
실효성 없는 ‘자율규제’
AI 위험성 방치 우려
지난 21대 국회에서는 ‘인공지능산업 육성 및 신뢰기반 조성 등에 관한 법률안’이 발의돼 논의됐고, 윤석열 정부도 그 입법을 강력하게 추진하고 있습니다. 하지만 시민단체들은 해당 법안이 AI 산업에 대해 실효성 없는 자율규제를 내세워 AI 위험을 방치할 수 있다고 비판하고 있습니다. 정부와 국회가 우리사회와 시민들 모두에게 중대한 영향을 미칠 AI 기본법에 대해 다양한 의견을 수렴하기는커녕 그 내용조차 공개하지 않은 채 불투명하게 밀실에서 논의하고 있다는 지적도 나오고 있습니다.
22대 국회 개원 이후 AI 기본법 발의는 계속 이어지고 있습니다. 특히 정점식 국민의힘 의원이 대표 발의한 AI 법안은 국민의힘 소속 108명 의원 전원이 공동 발의하기도 했습니다. 하지만 이 법안은 AI 산업 진흥을 우선시하며 AI의 위험을 방지하거나 완화하는 규정에 소홀하다는 평가를 받고 있습니다. 참여연대는 ‘22대 인공지능법 제정에 대한 시민사회 의견서’에서 “국민의힘 발의안은 물론 현재 발의된 AI 법안들의 경우, 21대 국회가 밀실에서 논의했던 내용을 답습하고 국가인권위원회가 지적했던 문제점 대다수를 개선하지 않았다”며 “특히 이들 법안은 범용 AI를 비롯해 AI 위험을 사회적으로 통제하기 위한 의무 조치를 요구해 온 국제규범과 크게 어긋난다”고 평가했습니다.
실제 지난 3일 국회 과방위에서 논의됐던 AI 기본법은 이런 이유들로 합의 처리가 불발됐습니다. 그동안 여야는 업계와 AI 산업 지원에 적극적이었지만, 최근 사회적으로 큰 논란이 된 딥페이크 디지털성범죄 등이 영향을 미쳤습니다. 해당 법안이 AI의 활성화에 방점을 찍고 있는데, 딥페이크와 같이 AI가 악용될 경우 이를 막을만한 뚜렷한 방안이 부족하다는 지적이 나온 것이지요. 일부 의원들이 AI의 부작용을 막기 위해 범부처 간 논의가 필요하다고 지적했고, 과방위는 일단 AI 기본법 처리를 보류했습니다.
범용AI 의무 표준부터
규제기관 신설까지
그렇다면, 해외에서는 AI 관련 사회적 규제를 어떻게 추진하고 있을까요. 세계 최초로 AI법을 도입해 오는 2026년 시행을 앞두고 있는 유럽연합(EU)의 ‘AI ACT’는 수용할 수 없는 위험과 고위험, 제한적 위험, 최소 위험 등 AI 위험성을 체계적으로 나누어 놓았습니다. 위험에 비례한 의무를 부과하면서 피해 구제를 위한 국가 거버넌스 체계를 수립한 것입니다.
미국의 경우 바이든 대통령이 지난해 10월 AI 행정명령을 발표한 이래로, 연방정부 조달 AI와 강력한 범용 AI 시스템을 중심으로 안전에 대한 의무 표준을 마련해 가고 있습니다. 미국 의회의 정치적 여건상 행정명령이란 제한된 방식으로 이뤄졌지만, 바이든 대통령은 7개 AI 기업과 자발적 약속에서 구속력 있는 의무를 실행하기 위해 초당적 입법을 추진하겠다고 밝힌 바 있습니다. EU와 미국의 AI 규범은 역내 시장에 대한 영향을 넘어 국제적인 표준을 형성해 가고 있다고 평가를 받습니다.
영국의 경우 독자적인 AI법을 추진하기보다 반독점, 개인정보, 금융, 방송통신 등 기존 규제기관이 소관 분야별로 인공지능에 대한 규제를 추진하고 있습니다. 다만 영국 역시 최근 범용 AI에 대한 규제를 모색하면서 ‘AI 규제기관’ 신설을 검토하는 것으로 알려졌습니다.
최근 세계 주요 국가들은 AI의 편익과 효율성 이면에 편향과 차별, 개인정보와 프라이버시 침해, 소비자권리 침해, 노동착취, 환경문제가 발생하는 현실에 주목하고, 그에 따른 적절한 규제를 모색하고 있는 상황입니다. 이에 한국도 국제적인 기준에 부응해 AI 혁신을 지원하는 동시에 적정한 책임과 의무를 부과하는 규제가 조화를 이뤄야 할 것으로 보입니다.
"이임 파티, 왜 우리 세금으로?"
AI 기술은 민간의 다양한 서비스에서 공적 영역에 이르기까지 도입이 꾸준히 확대되고 있습니다. 하지만 국내에서는 여전히 AI 위험성에 대한 규제보다는 기술 발전과 토종 기업의 육성을 내세우는 목소리가 더 우세한 상황이라는 게 시민단체들의 판단입니다. AI 안정성에 대한 신뢰 없이 AI 산업 발전도 불가능하다고 보는 것인데요. 인권과 안전을 위협하는 고위험 영역 AI에 대한 높은 책임성과 투명성, 그리고 권리 구제 방안을 포함한 규제법이 마련돼야 한다고 시민단체들이 주장하는 이유입니다.
-한상희 참여연대 공동대표 : “AI 산업은 향후 어떤 방향으로 발전해나갈지 아무도 예측하지 못한다. 하지만 그것이 우리들의 실생활에 지대한 영향을 주는 것을 넘어 생활 과정 자체를 지배할 위험이 농후하다는 사실은 명확하다. 이에 AI에 관한 법률은 수없는 검증과 과감한 평가, 그리고 세심한 합의에 기반해야 한다. AI가 야기할지도 모르는 위험은 철저하게 우리 모두의 관리 하에 통제돼야 하기 때문이다.”
-김병욱 민변 디지털정보위원회 변호사 : “현재 한국의 AI 법안은 기술 개발에 활용되는 데이터의 편향성이나 오류 가능성을 검증하는 규정이 없다. 유럽연합 AI법이 고위험 AI에 대해 데이터의 품질 기준, 기술문서 작성과 유지 의무, 인적 감독 보장 등 매우 높은 수준의 의무를 부과하고 있는 것과는 대조적이다. AI 기본법은 산업계 요구만을 반영할 것이 아니라, 위험성에 대한 실질적인 규제를 포함하는 균형잡힌 법이 돼야 한다.”
-오병일 진보네트워크센터 대표 : “AI법은 시민 안전과 인권 보호에 기반해야 한다. 혁신을 저해하지 않아야 하지만, 혁신이 안전과 인권에 대한 침해를 감수하는 명분이 되어선 안 된다. 공공기관의 경우, AI 시스템을 업무에 도입하기 이전에 인권영향평가를 시행하고 관련 자료를 투명하게 공개하는 등 더 높은 수준의 책임성과 투명성을 가지도록 해야 한다.”
안창현 기자 chahn@etomato.com