성·인종 차별하는 AI 막는다…과기정통부 '인공지능 윤리기준' 마련
'인간성을 위한 인공지능' 3대 기본원칙 10대 핵심요건 제시
2020-12-23 11:00:00 2020-12-23 11:00:00
[뉴스토마토 배한님 기자] 지난 4월, 구글의 인공지능(AI)이 흑인이 들고 있는 체온계는 총으로, 백인이 들고 있는 체온계는 체온계로 라벨링 하면서 논란이 일었다. 지난 2018년에는 아마존이 성차별적 인재 분류 시스템을 학습한 AI 채용 소프트웨어를 폐기하기도 했다. 이미 사회 다양한 분야에서 활용되고 있는 만큼 AI가 비윤리적인 방식으로 학습되고 오·남용됐을 경우 생길 부작용은 크다. 이를 막기 위해 정부는 AI 윤리 가이드라인을 마련했다. 
 
 
과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원은 23일 대통령 직속 4차산업혁명위원회(이하 4차위) 전체회의에서 인공지능 시대에 바람직한 인공지능 개발·활용 방향을 제시하기 위해 '사람이 중심이 되는 인공지능(AI) 윤리기준'을 발표했다. 
 
AI 윤리기준은 '인간성'을 최고가치로 설정한 3대 기본 원칙과 10대 핵심 요건, 서문, 부록 등으로 구성됐다. 이를 통해 정부·공공기관·기업·이용자 등 모든 사회구성원이 AI 개발부터 활용까지 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하는 것이 목표다.
 
AI 윤리기준은 지난해 12월 인공지능 국가전략 주요과제 및 지능정보화 기본법 제정의 후속조치로 추진됐다. 지난 4월부터 학계·산업계·시민단체 등 각계의 의견을 수렴해 만들어졌다. 11월 27일 초안 발표 후 지난 7일 공청회를 거쳐 4차위에서 최종 심의·의결했다. 
 
 
3대 기본 원칙은 △인간의 존엄성 △사회의 공공선 △기술의 합목적성으로 AI 개발 및 활용 과정에서 지켜야 할 원칙이다. 
 
이 3대 원칙에 따라 AI는 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 인류의 보편적 복지를 향상시킬 방향으로 개발·활용돼야 한다. 아울러 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하고 인류의 삶에 필요한 '도구'라는 목적과 의도에도 부합되게 사용돼야 한다. 
 
10대 핵심 요건은 이런 3대 기본원칙을 실천하고 이행할 수 있도록 AI 전체 생명 주기에 걸쳐 충족돼야 하는 조건으로 △인권보장, △프라이버시 보호 △다양성 존중 △침해금지 △공공성 △연대성 △데이터 관리 △책임성 △안전성 △투명성이다. 
 
과기정통부가 AI를 규제하는 법이 아닌 윤리기준을 마련한 이유는 기술과 사회 변화에 유연하게 대처하기 위해서다. 급변하는 환경에서 새롭게 제기될 AI 윤리 이슈를 논의하고, 각 논의를 구체적으로 발전시킬 플랫폼(토대)으로 활용할 계획이다. 
 
김경만 과기정통부 인공지능기반정책과장은 지난 7일 열린 공청회에서 "국가 인공지능 윤리라는 자체가 실제 또 다른 논의할 '준거'가 되고 플랫폼이 될 것"이라고 강조했다. 김 과장은 이어 "원리원칙 간의 상충 문제는 개별 영역에서 토론을 거쳐 좀 더 구체화한 합의점을 찾고, 향후 (AI 관련) 법이 시행되기 전 이 민간 중심의 기준으로 잘 맞춰 적응해 나갔으면 하는 바람이다"고 덧붙였다. 
 
과기정통부는 전문가와 시민 의견수렴 과정에서 제기된 바와 같이 개발자·공급자·이용자 등 주체별 체크리스트를 개발하고, 인공지능 윤리 교육 프로그램을 만드는 등 향후 윤리기준의 현장 확산을 돕기 위해 구체적인 실천방안을 마련할  계획이다. 
 
최기영 과기정통부 장관은 "폭넓은 공개 의견수렴을 거쳐 인공지능 윤리기준이 마련된 만큼, 인공지능 윤리 이슈에 대한 우리 사회의 토론과 숙의의 시작점이자 사람 중심의 인공지능으로 나아가는 플랫폼이 되도록 노력하겠다"고 전했다.
 
배한님 기자 bhn@etomato.com
 
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김기성 편집국장이 최종 확인·수정했습니다.

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

지난 뉴스레터 보기 구독하기
관련기사