[뉴스토마토 김동현 기자] 정부가 '신뢰받는 인공지능(AI) 환경' 구현을 목표로 기술개발, 인증 등을 지원하는 시스템을 마련한다. AI 챗봇 '이루다'를 계기로 사회 전반에 퍼진 AI 서비스에 대한 불신을 해소하고, AI 서비스가 사회에 미칠 영향도 평가할 계획이다.
과학기술정보통신부는 13일 열린 4차산업혁명위원회 22차 전체회의에서 '신뢰할 수 있는 AI 실현전략'을 발표했다. AI가 전 산업·사회로 급속도로 확산하는 가운데 해외에서는 딥페이크, AI 편향성 등이 문제가 된 바 있다. 국내에서도 이루다 사태로 AI의 신뢰성 확보가 시급한 과제로 떠올랐다. 이를 위해 정부는 민간이 자율적으로 AI 신뢰성을 확보할 수 있게 2025년까지 지원 시스템을 단계적으로 구축한다는 방침이다.
신뢰할 수 있는 인공지능 실현전략의 비전·목표·추진전략. 사진/과기정통부
먼저 민간 기업·개발자가 개발 과정에서 참고할 가이드북을 보급한다. 개발 단계에서 AI 신뢰성과 관련한 법·제도·윤리사항을 담았고, 이후 이를 검증할 수 있는 절차·방법 등 체계를 마련한다. 아울러 민간 자율의 AI 제품·서비스 인증·공시 제도를 추진할 계획이다. 앞서 전날 개인정보보호위원회도 이달 중으로 'AI 개인정보보호 자율점검표' 배포 계획을 밝힌 바 있다. 데이터 수집·개발이 개인정보 이슈와 기술적 이슈가 혼용되는 만큼 두 지침이 통합적으로 활용될 전망이다.
중소기업의 AI 개발을 지원할 온라인 플랫폼도 구축·운영될 예정이다. 이 플랫폼에서 데이터 확보를 비롯해 알고리즘 학습·구현, 검증 등 고성능 컴퓨팅 자원이 '원스톱'으로 제공된다. 이와 함께 기존 시스템에 '설명가능성' 기능을 추가하고, AI가 스스로 편향성을 진단·제거하는 기술도 개발한다. 김경만 과기정통부 인공지능기반정책과 과장은 "기업에서 무엇을 봐야 안전하고 신뢰할 수 있는 기술을 개발할 수 있을지에 대한 요구가 있었다"며 "시장에서 미리 대비할 수 있게 민간 인증, 원스톱 서비스 등 지원할 것"이라고 말했다.
고위험 AI 서비스의 운용·이용단계에 따른 주체별 의무·권리(안). 사진/4차위
중장기 계획으로는 '고위험 AI'에 대한 신뢰성 확보와 'AI 영향평가' 등이 포함됐다. 국민 안전이나 기본권 등을 침해할 수 있는 우려를 내포한 고위험 AI의 범주를 설정하고, 서비스 제공 전에 이용자가 활용 여부를 선택하거나 결과 설명을 요구할 수 있게 한다는 방침이다. AI 영향평가도 도입해 AI가 사회·경제·문화 등 생활에 미치는 영향을 종합적으로 분석해 향후 관련 정책이나 기술·관리적 방안을 수립할 때 활용할 계획이다. 김 과장은 "고위험 AI라고 표현하지만 현재 이러한 기술에 대해 어떻게 정의할지 논의가 필요하다"며 "지난해 법제정비단을 꾸려 AI 영향평가 등을 포함해 대표과제로 준비 중"이라고 설명했다.
이외에도 AI 윤리교육 강화, 주체별 체크리스트 마련, 윤리 정책 플랫폼 운영 등의 내용이 이번 전략에 포함됐다. 최기영 과기정통부 장관은 "기업·연구자 등이 AI 제품·서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민이 피해를 보지 않도록 AI 신뢰 확보 기준을 명확화할 것"이라며 "중소기업 등이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련하는 등 사람이 중심이 되는 AI 강국 실현을 위해 이번 전략을 차질 없이 추진할 계획"이라고 밝혔다. 윤성로 4차위 위원장은 최근 AI 윤리에 대한 관심도가 올라간 점을 강조하며 "AI 대중화를 위해 신뢰할 수 있는 AI 실현전략에 따른 실행이 중요하다"고 말했다.
13일 열린 4차산업혁명위원회 22차 전체회의. 사진/4차위
김동현 기자 esc@etomato.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김기성 편집국장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지