[뉴스토마토 김동현 기자] 올해 인공지능(AI) 챗봇 '이루다' 사태를 계기로 정부와 국내 기업이 AI윤리 기준 마련에 분주하다. 이 가운데 비즈니스용 AI '왓슨AI'를 서비스 중인 IBM은 AI 모니터링 시스템과 같은 AI 투명성을 높일 도구가 필요하다고 강조했다.
세뜨 도브린 IBM AI 전략 부문 최고데이터책임자(CDO)·부사장은 23일 열린 화상 미디어 브리핑에서 "AI 신뢰성이란 어떤 과정으로 결과를 도출했는지 설명가능한 것을 의미한다"며 "AI를 관리할 수 있는 거버넌스 역량에서 리더십을 가져가는 것이 중요하다"고 말했다.
국내에서는 올초 AI 챗봇의 혐오·차별 표현과 정보 유출 등 이른바 '이루다 사태'를 계기로 AI윤리 기준 마련에 대한 목소리가 커지고 있다. 도브린 부사장은 이에 대해 "기업이 AI 이슈를 다룰 때 모델만 볼 것이 아니라 관리 체계, 데이터 보안 등을 종합적으로 봐야 한다"며 "AI가 무엇을 하는지 모니터링할 수 있어야 한다"고 조언했다.
세뜨 도브린 IBM AI 전략 부문 최고데이터책임자(CDO)·부사장이 23일 열린 화상 미디어 브리핑에서 발표하고 있다. 사진/IBM
IBM은 이를 위해 AI 리소스를 공개하고 데이터 트래킹 역량을 키우고 있다고 설명했다. AI 리소스를 오픈소스 형태로 개발자 커뮤니티에 공유하며 AI 지원 도구(툴)를 공개했다. AI 페어니스 360 툴킷, AI 팩트시트 등 새로운 AI 버전이 나오면 과거 버전을 문서화해 추적·관리하는 도구다. 이는 향후 이용자를 비롯해 규제 당국 등이 AI·알고리즘 결과에 대한 설명을 요구할 때 그 과정을 보여주며 기업 데이터 유출을 막는 데 활용된다. 도브린 부사장은 "알고리즘을 공개할 필요는 없다"며 "중요한 것은 기업이 사용하는 모델의 알고리즘 결과가 어떻게 나왔는지 설명할 수 있어야 한다는 점"이라고 밝혔다.
과학기술정보통신부, 방송통신위원회 등 정부는 AI윤리 기준을 마련하며 방안을 마련하고 있다. 과기정통부는 상반기 중에 AI윤리 기준에 대한 자율점검이 가능한 체크리스트를 제작·보급하고, 교육 프로그램을 개발할 예정이다. 기업이 자율로 알고리즘 편향성이나 오류 등을 평가하는 체계를 마련한다는 방침이다. 방통위는 이용자 피해를 야기한 AI 서비스의 책임 소재와 권리 구제 절차 등을 마련하기 위한 법체계 정비를 추진한다.
네이버와 카카오 등 국내 IT 기업도 최근 AI 알고리즘 윤리 원칙, 교육 과정 등을 발표했다. 네이버는 서울대 AI 정책 이니셔티브와 협업해 '사람을 위한 AI 개발', '다양성의 존중' 등의 내용을 포함한 네이버 AI 윤리 준칙을 발표했다. 카카오는 다음달 2일까지 전직원을 대상으로 AI 알고리즘 윤리 사내 교육을 진행한다.
김동현 기자 esc@etomato.com