[뉴스토마토 이범종 기자] 사단법인 국제인공지능윤리협회가 정부와 기업의 인공지능(AI) 윤리성·신뢰성 강화 추진 계획을 지지한다고 27일 밝혔습니다.
앞서 과학기술정보통신부는 AI의 윤리적·법적 우려에 대응하기 위해 관련 기업들과 생성형AI 분야별 가이드라인 마련과 AI 생성물 워터마크 삽입 등 기술적·제도적 기반을 만들겠다고 25일 발표했습니다.
인공지능윤리협회는 이에 성명을 내고 "최근 진일보한 생성형AI 기술이 등장하고 인공지능이 빠르게 대중화되면서 이에 따른 윤리적, 법적 문제가 증가하고 있다"며 "윤리와 제도가 뒷받침되지 않은 기술은 안전성과 신뢰성이 위협받게 된다"고 말했습니다.
협회는 "이런 상황에서 생성형AI 분야별 가이드라인 마련과 AI 생성물 워터마크 삽입, 민간 자율 AI 신뢰성 검인증, 고위험 영역 AI 개발·실증과 같은 기술적·제도적 기반 구축은 AI의 윤리성과 신뢰성을 강화하는 중요한 단계"라며 "AI 윤리에 관한 인식의 확산과 AI 윤리 관련 업무를 수행할 수 있는 전문 인력의 양성이 병행돼야 한다"고 요구했습니다.
이어 "정부 유관 부처와 대학교, 민간기관이 유기적인 전문가 양성을 위한 체계를 구축하고, 초·중·고·대학생과 공무원, 직장인, 교사, 시민 등 모든 주체를 대상으로 한 지속적인 AI 윤리 교육도 시행돼야 한다"고 주장했습니다.
협회는 안전하고 공정한 AI 기술 발전을 위해 민·산·학·연·관의 공동 노력, AI 윤리성·신뢰성 강화 추진계획과 과제의 구체적인 실천도 촉구했습니다.
전창배 국제인공지능윤리협회 이사장은 "최근 생성형AI를 악용해 사기 범죄나 정치적 명예훼손 등으로 악용하는 사례들이 늘어나고 있다"며 "생성형AI를 이용해 만든 콘텐츠를 경제적·정치적 목적으로 활용할 경우에는 사전에 AI로 만들었음을 고지하고, 워터마크를 표시하도록 하는 제도를 시급히 마련할 필요가 있다"고 말했습니다.
이범종 기자 smile@etomato.com