[뉴스토마토 이지은 기자] 인공지능(AI) 안전연구소가 출범했습니다. AI의 기술적 한계, 인간의 AI기술 오용, AI 통제력 상실 등으로 발생하는 AI 위험으로부터 대응책을 마련할 방침입니다. AI 3대 강국(G3)을 목표로 내걸은 정부는, 산·학·연 역량을 결집해 AI 산업 혁신을 촉진할 안전기반을 구축한다는 목표입니다.
과학기술정보통신부는 27일 판교 글로벌 연구개발(R&D)센터에서 AI안전연구소(AISI) 개소식을 개최했습니다. AI안전연구소는 지난 5월 열린 AI서울정상회의에서 10개국 정상이 안전한 AI에 대한 글로벌 협력을 강조한 이후 후속 조치로서 진행됐습니다.
판교 글로벌 연구개발(R&D)센터에서 AI안전연구소(AISI) 개소식이 진행됐다. (사진=뉴스토마토)
류광준 과기정통부 과기혁신본부장은 이날 축사를 통해 "AI 안전은 지속가능한 AI 발전의 전제로 AI 분야에 종사하는 우리 모두가 해결해 나가야할 가장 큰 도전 과제"라며 "AI안전연구소를 중심으로 산·학·연 연구역량을 결집해 AI 안전의 기술·정책적 역량을 조속히 확보해 나가자"고 말했습니다.
AI안전연구소는 '안전한 AI로 만드는 지속가능한 미래'를 비전으로 제시했습니다. AI 안전에 대한 과학적 이해 증진, AI 안전 정책 고도화와 안전제도 확립, 국내 AI기업의 안전 확보 지원을 추진합니다. 김명주 AI안전연구소 초대 소장은 "히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 될 것"이라며 "AI 안전에서 전문성을 갖춘 AI기업의 헬퍼 역할을 하겠다"고 말했습니다. 연구소는 김명주 소장 아래 AI안전정책 및 대외협력실, AI안전평가실, AI안전연구실 등 3실로 구성됩니다. AI안전 정책 연구, 각국 AI안전연구소와 협력하는 한편, AI위험 정의, AI안전 프레임워크 개발, AI안전 평가인프라 구축 등에 나섭니다.
AI안전컨소시엄 협약체결을 기념해 참가자들이 기념사진을 찍고 있다. (사진=뉴스토마토)
한국정보통신기술협회(TTA) AI신뢰성센터, 한국지능정보사회진흥원(NIA) AI정책본부 등 연구계와 서울대·카이스트·고려대 등 학계,
NAVER(035420)(네이버),
KT(030200),
카카오(035720), LG AI연구원,
SK텔레콤(017670), 포티투마루, 트웰브랩스 등 24곳과 AI안전컨소시엄도 구성했습니다. AI안전연구소와 컨소시엄 참여기관은 AI안전 프레임워크 연구개발·실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 중점적으로 추진합니다.
영국, 미국, 일본, 캐나다 등과 국제 AI안전연구소 네트워크 구축도 강화합니다. 글로벌 안전연대를 주도한다는 계획인데요. 엘리자베스 켈리(Elizabeth Kelly) 미국 AI안전연구소 소장은 "한-미 AI안전연구소가 전세계 동료들과 함께 AI 위험을 줄이고 혜택을 극대화하며, 혁신을 촉진하기 위해 공통된 과학적 기준을 구축해 나가자"고 전했습니다. 올리버 일롯(Oliver Illot) 영국 AI안전연구소 소장은 "대한민국 AI안전연구소 출범을 축하하며, AI기술을 안전하게 만들어 가기 위해 국경을 넘어선 협력을 확대해 나가자"고 말했습니다.
유상임 과기정통부 장관은 "글로벌 AI 안전 연대의 주도적인 역할을 수행해 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다"고 강조했습니다.
이지은 기자 jieunee@etomato.com
이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 김나볏 테크지식산업부장이 최종 확인·수정했습니다.
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지