[뉴스토마토 김보연 기자] 금융당국이 금융권 인공지능(AI)활용의 신뢰도를 높이기 위해 AI 모형을 검증하는 시스템을 마련했습니다.
금융위원회는 17일 인공지능(AI) 기반 신용평가모형 검증체계와 금융분야 AI 보안 가이드라인을 마련했다고 발표했습니다.
앞서 지난해 8월 금융위는 금융권의 AI 활용을 지원하기 위해 ‘금융분야 인공지능 활용 활성화 및 신뢰확보 방안’을 내놓은 바 있는데요, 이 방안에 대한 후속조치입니다.
우선 신용정보회사들이 개발해 활용하고 있는 AI기반 신용평가모형에 대한 검증체계를 만들었는데요, 올해 안에 AI 특성을 고려해 신용정보회사가 데이터를 적절하게 관리하는지, 신용평가모형에 사용되고 있는 알고리즘과 변수가 합리적으로 선정되어있는지 점검한다는 계획입니다.
또 신용정보회사가 개발한 신용평가모형이 통계적으로 유의한지 확인하며 신용정보회사가 금융소비자에게 신용평가모형과 신용평가 결과에 대해 충분히 설명할 수 있는지 검증할 예정입니다.
신용평가가 금융소비자의 금융거래 조건에 영향을 미치고, 금융사의 리스크 관리와 연관된 만큼 투명성과 공정성을 확보할 필요가 있다는 판단에섭니다.
이와 함께 당국은 개인정보 유출, 학습 데이터 조작 등 다양한 보안위협이 발생할 우려를 고려해 보안 가이드라인도 마련했는습니다. 가이드라인엔 AI 학습 데이터의 오염, 개인정보 유출, AI 모델에 대한 공격 등 보안 위협에 대응할 수 있도록 데이터 관리 및 처리 방법, 모델 설계 기법, 보안성 검증 방법 등이 담겨있습니다.
AI 모델을 개발할 때 고려해야 할 보안사항을 '학습 데이터 수집→학습 데이터 전(前)처리→AI 모델 설계·학습→AI 모델 검증·평가' 단계로 제시했습니다. 특히 학습 데이터 오염, 개인정보 유출, AI 모델에 대한 공격 등 구체적 보안위협에 대응할 수 있도록 구성됐다.
앞서 AI 챗봇 '이루다'. AI 헬스케어 'GPT-3', AI 성별식별 '젠더리파이', MIT의 '사이코패스AI' 등 인공지능을 활용한 서비스에서 개인정보 유출, 여성·유색인종 등 소수자 차별 등의 사고가 일어난 바 있는데요, 이에 AI모델을 개발할 때 고려해야할 보안사항을 개발 단계별로 제시하기로 한겁니다.
특히 최근 들어 가장 활발히 사용하고 있는 AI 챗봇 서비스에 대한 별도의 보안성 체크 리스트도 제공한다는 계획입니다. 보안성 확보에 필요한 사항들을 체크리스트 형태로 구체화해 현장 실무자가 쉽게 활용할 수 있도록 한다는 설명입니다.
금융위는 가이드라인은 '금융보안 레그테크 포탈'에 게시되며 새로 등장하는 보안, 위협, 대응 기법 등을 고려해 지속해서 보완해 나간다는 설명입니다.
금융분야 인공지능 활용 활성화 및 신뢰 확보 방안(2022년 8월) 추진현황 (출처=금융위원회)
금융위원회 관계자는 "개인신용평가체계 검증위원회가 올해 안에 AI신용평가모형을 개발·활용 중인 개인 사업자 CB를 검증하고, 향후 개인CB 등의 AI 신용평가 모형에 대해서도 검증을 벌일 예정"이라며 "금융분야는 고품질 데이터가 풍부해 AI 활용의 잠재력이 매우 큰 분야이므로 앞으로 금융분야 AI 활용 활성화와 신뢰 확보 방안의 다른 세부 추진 과제에 대해서도 차질없이 추진해 나가겠다"고 말했습니다.
.
금융위원회. (사진=뉴시스)
김보연 기자 boyeon@etomato.com