크게 크게 작게 작게
페이스북 트윗터
챗GPT 보안 우려에 자체 솔루션 개발 나선 삼성·LG
입력 : 2023-06-12 오전 10:18:17
[뉴스토마토 신지하 기자] 삼성전자와 LG전자가 챗GPT 등 생성형 인공지능(AI) 사내 사용 제한에 나섰습니다. 자칫 사내 민감한 영업비밀 등 주요 보안 내용들이 외부로 유출돼 기업 경쟁력 악화로 이어질 수 있다는 우려에서입니다. 대신 자체 솔루션을 마련해 임직원들이 AI 서비스를 활용할 수 있게 한다는 방침입니다.
 
삼성전자의 가전과 스마트폰 사업 등을 담당하는 디바이스경험(DX)부문은 지난달부터 사내 PC를 통한 생성형 AI 사용을 금지했습니다. 대신 DX부문은 자체 AI 도구를 개발해 번역이나 문서 요약, 소프트웨어 개발 등을 지원할 방침입니다. 다만 아직까지 구체적인 개발 시점 등은 확정되지 않았다고 합니다.
 
삼성전자의 반도체 사업을 총괄하는 디바이스솔루션(DS)부문도 지난 3월 사내 메일 본문 업로드, 내부 소스코드 전체 입력 등 일부 오남용 사례를 확인, 이후 챗GPT 사용 시 글자수 제한 등 조치를 하고 있습니다. 대신 연내 GPT-3.5 수준 이상의 자체 거대언어모델(LLM) 도입을 추진할 것으로 전해졌습니다.
 
DS부문은 오는 12월 우선 기본 서비스부터 오픈하고, 내년 2월에는 회사 지식이 포함된 전문 검색서비스를 오픈할 방침이라고 합니다. 이를 통해 구매와 경비 등 업무 프로세스 자동 응답, 공정·설계·제조 등 전문 지식 검색, 제조·공정 데이터 요약, 번역, 문서 작성, 회의록 녹취·요약, 시장·업체 분석, 코드 생성·리뷰, 고객 소리(VOC) 대응 등 총 9개 분야에서 임직원 업무를 지원할 것으로 알려졌습니다.
 
사진=연합뉴스
LG전자는 지난달 말부터 사내망을 통한 챗GPT·바드 등 생성형 AI 서비스 접속을 차단했습니다. 대신 지난 2018년부터 사내 챗봇으로 이용해 왔던 '엘지니'라는 플랫폼에서 기업용 챗GPT 서비스를 오픈, 임직원들이 이곳에서 생성형 AI 서비스를 활용할 수 있도록 했다고 합니다.
 
생성형 AI에 입력한 내용은 외부 서버에 전송·저장돼 AI 학습에 활용됩니다. 일단 한번이라도 업로드된 내용은 회수와 삭제가 불가능하다고 합니다. 삼성전자와 LG전자는 챗GPT 등 생성형 AI 활용이 자칫 사내 보안에 심각한 위협을 줄 수 있다고 판단해 이 같은 방안 마련에 나선 것으로 보입니다.
 
한국인터넷진흥원(KISA)가 최근 공개한 '챗GPT 보안 위협과 시사점' 보고서에 따르면 챗GPT는 혁신적인 기능으로 주목을 받고 있지만 그에 따른 부작용으로 인한 다양한 보안 이슈도 발발하고 있다고 합니다.
 
보고서는 "무분별한 입력으로 민감 정보의 유출 가능성이 존재한다"며 "챗GPT의 잘못된 결과물 생산은 잘못된 정보의 오용 및 확산이나 다양한 보안 문제 등을 야기할 수 있다"고 밝혔습니다. 이어 "AI 모델 고유의 보안 위협이 존재한다"며 "개발 단계부터 안전한 활용단계까지 보안 위협에 대한 대응 방안 마련이 필요하다"고 당부했습니다.
 
신지하 기자 ab@etomato.com
신지하 기자


- 경제전문 멀티미디어 뉴스통신 뉴스토마토

관련 기사