"정보 유출 막아라"…삼성전자, 챗GPT 사용 금지령

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

최근 내부 소스코드 유출 사고 발생…임직원 설문서도 65% "챗GPT 보안 우려"

[아이뉴스24 서민지 기자] 생성형 인공지능(AI)의 활용 범위가 확대되는 가운데 삼성전자가 정보 유출 등을 막기 위해 직원들의 챗GPT 사용을 금지하기로 했다.

2일 삼성전자에 따르면 모바일과 가전 등을 담당하는 DX부문은 최근 임직원에게 사내 네트워크나 회사 소유 단말기를 통한 챗GPT 등 생성형 AI 사용을 제한한다고 공지했다.

챗GPT 등에 입력된 데이터는 외부 서버에 전송되기 때문에 관리가 어렵고, 노출 위험성이 있다는 우려에 따른 조치로 풀이된다.

최근 챗GPT를 각종 업무에 사용하는 사례가 늘어남에 따라 내부 정보가 유출되는 사고가 벌어지면서 기업들의 고민이 커지고 있는 상황이다.

삼성 서초사옥 [사진=아이뉴스24 포토DB]
삼성 서초사옥 [사진=아이뉴스24 포토DB]

실제 삼성전자도 지난 3월 DS(반도체) 부문에 챗GPT 사용을 허용한 후 얼마 되지 않아 정보 유출 사태를 겪었다. 삼성전자 엔지니어는 실수로 내부 소스코드를 챗GPT에 업로드해 해당 코드가 외부에 유출된 것으로 전해졌다.

삼성전자는 지난달 DX부문 임직원을 대상으로 챗GPT 사용과 관련한 설문조사를 진행하기도 했다. 조사 결과 임직원 65%가 챗GPT에 대한 보안 우려를 표한 것으로 알려졌다.

삼성전자는 내부 안내를 통해 "챗GPT 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 커지고 있다"며 "회사는 직원의 생산성과 효율성을 향상시키기 위해 생성형 AI를 안전하게 사용할 수 있는 방안을 마련 중"이라고 밝혔다.

삼성전자 관계자는 "챗GPT가 업무에 도움이 되는 부분도 있지만, 오남용되는 경우 내부 정보가 유출되는 등의 우려가 있다"며 "이 때문에 사내 보안 정책이 마련되기 전까지 사용을 금지하기로 했다"고 설명했다.

/서민지 기자(jisseo@inews24.com)




주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 "정보 유출 막아라"…삼성전자, 챗GPT 사용 금지령

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.