AISI 연구소장 "기업이 AI 안전문제 해결토록 도울 것"

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

김명주 소장, 한국인공지능산업협회(AIIA) 조찬포럼서 강연

[아이뉴스24 설재윤 기자] 최근 EU가 AI기본법을 제정하는 등 인공지능(AI) 규제 움직임을 보이고 있는 가운데, '인공지능안전연구소(AISI)'가 AI 문제의 심각성을 지적하며, 국내 기업의 도우미가 되겠다는 포부를 밝혔다.

김명주 인공지능안전연구소(AISI) 소장이 21일 오전 한국인공지능산업협회(AIIA) 조찬포럼에 참석해 'AISI의 역할과 방향'을 주자로 강연을 진행하고 있다. [사진=설재윤 기자]

김명주 AISI 소장은 21일 오전 한국인공지능산업협회(AIIA) 조찬포럼에 참석해 "연구소 소장 직책을 제안받을 때 △민주주의 위협 △윤리적 충돌 △환경 △안보 관련 분야의 문제를 해결해달라는 요구를 받았다"며 "요즘은 안보 문제가 심각한데, 화학을 전공한 사람이라면 챗GPT를 이용해서 폭발물을 만들 수 있다는 이야기도 나온다"고 지적했다.

AISI는 AI안전성을 평가, 연구하고 주요국 AI안전연구소와 협력을 전담하는 조직으로 지난 11월 27일 공식 출범했다. 지난해 정부가 'AI기본법'을 제정했는데 AI와 관련해 발생할 수 있는 위험으로부터 국민의 생명·신체·재산 등을 보호하기 위한 전문기관으로 AISI의 운영 근거를 뒀다.

김 소장은 "구글이 챗GPT(와 비슷한 AI)를 개발한 직후 한동안 공개하지 않았던 이유는 잠재적 위험에 있었다"며 "잠재적 위험을 통제할 수 있는 방법까지 안 찾았는데, 기술이 됐다고 발표하는 것은 무책임한 기업이라는 것이 그들의 입장이었다"며 AI의 위험성에 대해 설명했다.

이어 "샘 올트먼이 챗GPT가 엉켰던 사건을 해명하는 과정에서 오픈소스를 써서 시간 내에 통제하지 못했다는 이야기를 했다"며 "해커들이 오픈소스의 취약점을 연구해서 들어오기 시작했다. 해커들을 잡기 위해 현상금을 거는 '버그카운팅'을 시작했는데, 지금까지 이어져 오고 있다"며 AI의 보안 문제가 지속되고 있음을 언급했다.

그러면서 "통제할 수 없는 위험을 이유로 향후 10년간 AI가 기대하는 만큼 성장하지 못할 것이라는 말도 나왔다"며 작년 노벨경제학상을 수상한 아제모을루의 말을 인용해 설명했다.

정 소장은 "우리 연구소는 향후 △과학적 근거 기반 중심의 위험 정의 △안전 정책 마련, 제안 △국내기업과의 협력이라는 세 가지 방향으로 나아갈 것"이라며 "프론티어 AI의 기준을 명시하고, 제너럴 프로포즈 AI에 대한 가이드라인을 제시하는 등 전반적인 AI 컨트롤 타워 역할을 하겠다"고 밝혔다.

그는 "AI안전연구소의 목적은 AI 기업들이 꼭대기로 올라가도록 도와주는 것"이라며 "기업 자체가 AI의 위험성을 모르는 상태에서 끝까지 올라갔다가 곤란을 겪는 것보다 전문적인 그룹에게 도움을 받으면서 올라가는 것이 좋을 것"이라고 발표를 마무리했다.

한편, 이날 열린 포럼에는 엄태덕 모비젠 부사장도 참석해 '생성형 AI시대의 빅데이터 플랫폼 및 산업별 응용'을 주제로 발표를 진행했다.

/설재윤 기자(jyseol@inews24.com)



주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 AISI 연구소장 "기업이 AI 안전문제 해결토록 도울 것"

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.



TIMELINE



포토 F/O/C/U/S