과기정통부, 초거대·생성형 AI 대응…인공지능 포럼 구성

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

AI 윤리 이슈 검토·정책방향 논의…윤리·기술·교육 3개 전문분과위원회 구성

[아이뉴스24 박소희 기자] 챗GPT 등 초거대·생성형 인공지능 확산에 대응하기 위해 과기정통부가 학계·산업계·법조계·교육계 전문가와 함께 인공지능 윤리정책 포럼을 구성하고 사회적 논의에 나선다.

과학기술정보통신부(장관 이종호)는 정보통신정책연구원(원장 권호열, KISDI)·한국정보통신기술협회(회장 최영해, TTA)와 함께 7일 서울시 서초구 소재 엘타워에서 '제2기 인공지능 윤리정책 포럼' 출범식을 개최했다. 사진은 과기정통부 현판. [사진=과기정통부]
과학기술정보통신부(장관 이종호)는 정보통신정책연구원(원장 권호열, KISDI)·한국정보통신기술협회(회장 최영해, TTA)와 함께 7일 서울시 서초구 소재 엘타워에서 '제2기 인공지능 윤리정책 포럼' 출범식을 개최했다. 사진은 과기정통부 현판. [사진=과기정통부]

과학기술정보통신부(장관 이종호)는 정보통신정책연구원(원장 권호열, KISDI)·한국정보통신기술협회(회장 최영해, TTA)와 함께 7일 서울시 서초구 소재 엘타워에서 '제2기 인공지능 윤리정책 포럼' 출범식을 개최했다.

김명주 서울여자대학교 정보보호학과 교수가 포럼위원장을 맡고, 인공지능, 철학, 교육, 법, 행정 등 분야별 전문가를 비롯해 인공지능 산업계 종사자까지 총 30명이 포럼위원으로 활동하게 된다.

포럼은 ▲인공지능 윤리체계 확산(윤리분과) ▲인공지능 신뢰성 확보 기술 기반 마련(기술분과) ▲인공지능 리터러시 및 윤리교육 강화(교육분과) 등 3개의 전문분과위원회로 구성해 운영의 효율성과 논의의 전문성을 높인다는 방침이다.

윤리분과(분과장 문정욱 KISDI 지능정보사회정책센터장)는 초거대·생성형 인공지능의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의하고 '인공지능 윤리영향평가 프레임워크' 개발에 대한 의견수렴을 진행할 계획이다.

기술분과(분과장 이강해 TTA AI디지털융합단장)는 초거대·생성형 인공지능의 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의하고 '인공지능 신뢰성 검·인증 체계' 수립에 대한 의견수렴을 진행할 예정이다.

교육분과(분과장 변순용 서울교대 윤리교육과 교수)는 초거대·생성형 인공지능의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 인공지능 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행한다.

한편 이날 과기정통부는 지난해 의견수렴을 거친 '인공지능 윤리기준 실천을 위한 자율점검표 및 '신뢰할 수 있는 인공지능 개발안내서'를 공개하고 인공지능 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관해 종합토론을 진행했다.

향후 과기정통부는 지속적인 포럼을 통해 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살피고, 윤리적이고 신뢰할 수 있는 초거대·생성형 인공지능이 개발·운영될 수 있도록 균형잡힌 시각에서 인공지능 윤리정책 방향을 제시할 예정이다. 신뢰성 검·인증 체계 구축 등 주요 관련 정책과제에 대한 의견수렴도 진행해 나간다.

엄열 과기정통부 인공지능기반정책관은 “초거대·생성형 인공지능이 산업과 우리 일상 속으로 빠르게 확산되고 있는 상황에서 무엇보다도 기술의 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행되어야 한다"며 "제2기 인공지능 윤리정책 포럼이 인공지능 생태계에 속하는 다양한 이해관계자의 의견을 수렴해 인공지능 윤리정책의 방향에 관한 사회적 합의를 마련하는데 기여하고, 인공지능 윤리와 신뢰성을 확산하여 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다"고 말했다.

/박소희 기자(cowhee@inews24.com)




주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 과기정통부, 초거대·생성형 AI 대응…인공지능 포럼 구성

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.