[아이뉴스24 박진영 기자] 인공지능(AI)이 우리 생활 곳곳에서 활용되면서 AI윤리 이슈가 지속적으로 떠오르고 있다. 정부 관계부처는 사람이 중심이 되는 'AI 윤리기준'을 내놓았으며, 네이버, 카카오 등 주요 IT기업들을 중심으로 AI윤리 가이드라인을 마련하고 있는 상황.
AI가 각 분야에서 다방면으로 활용되고 있는 만큼, 분야별 특성에 맞는 AI윤리 정립의 필요성이 높아지고 있다. 최근에는 국내 교육분야에서 AI윤리원칙이 발표됐다.
지난달 교육부는 AI가 교육현장에도 영향을 미치고 있는 상황을 고려해 AI교육 정책 방향과 교육분야 인공지능 윤리원칙(시안)을 발표했다.
시안은 '사람의 성장을 지원'을 대원칙으로 하고, ▲학습자의 주도성 강화 ▲교수자의 전문성 존중 ▲기술의 합목적성 제고 등을 3대 기본원칙으로 제시한다.
세부적으로 인간 성장의 잠재 가능성을 이끌고 모든 학습자의 주도성과 다양성을 보장하며, 교육 당사자간 관계를 공고히 유지한다는 내용이 담겼다. 또 교육 기회균등 실현, 사회 공공성 증진, 교육 당사자의 안전 보장, 데이터 처리의 투명성 보장, 데이터의 합목적적 활용과 프라이버시 보호 등이 포함됐다.
교육부는 의견수렴과 현장 소통 등 검토·보완 과정을 거쳐 연내에 최종안을 마련할 예정이다.
이와 함께 교원의 인공지능 관련 교육역량과 교육활동 지원 방안을 마련하는 한편, 초·중등교육부터 고등·평생·직업교육까지 아우르는 디지털 전문 인재 양성 종합 방안을 세우는 등 디지털 교육 환경 마련에 나선다.
◆"범용성 높은 AI, 상황별 구체적 윤리원칙 미흡"
이 가운데 전세계적으로 AI윤리적 중요성에 대해 인식하고 있는 만큼 국가적 차원의 큰 틀은 마련됐으나, 다양한 상황에 대한 구체적이고 지속적인 논의가 이뤄져야 한다는 의견이 나온다.
최근 한국과학기술정보연구원(KISTI)의 이슈브리프에 따르면, 앞으로 과학기술뿐만 아니라 운송, 의료, 금융, 교육, 법률, 보안, 마케팅 등 광범위한 분야에서 AI가 활용될 것인데, AI로 인해 발생할 수 있는 사고에 대한 책임 소재나 보상 등이 여전히 불분명하다고 지적했다.
즉, '사람이 중심이 되는 AI 윤리기준'이란 선언적인 측면에서 더 나아가, AI 시대의 다양한 상황에서 어떻게 AI가 사람 중심으로 의사결정을 할 것인지 등에 대해 구체적인 논의가 필요하다는 설명이다.
일례로 자율주행차가 활성화됐을 때, 직접 자동차를 운전하는 것 자체가 불법이 될 수도 있다. 또 탑승자 및 자체 차량, 보행자, 생존 확률, 전체적인 피해 규모 등에 대해 AI의 의사결정이 어떤 측면을 우선적으로 고려해야 하는지 사회적 합의가 필요하다.
특히, 의료 등 인간의 생명과 직결되는 분야는 다양하고 복잡한 이슈가 나타날 수 있어 보다 명확한 세부원칙이 필요하다.
AI의사의 경우, 왓슨, 닥터앤서 등이 현재 진단이나 치료방법을 보조하는 역할에 한정되어 있지만, 의료AI가 발전함에 따라 AI의사의 역할과 범위, 사고 발생 시 책임 문제 등에 대한 선제적 논의가 필요하다고 지적했다.
이와 함께 보고서는 AI윤리는 AI 자체가 아닌 AI 개발자나 설계자, 즉 인간의 윤리임을 강조했다.
AI의 핵심은 데이터를 기반으로 학습하고 일정한 패턴을 찾아 예측하는 '머신러닝'인데, 사람들은 이러한 학습 알고리즘을 AI가 자율성을 가진 것으로 과대평가하는 경향이 있다고 부연했다. 예를 들어, 자율살상무기의 경우에도 AI 자체가 아니라 살상 대상을 결정하고 그 무기를 개발해 사용하는 인간이 비난받아야 할 것이라고 설명했다.
한 업계 관계자는 "AI 학습 알고리즘을 '블랙박스' 구조라 비유하듯, 어떤 면에서 AI자체는 불완전성이 높은 편이다. AI기술을 기획·설계하는 사람들은 이를 숙지하고 편향성이나 차별성 논란을 해소하기 위해 노력해야 한다"면서, "대부분의 기술 기업들은 AI의 한계를 인지하고 있으며, AI 생태계 조성을 위해 신뢰성 확보의 중요성을 잘 알고 있다. 정부의 AI윤리 원칙은 물론, 국내외기업 사례 등을 참고해 자체적으로 AI윤리원칙을 만들려는 기업들이 많아지고 있다"고 밝혔다.
/박진영 기자(sunlight@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기