'지능정보화기본법' 개정안...제2 이루다 사태 방지와 인공지능 윤리 신뢰성 확보

자율주행과 빅데이터산업 주류로 떠오를수록 인공지능 역할 커져 적절히 제어할 법 필요

[국회=임말희 기자] 인공지능의 비윤리적인 학습과 활용을 막고 급격한 기술 발전에 따른 부작용을 방지하기 위한 ‘이루다 방지법’(지능정보화기본법 개정안)이 국회에서 발의돼 주목을 받고 있다. 

<국회 과학기술정보방송통신위원회 김상희의원>

김상희 국회부의장(과학기술정보방송통신위원회, 경기 부천병, 사진)은 17일 ‘지능정보사회윤리준칙’을 마련해 지능정보기술 개발 및 공급자, 이용자 모두가 준수하게 하는 ‘이루다 방지법’(지능정보화기본법 개정안)을 대표발의 했다. 

개정안은 과학기술정보통신부가 ‘지능정보사회윤리준칙’을 제정하고 인공지능의 윤리적 검증에 필요한 인권 보장, 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안전성 등의 내용을 담아 보급 및 확산시키는 것이다. 

개정안 통과 시 성장단계에 있는 인공지능 기술 발전 장려와 기존 법령이나 규칙이 없던 부분을 보완해 비윤리적인 인공지능으로 인한 사회적 부작용을 예방할 것으로 기대된다.

올 초 20대 여대생을 모방한 인공지능 챗봇 ‘이루다’는 무분별한 데이터 학습으로 여성과 소수자에 대한 차별·혐오적 메시지 출력과 개인정보 활용 문제로 인해 서비스를 중단했다.

특히, 자율주행과 빅데이터가 산업 주류로 떠오를수록 인공지능 역할이 커져 이를 적절히 제어하기 위한 구체적이고 합리적인 인공지능 개발의 가이드라인이 필요한 상황이다. 

앞서, 과기부가 지난 2020년 12월 ‘인간성을 위한 인공지능’이라는 원칙하에 ‘인공지능 윤리기준’ 발표했다. 

하지만 이는 법령이나 규칙이 아닌 도덕적 규범에 불과, 실제 적용 시 추상적, 선언적이라 구체적 실효적인 가이드가 필요하다는 지적이 제기됐다.

김상희 부의장은 “최근 문제가 됐던 이루다 이용자 85%가 10대인 것으로 나타나 편향적인 인공지능이 아동·청소년에게 혐오와 차별 등 악영향을 끼칠 수 있다”고 말했다. 

아울러 “아동·청소년을 대상으로 하는 인공지능 교육 프로그램이 많이 개발되고 있어 이와 같은 사건이 또 발생할 가능성이 있다”고 지적했다.

김 부의장은 “해외의 경우 인공지능이 차별·혐오적 표현이나 비윤리적인 상황 연출 시, 즉각적인 서비스 중단을 하고 있다”며 하루빨리 개정안 통과로 제2 이루다 사태 방지와 인공지능 윤리 신뢰성 확보를 기대했다.

저작권자 © 대한일보 무단전재 및 재배포 금지