윤리 기준 빠진 ‘AI 기본법’ 제자리
“섣부른 제재, AI 산업에 독” 시각도
“청소년 대상 AI 활용 윤리 교육을”
24일 과학기술정보통신부 등에 따르면 개발자·사용자·AI 챗봇에 대한 법적 규제는 사실상 없다. 과기부가 추진하는 ‘AI 산업 육성 및 신뢰 기반 조성에 관한 법률안’(AI 기본법)은 지난해 2월 과학기술정보 방송통신위원회 법안소위를 통과했지만 본회의는 통과하지 못한 채 폐기될 상황이다.
게다가 이 법에는 AI가 초래하는 윤리적 문제나 기준은 포함돼 있지 않다. 법무법인 명륜의 양희철 변호사는 “AI 관련 법 7개가 합쳐진 법안인 데다 기술 개발 과정에서의 윤리적 문제를 지적하고 기준을 제시하는 게 아니라 산업 육성과 관련한 부분만 주로 담겨 있다”고 설명했다.
우리나라와 달리 다른 국가들은 속속 AI 규제를 마련하고 있다. 유럽연합(EU)의 입법기구인 유럽의회는 지난 13일 AI 기술개발과 응용 전반을 규제하는 법안을 통과시켰다. 얼굴 이미지 대량 수집이나 데이터베이스(DB) 구축을 금지하고 사람과 유사하거나 그 이상 지능을 갖춘 범용 AI 개발사는 AI가 다루는 데이터 등을 당국에 보고해야 한다는 게 골자다.
한국인터넷자율정책기구는 지난해 8월 이루다 서비스를 내놓은 스캐터랩, 네이버, 카카오 등 5곳과 함께 업계와 사용자, AI 챗봇에 요구되는 준수사항을 적은 가이드라인을 공개했다. 대화 상대가 챗봇임을 명시하고 장애인이나 여성 등 소수자 차별에도 주의를 기울여야 한다는 게 대표적 내용이다. 하지만 자율에 맡기는 지침일 뿐이라 실제 발생하는 윤리적 문제를 해결하기는 어렵다는 지적이 나온다. 가이드라인을 만드는 데 참여한 이재신 중앙대 미디어커뮤니케이션학부 교수는 “원하는 답변을 내놓게 챗봇을 학습시키는 기술이 있다면 개발자가 막아 놓은 방화벽을 뚫을 방법을 찾아낼 수도 있다”며 “AI 악용 문제가 해결되지 않는다면 법에 따른 제재를 고려해야 한다”고 말했다.
AI 성 상품화에 노출되기 쉬운 청소년에 대해서는 법적 제재와는 별개로 활용에 대한 교육이 필요하다는 주장도 많다. 박주형 경인교대 교육학과 교수는 “AI 활용 역량을 길러 유해 콘텐츠에 접근하는 청소년들이 늘어나는 만큼 윤리 교육이 필수적으로 이뤄져야 한다”고 강조했다.
다만 AI 챗봇의 윤리적 문제를 형사처벌이나 행정처분 등 처벌이나 규제에만 기대서는 안 된다는 반박도 있다. 이성엽 고려대 기술경영전문대학원 교수는 “현재의 개인정보 보호법이나 정보통신망법에 따라 불법 콘텐츠로 분류할 수 있다면 현행법으로도 충분히 규제할 수 있다”고 지적했다. 양 변호사는 “법을 강화해 음지로 숨어들게 만든다면 더 곤란하다”고 말했다.
2024-03-25 2면