[서울파이낸스 이도경 기자] 빠르면 오는 11월부터 인공지능(AI) 서비스에서 발생할 수 있는 위험 요인 등을 민간 자율로 평가해 인증하는 체계와 함께 AI로 만든 각종 콘텐츠에 워터마크 표시를 의무화하는 제도가 시행될 전망이다.
과학기술정보통신부는 25일 서울 강서구 마곡 LG사이언스파크에서 열린 제4차 인공지능 최고위 전략대화에서 이 같은 내용을 담은 '인공지능 윤리·신뢰성 확보 추진 계획'을 발표했다.
과기정통부는 오는 11월부터 민간 자율 AI 신뢰성 검·인증 체계를 추진하겠다고 밝혔다. 이용자 보호를 위해 AI가 생성한 각종 영상물과 텍스트 등 콘텐츠 결과물에 워터마크를 표시하는 제도 도입도 11월부터 추진키로 했다.
과기정통부는 내년부터 오는 2027년까지 4년간 220억원을 투입해 AI 생성물에 대한 사실 검증, 편향적·비윤리적 표현 필터링 등이 가능한 기술을 개발할 예정이다.
또 '국가 인공지능 윤리기준'에 따른 생성형 AI와 채용 AI 기반 서비스 등 분야별 가이드라인을 마련하고, AI에 대한 윤리·사회 영향평가 체계도 마련키로 했다.
이종호 과기정통부 장관은 "올해는 AI 위험성에 대응하기 위한 글로벌 차원의 AI 규범 정립과 안전성 강화 논의를 시작한 해"라며 "AI 확산에 따라 새롭게 발생하는 윤리와 신뢰성 이슈에 대해 민관이 함께 조기 대응해 AI의 사회적 수용성을 높일 것"이라고 말했다.
저작권자 © 서울파이낸스 무단전재 및 재배포 금지