카카오 판교 아지트. 연합뉴스 카카오는 국가인권위원회와 법무부가 공동 개최한 '기업과 인권 국제포럼'에서 안전하고 책임 있는 AI 실현을 위한 노력을 소개했다고 9일 밝혔다.
하진화 카카오 AI 세이프티 시니어 매니저가 포럼의 세 번째 세션인 '규제와 자발적 조치를 활용한 스마트믹스 모범 사례'에서 'AI 기술과 인권 존중'을 주제로 AI 윤리 원칙 및 AI 리스크 관리 체계 수립 관련 사례를 공유했다.
카카오는 국내 기업 최초로 '그룹 기술 윤리 위원회'를 지난 2022년 출범했으며, 계열사와 함께 기술 윤리 점검과 서비스의 AI 윤리 규정 준수 여부, 위험성 점검, 알고리즘 투명성 강화 등을 위한 업무를 수행 중이다. 위원회의 주요 활동을 담은 '그룹 기술 윤리 보고서'는 매년 발행하고 있다.
또 그룹의 책임 있는 AI를 위한 가이드라인 제정, 생애주기별 자가점검 도구 개발, 안전한 AI를 위한 핵심 체크리스트 수립 등 기술 윤리와 AI 안전성 확보를 위한 노력을 다각도로 이어가고 있다. 최근에는 AI 서비스의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 '카나나 세이프가드'를 개발하고 오픈소스로 공개했다.
이 외에도 유엔 인권최고대표사무소(OHCHR), 유니세프(UNICEF) 등 UN 기관들과 협력을 강화하고 있다.
이상호 카카오 그룹 기술윤리 소위원장은 "AI 서비스의 빠르고 혁신적인 성장은 인권과 프라이버시 등 사회 속 민감한 영역과 맞닿아 있으며, 이런 측면에서 기업 차원의 책임 의식 확산과 내재화를 위해 최선을 다할 것"이라고 말했다.