네이버 사옥 전경 (사진합성=뉴시안)
네이버 사옥 전경 (사진합성=뉴시안)

[뉴시안= 조현선 기자]카카오에 이어 네이버도 인공지능(AI) 윤리 준칙을 마련했다. 학계와의 오랜 기간 논의를 통해 내놓은 사안이다. 

네이버는 17일 '인공지능 윤리: 원칙을 넘어 실천으로-현장에서 논하는 AI 윤리' 웨비나(웹+세미나)를 개최하고, '네이버 AI 윤리 준칙'의 배경과 내용, 실천 방안 등을 발표했다.

네이버는 지난 2018년부터 3년여간 서울대 인공지능 정책 이니셔티브(SAPI:SNU AI Policy Initiative)와 협업해 해당 준칙을 만들었다. 네이버의 모든 구성원은 AI를 개발하고 이용하는 데 있어 이같은 내용을 준수해야 한다.

SAPI는 법학·공학·경제학 등 여러 학문의 협력을 통해 AI 관련 융합 연구를 진행하는 서울대 산하의 프로그램이다.

네이버는 "학계와의 협업을 통해 인공지능의 사회적 요구에 대한 전문가들의 객관적 의견을 수렴하고, 네이버가 인공지능을 바라보는 관점과 기업 철학을 고려해 'AI 윤리 준칙'을 설계했다"고 설명했다.

이 원칙에 따르면 ▲사람을 위한 AI 개발 ▲다양성의 존중 ▲합리적인 설명과 편리성의 조화 ▲안전을 고려한 서비스 설계 ▲프라이버시 보호와 정보 보안 등 조항 5개가 담겼다. 

네이버는 앞으로 AI 윤리 준칙의 실천, 사례 발굴 및 개선에서도 학계와 지속적으로 협력한다는 방침이다.

해당 준칙이 구호에 그치지 않도록 단계적인 실험을 통한 실천 방안도 제시했다. 먼저 유연한 사내 커뮤니케이션 채널을 만들어 프로젝트 진행이나 서비스 개발 등 사안을 중심으로 문의하고 논의할 수 있도록 할 예정이다.

SAPI와 협력해 사례 중심의 이슈 페이퍼 및 커뮤니케이션 채널의 운영 경과를 담은 프로그레스 리포트도 발간하기로 했다. 시간과 자원이 부족한 스타트업도 AI 이슈에 대해 미리 고민할 수 있게 될 것으로 기대된다.

네이버 아젠다 리서치의 송대섭 책임 리더는 "AI 윤리 준칙을 수립해 발표하는 것은 이 프로젝트의 시작 단계일 뿐"이라며 "앞으로도 학계와 계속 협업하고, 현장에서의 적용 사례를 축적하며, 지속적으로 실천 가능한 방향으로 준칙을 더욱 구체화하고 개선해나갈 것"이라고 말했다.

한편 카카오는 지난 2018년 국내 기업으로는 최초로 AI 기술 개발 및 윤리에 관한 규범을 담은 '카카오 알고리즘 윤리 헌장'을 발표했다. 2019년에는 '기술의 포용성', 지난해 7월에는 '아동과 청소년에 대한 보호' 조항이 추가 삽입됐다.

지난 1월에는 구성원과 비즈니스 파트너의 인권 보호 및 이용자의 정보보호와 표현의 자유를 보장할 의무, 디지털 책임 등을 담은 ‘인권경영선언문’을 공개했다.

같은 달 13일에는 1년여간 고민해 도출한 증오발언 4가지 원칙과 연구 결과 등이 담긴 '카카오 증오발언 대응 정책 녹서'를 발표한 바 있다. 그뿐만 아니라 이를 카카오 서비스 운영 정책에 반영하고, 전 직원을 대상으로 AI 알고리즘 윤리 교육 등을 실시하고 있다.

 

아래는 네이버 AI 윤리 준칙 전문이다.

1. 사람을 위한 AI 개발
네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구입니다. 네이버는 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 삼겠습니다.
네이버는 사용자의 일상에 편리함을 더하기 위해 기술을 개발해왔고, AI 역시 일상의 도구로 활용될 수 있도록 발전시켜 나가고 있습니다. 네이버는 AI가 우리의 삶을 편리하게 만들어줄 수 있는 기술이지만, 세상의 다른 모든 것처럼 완벽할 수 없다는 점을 인식하고 있습니다. 네이버는 AI가 사람을 위한 일상의 도구가 될 수 있도록, 지속적으로 살펴보며 개선해 나가겠습니다.

2. 다양성의 존중
네이버는 다양성의 가치를 고려하여 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용하겠습니다.
네이버는 다양성을 통해 연결이 더 큰 의미를 가질 수 있도록 기술과 서비스를 구현해 왔습니다. 그 과정에서 사용자에게 다채로운 기회와 가능성을 열어왔고, 합리적 기준 없는 부당한 차별이 발생하지 않도록 노력해 왔습니다. 네이버는 AI 서비스에서도 부당한 차별을 방지하고 다양한 가치가 공존하는 경험과 기회를 제공해 나가겠습니다.

3. 합리적인 설명과 편리성의 조화
네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다하겠습니다. 네이버는 AI에 관한 합리적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하여 노력하겠습니다.
네이버의 AI는 기술을 위한 기술이 아니며, 기술적 지식이 없이도 누구나 손쉽게 활용할 수 있는 도구가 될 것입니다. 네이버는 서비스의 편리함을 추구하면서, 사용자의 요구가 있거나 필요한 경우에는 AI 서비스에 대해 쉽게 이해할 수 있도록 사용자의 눈높이에 맞춰 설명하겠습니다.

4. 안전을 고려한 서비스 설계
네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계하겠습니다.
사람을 위한 일상의 도구인 AI가 사람의 생명과 신체를 위협하는 상황이 발생하지 않도록, 네이버는 전 과정에서 안전을 고려해 서비스를 설계하고, 테스트를 거치며, 배포 이후에도 안전성에 대해 지속적으로 살펴보겠습니다.

5. 프라이버시 보호와 정보 보안
네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력하겠습니다. 또한 개발 단계를 포함해 AI 서비스의 전 과정에서 정보 보안을 고려한 설계를 적용하겠습니다.
네이버는 개인정보 활용에 있어 법적 책임과 의무를 다하는 것을 넘어 개인의 프라이버시도 적극적으로 보호하고 있습니다. 또한 사용자가 서비스를 활용하면서 정보 보안을 우려하게 되는 상황을 원천적으로 차단할 수 있도록, 서비스 전 과정에서 정보 보안을 고려한 설계를 적용하고 있습니다. AI 서비스에 있어서도 마찬가지로, 사용자가 프라이버시와 정보 보안을 걱정하지 않고 AI 서비스를 자유롭게 활용해 삶에 편리함을 더할 수 있도록 노력하겠습니다.

저작권자 © 뉴시안 무단전재 및 재배포 금지