[편집자주] 다가오는 2022년, 대한민국을 바꿔놓을 주요 ICT 이슈에 대해 국내 석학들에게 직접 듣는 <2022 ICT 이슈 인터뷰>를 진행합니다.
[투데이e코노믹 = 이지혜 기자] 코로나19가 가속화한 디지털화로 전 산업계에 인공지능(AI) 도입이 확산하고 있다. 다만 AI의 불공정성‧편향성 등 예상치 못한 부작용이 발생, ‘AI 윤리’의 필요성이 높아지고 있는 상황이다.
올해 연초 발생한 ‘이루다 사태’는 AI 윤리의 필요성을 부각시켰다. 개발사 스캐터랩이 카카오톡 대화 데이터를 활용해 서비스를 만드는 과정에서 이용자들에게 개인정보 이용‧활용 동의를 제대로 받지 않았으며, 이용자의 개인정보를 제대로 여과하지 않았다는 지적이 쏟아졌다.
또 이용자의 대화를 학습한 ‘이루다’가 여성‧장애인 등에 대해 혐오‧차별 발언을 쏟아내고 선정적이거나 공격적인 표현을 사용하면서, 알고리즘의 학습용 데이터가 편향되지 않아야 한다는 목소리도 나왔다.
국내 뿐만 아니라 해외에서도 AI가 인종차별을 하거나, 딥페이크 기술에 악용되는 문제가 발생했다. 이에 세계적으로 AI 윤리를 위한 법안과 가이드라인이 만들어지고 있다. EU는 올해 4월 세계 최초로 ‘AI 법안(Artificial Intelligence Act)’를 발표했다. 유네스코 193개 회원국은 지난 11월 만장일치로 ‘AI 윤리 권고’를 채택했다.
우리나라 정부는 올해 5월 관계부처 합동으로 ‘신뢰할 수 있는 인공지능 실현 전략안’을 발표, 건전하고 안전한 AI를 위한 제도 보완 및 윤리의식 확산을 강조했다.
2022년에도 책임있는 AI, 설명가능한 AI에 대한 요구는 계속될 전망이다. SW정책연구소는 ‘2022 SW 산업 10대 이슈’ 중 1위를 ‘책임있는 인공지능’으로 꼽았다.
이 가운데, 29일 본지는 AI의 편향성은 왜 발생하는지, 이러한 문제를 극복하기 위한 노력에는 어떤 것들이 있는지에 대해 전창배 한국인공지능윤리협회 이사장에게 물었다.
전 이사장은 AI의 윤리적 문제는 학습과 판단의 기초가 되는 데이터가 완전하지 않기 때문이라고 설명했다. 더불어 AI를 개발하는 인간의 편견이 개발과정에서 학습될 수 있음을 지적했다.
그는 오는 2022년에는 올해 정립된 AI 윤리 가이드라인들에 대한 각각의 구체적인 세부 실천 방안을 마련해야 하며, 정부‧기업‧시민들도 AI 개발 및 활용에 AI 윤리를 적용해야 한다고 말했다.
[이하는 인터뷰 전문이다]
Q. 2021년에는 연초 ‘이루다 사건’을 비롯, ‘설명 가능한 AI’에 대한 요구가 높아졌다. 어떤 사건들이 있었는지 되짚어 본다면.
역시 올해 우리나라에서 있었던 가장 큰 AI 윤리 이슈는 바로 ‘이루다 사건’이었다.
이외에는 딥페이크 기술을 성범죄에 악용한 사례들이 지속적으로 발생했었다. 경찰청에서는 딥페이크 성범죄 피의자들을 대상으로 조사한 결과 10대‧20대 청소년들이 90% 이상을 차지했다는 충격적인 조사 결과를 지난 5월 발표하기도 했다. 우리 청소년들이 딥페이크 범죄에 취약하다는 방증이고, 어렸을 때부터 ‘AI 윤리 교육’이 왜 중요한지를 다시금 인식해야 하겠다.
Q. AI의 불공정성, 그리고 편향성은 왜 발생하는가.
AI의 불공정성이나 편향성은 결국 AI의 학습과 판단의 기반이 되는 데이터가 완전하지 않기 때문이다. 데이터 자체가 불공정하고 편향되어 있으며, 신뢰할 수 없다면 당연히 그런 데이터를 기반으로 학습하고 판단하는 AI는 편향되고 잘못된 결과를 내놓을 수밖에 없다.
또한 AI를 개발하는 인간의 편견이 개발과정에서 AI에게 학습될 수 있다. 따라서 AI의 학습과 판단의 기반이 되는 데이터의 선별과 가공‧정제‧활용에 매우 신중을 기해야 한다. 또한 현재 기술 수준에서는 인간이 이러한 데이터를 선별‧가공‧정제‧활용할 때 수많은 반복 시뮬레이션과 테스트 과정을 거치고, 최종 출시 전 외부의 검‧인증을 통해 철저한 품질 검사를 수행하는 것이 중요하다.
Q. AI의 편향성을 극복하기 위한 노력에는 어떤 것들이 있었는가. 또 한국인공지능윤리협회는 올해 어떤 활동을 해왔는가.
정부와 기업들이 현재 기술적으로 이러한 데이터의 편향성을 해결하기 위해 노력을 기울이고 있다. 특히 과학기술정보통신부와 한국지능정보사회진흥원이 주축이 되어 공공 데이터 허브를 구축하고, 공공기관과 기업들이 활용할 수 있는 데이터의 편향이 제거된 정제된 데이터 모델 및 프레임워크를 개발 완료했거나 하고 있는 것으로 알고 있다.
한국인공지능윤리협회에서는 특히 교육과 전파활동들을 중심으로 AI 윤리문제를 어떻게 인간이 해결해 나갈 수 있을지에 대한 방안과 대안들을 제시하기 위해 노력해 왔다. 지금까지 국내에서 AI 윤리 교육에 관한 한 가장 많은 60여 건 이상의 초‧중‧고등학교, 대학교, 대학원, 공공기관, 기업, 시민들을 대상으로 한 교육들을 진행했다. 더불어 매년 9월 중 ‘인공지능 윤리대전’과 같은 콘퍼런스를 진행하면서 AI 윤리에 관한 인식과 저변을 확대하기 노력해왔다.
Q. 일각에서는 설명가능한 AI를 위해 알고리즘을 공개해야 한다는 주장이 있다. 반면 기업들은 이 같은 요구가 과도한 규제라며 반발하기도 한다.
기업들에게 AI 알고리즘을 100%다 공개해야 한다고 하는 건 어렵다. 왜냐하면 알고리즘은 기업이 많은 시간과 인력과 기술을 투입하여 개발해낸 기업 고유의 자산이자 지적재산권이기 때문이다.
다만 글로벌 기업 구글의 예처럼 기업이 자발적으로, 세세한 알고리즘 전부가 아니라 전체적인 알고리즘의 방식이나 규칙 정도는 공개할 수 있다고 생각한다. 이것은 소비자들에게 기업의 AI 제품과 서비스를 이용하면서 일정 정도의 사전정보를 제공하는 것으로 볼 수 있고, 이렇게 되면 소비자의 알 권리와 대응권이 보장될 것이다.
Q. 다가오는 2022년에는 ‘AI 윤리’ 부문에 있어서 어떤 것들이 과제가 될까. 어떤 것들을 준비해야 하나.
다가오는 2022년에는 올해 정립된 AI 윤리 가이드라인들에 대한 각각의 구체적인 세부 실천방안들을 마련해야 할 것이다. 정부와 기업, 시민들도 AI 제품과 서비스를 개발 및 활용할 때 어떤 점들을 주의하고 지켜야 하는지에 대해 AI 윤리를 적용해야 할 것이다.
특히 유네스코가 지난 11월 발표한 ‘AI 윤리 권고’의 가장 큰 핵심 중 하나인 ‘AI 윤리 영향평가’를 거버넌스 차원에서 구체적인 방안을 마련하게 될 것이다. 이를 통해 자연스럽게 ‘AI 윤리 검‧인증’ 체계와 프로세스를 구축할 수 있게 되는 원년이 될 수 있을 것으로 전망된다.
전창배 한국인공지능윤리협회 이사장은 서울대 윤리교육과를 졸업했으며, 인터파크‧야후코리아 등 IT 기업에서 근무했다. 서울시 교육청 자문관, 한국지능정보사회진흥원(NIA) 디지털포용포럼 위원 등으로 활동하고 있다.
한국인공지능윤리협회는 지난 2019년 3월 설립됐으며, 같은 해 10월 ‘AI 윤리 헌장’을 발표했다. AI 글로벌 체계화 및 표준화를 위해 노력하며 대정부 정책 제언과 AI 윤리 교육 등에도 힘쓰고 있다.