• 맑음동두천 -0.4℃
  • 구름많음강릉 11.5℃
  • 흐림서울 2.9℃
  • 맑음대전 -0.3℃
  • 맑음대구 -0.1℃
  • 맑음울산 3.2℃
  • 맑음광주 2.5℃
  • 맑음부산 8.3℃
  • 흐림고창 -0.4℃
  • 구름많음제주 9.1℃
  • 흐림강화 2.5℃
  • 맑음보은 -4.2℃
  • 맑음금산 -3.7℃
  • 구름많음강진군 -0.4℃
  • 구름조금경주시 -1.9℃
  • 맑음거제 3.3℃
기상청 제공

AI platform

[이슈솔루션] “AI가 사람 판단, 믿을 수 있나?”…AI 채용 프로그램 둘러싼 고민

AI면접 - AI역량검사 등 채용 과정에 도입
AI, 과거 데이터 학습 시 편향성 가질 수 있어...구직자 불신↑

URL복사

 

[투데이e코노믹 = 이지혜 기자] 기업의 채용 과정에서 인공지능(AI) 프로그램이 적극적으로 사용되고 있는 가운데, AI가 가지고 있는 편향성에 대한 우려도 커지고 있다.

 

코로나19 이후 다수의 구직자를 모아놓고 채용 시험을 진행하거나 대면 면접을 하는데 부담감을 느낀 기업들이 비대면 채용 프로그램을 도입하면서 AI 채용 프로그램을 이용하는 기업들이 늘어났다.

 

업계에 따르면 AI 기반 채용 솔루션을 도입한 국내 기업은 1000여 개가 넘는다. LG그룹 계열사 등 대기업과 한국자산관리공사(캠코) 등 공공기관도 AI면접이나 AI역량검사를 채용 과정에서 활용한다.

 

AI는 사람이 일일이 읽어야 하는 이력서와 자기소개서를 빠르게 처리하고 비용을 줄일 수 있다는 장점이 있다. 데이터에 기반해 과학적인 판단을 한다는 기대감도 AI 채용 프로그램의 확산에 기여했다.

 

다만 AI 채용 솔루션은 알고리즘을 작동하는 데이터에 편향성이 존재할 수 있다는 점에서 불신의 대상이 된다.

 

AI 알고리즘은 과거 데이터를 기반으로 학습해 판단한다. 축적된 데이터에는 과거에 일어났던 차별이나 편견이 들어있고, AI가 이를 수정 없이 학습하면서 고유한 편견을 갖게 될 수 있다. 

 

대표적인 사례로 2018년 미국 기업 아마존이 개발한 AI 채용 프로그램이 있다. 아마존이 개발한 AI 채용 프로그램의 최종 시뮬레이션에서 남성 지원자에게 여성 지원자보다 더 높은 점수를 주는 편향이 일어났다.

 

아마존 직원의 70% 이상을 차지하는 개발직군에서 남성 직원이 여성보다 훨씬 많았고, 자연스럽게 남성 직원 중에 고성과자가 많으면서 데이터가 편향됐기 때문이다. 결국 아마존은 해당 프로그램을 폐기했다.

 

또 기업이 채용과정에서 AI 알고리즘이 어떤 방식으로 구직자들을 판단하는지 명확하게 설명하지 않기 때문에, 구직자들은 AI의 판단에 의문을 가질 수 있다.

 

특히 AI 면접의 평가 방식이나 진행 방법을 잘 알지 못하는 구직자가 많다. AI면접은 답변 뿐만 아니라 지원자의 표정, 말투, 시선 등을 분석한다. 다만 화면에 대고 대답을 하는 방식이기 때문에, 대면 면접처럼 분위기를 파악하는 등 피드백을 얻기 어렵다.

 

취업 플랫폼 잡코리아가 지난 8월 알바몬과 함께 취업을 준비 중인 남녀 구직자 873명을 대상으로 설문조사 한 결과, 응답자 중 64.9%는 AI 면접보다 대면 면접을 선호한다고 답했다. 그 이유로는 ▲면접 과정을 통해 회사 분위기 등의 정보를 파악할 수 있기 때문(47.6%) ▲AI 면접은 아직 초기 단계라 오류가 많을 것 같아서(46.9%) ▲AI 면접의 검증 알고리즘이 정확한지 신뢰할 수 없어서(42.2%) 등의 이유가 주요했다.

 

익명을 요청한 취준생 안모씨(25)는 “AI 게임이 어떤 식으로 채용에 영향을 미치는 건지 도저히 모르겠다. 게임 점수가 크게 영향을 안 미친다고 하는 말도 있는데 구직자 입장에서는 불안하니 ‘게임 연습’을 하게 된다. 명확한 설명이 있었으면 좋겠다”고 토로했다.

 

역시 익명을 요청한 취준생 송모씨(27)도 “AI가 사람을 평가한다는 것에 어쩔 수 없이 거부감이 있다. 최근에 잘나가는 빅테크 기업에서 만들었다고 하는 AI 기반 프로그램도 쓰다보면 잘못되거나 어색한 부분이 있지 않나. AI 채용 프로그램도 크게 다를까 싶어서 불신이 생긴다”고 말했다.

 

전창배 한국인공지능윤리협회 이사장은 29일 본지에 “AI 채용 시스템은 현재 100% 편향성이 없도록 완벽하게 개발하는 것은 불가능하다”면서 “AI 채용 시스템을 개발할 때 편향성을 일으키는지 여부를 사전에 충분히 반복된 테스트와 시뮬레이션으로 확인해야 한다. 발생하는 오류와 편향을 수정하고 보정하는 작업을 충분히 거친 뒤, 오류가 최소화 됐다고 판단되는 AI 채용 시스템을 외부의 중립적 기구나 기관을 통해 편향성 검수와 검증을 시행케해야 한다”고 말했다.

 

설명가능한 AI가 해답

 

전문가들은 ‘설명 가능한 AI(XAI)’가 필요하다는 의견을 낸다. 국회에서도 ‘설명 의무’를 포함하는 법안을 추진 중이다. 정필모 더불어민주당 의원은 지난 7월 ‘인공지능 육성 및 신뢰 기반 조성 등에 관한 법률 제정안’을 대표발의했다. 이 법안은 인공지능에 대한 설명요구권과 자율적 규제 확립을 위한 민간자율인공지능윤리위원회 설치 규정을 포함했다.

 

다만 산업계는 기업이 공들여 만든 AI 알고리즘을 공개하는 것은 기업의 영업기밀을 침해하는 것이라고 보면서 반대하고 있다.

 

전창배 이사장은 “기업 입장에서 AI 알고리즘은 영업기밀 또는 지적재산권이라고 볼 수 있다. 따라서 기업들이 자발적으로 AI 알고리즘을 전부 내지는 일부 공개하지 않는 이상 기업에게 알고리즘을 공개하라고 강요하기는 힘들다”고 말했다.

 

이어 “알고리즘의 투명성은 결국 기업 자발적인 노력으로는 한계가 있으므로, 외부에서 상시적으로 AI 알고리즘의 중립성, 투명성을 판단하고 검증할 수 있는 시스템을 갖춰야 한다. 곧 중립적 기구를 통하여 AI 알고리즘을 사전 또는 사후에 검증하고 가이드하는 역할을 통해 AI 알고리즘의 중립성과 투명성을 확보해 나갈 수 있다”고 강조했다.

 

한편 과학기술정보통신부와 인공지능법제정비단은 민간이 스스로 알고리즘의 공정성과 투명성을 확보하며 인공지능 신뢰 기반을 구축할 수 있도록 지원하는 가이드라인을 마련할 계획이다.