“지원서를 심사하는 건 이제 사람이 아닌 기계입니다.” 채용 과정에서 인공지능 도구의 활용이 급증하면서 새로운 법적, 윤리적 문제가 떠오르고 있다. 빠른 처리 속도와 객관성을 내세운 AI 채용 시스템이 실제로는 특정 성별, 나이, 인종에 편향된 결과를 내놓는 경우가 빈번하게 발생하고 있다.
수많은 이력서를 스캔하고, 면접 영상을 분석하고, 심지어 지원자의 소셜미디어까지 훑어보는 이 ‘똑똑한’ 알고리즘들이 만들어내는 차별은 더 은밀하고 감지하기 어려운 형태를 띠고 있다. 이 글에서는 AI 채용 시스템의 차별 문제와 관련 법적 분쟁, 그리고 이를 해결하기 위한 방안들을 살펴보면서, 기술 혁신과 공정성 사이의 균형점을 모색해보려 한다.
1. AI 채용 시스템의 차별 문제 🤖

“왜 우수한 여성 지원자들이 계속 탈락하는 걸까?” 한 기술 회사의 인사 담당자가 던진 이 질문이 AI 채용 시스템의 문제점을 적나라하게 보여준다.
인공지능 기반 채용 도구들이 가져온 효율성은 분명하다. 수백, 수천 장의 이력서를 순식간에 걸러내고, 지원자의 적합성을 수치화해 비교할 수 있다. 하지만 이 시스템들이 내놓는 결과에 숨어있는 편향성은 점점 더 심각한 문제로 대두되고 있다.
이런 편향이 생기는 원인은 무엇일까? 가장 큰 요인은 ‘학습 데이터’다. AI는 과거 채용 결정 자료를 학습하는데, 이 자료 자체에 이미 편향이 내재되어 있다면? 예를 들어, 어떤 기술 기업의 과거 채용 데이터에 남성 엔지니어가 압도적으로 많았다면, AI는 “남성=좋은 엔지니어”라는 잘못된 패턴을 학습할 수 있다.
두 번째 요인은 알고리즘 설계 자체의 문제다. 특정 키워드, 학교 이름, 경력 패턴에 가중치를 부여하는 과정에서 의도치 않은 차별이 발생할 수 있다. 예를 들어 “여성적” 표현보다 “공격적”, “주도적” 같은 “남성적” 단어에 더 높은 점수를 주는 알고리즘은 자연스럽게 남성 지원자를 선호하게 된다.
법적으로 이런 차별은 두 가지 유형으로 나뉜다. ‘직접 차별’은 명백하게 특정 집단(여성, 노인, 특정 인종 등)을 배제하는 경우다. “55세 이상 지원자 자동 탈락” 같은 설정이 여기에 해당한다. ‘간접 차별’은 중립적인 기준을 적용하지만 결과적으로 특정 집단에 불이익을 주는 경우다. 예를 들어 “특정 대학 졸업자 우대”라는 기준은 표면적으로는 중립적이지만, 그 대학에 사회경제적 약자들의 진학률이 낮다면 간접적인 차별이 될 수 있다.
이런 상황에서 가장 논란이 되는 쟁점은 책임 소재다. 차별적 결과가 나왔을 때, 책임은 누구에게 있는가? 알고리즘을 개발한 기술 회사? 그것을 채용에 활용한 고용주? 아니면 시스템에 편향된 데이터를 제공한 사회 전체?
궁금한 점 하나. 만약 AI가 여성 지원자를 남성보다 덜 선호한다면, 그 AI는 성차별주의자일까? 아니면 단순히 사회 현실을 반영하는 것일까? 이런 복잡한 질문들이 AI 채용 시스템을 둘러싼 법적, 윤리적 논쟁의 중심에 있다.
2. 주요 판례 분석 ⚖️
AI 채용 시스템 관련 법적 분쟁은 이제 막 시작되고 있다. 몇 가지 중요한 사례를 통해 법원이 이 문제를 어떻게 다루고 있는지 살펴보자.
(1) I튜터그룹 사건 (미국)
중국계 온라인 영어 교육 플랫폼 I튜터그룹의 사례는 명백한 연령 차별을 보여준다. 이 회사는 미국 영어 강사 채용 과정에서 특이한 필터링 시스템을 도입했다. 지원자의 나이를 확인한 후, 여성은 55세 이상, 남성은 60세 이상이면 자동으로 탈락시키는 알고리즘이었다.
이 관행은 결국 미국 평등고용기회위원회(EEOC)의 조사를 받게 됐다. 위원회는 이 시스템이 명백히 고용 연령 차별법(ADEA)을 위반했다고 판단했다. 소송 과정에서 회사 측은 “영어 원어민 강사 중 젊은 강사를 선호하는 고객 요구를 반영한 것”이라고 변명했지만, 이는 받아들여지지 않았다.
결국 I튜터그룹은 2023년 약 36만5천 달러(약 4억8천만 원)의 합의금을 지급하기로 했다. 또한 부당하게 탈락한 지원자들에게 재지원 기회를 제공하고, 차별 방지 대책을 마련하기로 합의했다.
이 사건의 중요성은 AI 시스템이 명시적으로 연령 기준을 포함할 경우, 이는 명백한 차별로 인정된다는 선례를 세웠다는 점이다. “알고리즘이 결정했다”는 변명은 법적 책임을 면제해주지 않는다.
(2) 아마존 AI 채용 시스템 사건
글로벌 기술 기업 아마존의 사례는 간접 차별의 전형을 보여준다. 2014년 아마존은 이력서 검토 과정을 자동화하기 위해 AI 채용 도구를 개발하기 시작했다. 이 시스템은 과거 10년간 아마존에 입사한 직원들의 이력서를 학습 데이터로 활용했다.
그러나 개발 과정에서 심각한 문제가 발견됐다. 이 AI는 “여성”, “여자”, “여성 체스 클럽”, “여성 대학” 같은 단어가 포함된 이력서에 낮은 점수를 주는 경향이 있었다. 왜 그랬을까? 아마존의 기술 직군에는 남성 직원이 압도적으로 많았고, AI는 이 패턴을 “좋은 직원=남성”이라는 공식으로 학습한 것이다.
아마존은 이 문제를 발견하고 AI가 성별 관련 단어에 반응하지 않도록 수정을 시도했다. 하지만 여전히 남성 지원자를 선호하는 다른 패턴들이 발견됐다. 결국 회사는 2018년 이 프로젝트를 완전히 폐기했다.
이 사례는 소송으로 이어지진 않았지만, AI 채용의 위험성을 보여주는 중요한 교훈이 됐다. 특히 간접 차별이 얼마나 은밀하게 작동할 수 있는지, 그리고 기존의 불평등이 AI를 통해 어떻게 증폭될 수 있는지 적나라하게 보여줬다.
(3) 워크데이 소송 (미국)
현재 진행 중인 이 소송은 AI 채용 도구 개발사의 책임 범위를 다루는 중요한 사례다. 워크데이는 많은 기업들이 사용하는 인적자원관리 소프트웨어를 제공하는 회사다. 2021년, 이 회사의 채용 알고리즘이 흑인, 장애인, 고령 지원자들을 차별했다는 집단 소송이 제기됐다.
흥미로운 점은 워크데이의 대응이다. 회사는 “우리는 단지 소프트웨어를 제공했을 뿐, 실제 채용 결정을 내린 것은 고객사”라며 책임을 부인했다. 즉, AI 도구 개발사와 그것을 사용한 고용주 사이의 책임 소재에 대한 논쟁이다.
법원은 초기 판단에서 워크데이가 채용 과정의 일부를 수행했으므로 소송 당사자가 될 수 있다고 결정했다. 이는 AI 도구 개발사도 차별 결과에 대한 책임에서 자유롭지 않다는 중요한 시사점을 제공한다.
이 세 가지 사례는 AI 채용 시스템의 차별 문제가 얼마나 복잡하고 다차원적인지 보여준다. 직접적인 차별부터 은밀한 간접 차별까지, 그리고 책임 소재를 둘러싼 논란까지, 이 분야는 아직 법적으로 많은 부분이 정립되지 않은 영역이다.
3. AI 채용 차별 방지 대책 🛡️
“AI가 차별하지 않도록 하려면 어떻게 해야 할까?” 이 질문에 대한 답을 찾기 위해 여러 규제와 대책이 세계 각국에서 논의되고 있다.
가장 주목할 만한 규제 사례는 뉴욕시의 ‘편향 감사법(Bias Audit Law)’이다. 2023년 4월부터 시행된 이 법은 채용 과정에서 AI 도구를 사용하는 고용주에게 몇 가지 의무를 부과한다
▲ 사용하는 AI 도구의 편향성에 대한 독립적인 제3자 감사를 매년 실시해야 함 ▲ 감사 결과를 공개적으로 발표해야 함 ▲ 지원자에게 AI 도구 사용 사실을 미리 알려야 함 ▲ 지원자가 대안적 평가를 요청할 권리를 보장해야 함
이런 접근법은 ‘투명성을 통한 책임’이라는 원칙에 기반한다. 고용주가 사용하는 AI 시스템이 어떻게 작동하는지, 그 결과가 공정한지를 외부에서 검증할 수 있게 하는 것이다.
또 다른 중요한 대책은 ‘입증 책임 전환’이다. 전통적으로 차별 소송에서 피해자는 자신이 차별받았음을 증명해야 했다. 하지만 AI 시스템의 복잡성과 불투명성을 고려할 때, 이러한 입증은 거의 불가능하다. 따라서 일부 법학자들은 고용주가 자신의 AI 시스템이 차별적이지 않다는 것을 입증하도록 책임을 전환해야 한다고 주장한다.
유럽연합의 ‘AI 규제안(AI Act)’은 AI 채용 시스템을 ‘고위험’ 카테고리로 분류하고, 이에 대한 엄격한 규제를 제안하고 있다. 이 규제안은 개발 단계부터 공정성과 투명성을 보장하는 조치를 의무화하고 있다.
AI 채용 차별을 방지하기 위한 다양한 대책들
대책 | 내용 |
---|---|
편향 감사 의무화 | 기업이 AI 알고리즘의 편향성을 제3자로부터 평가받고 결과 공개. |
입증 책임 전환 | 피해자가 아닌 고용주가 차별 부재를 입증하도록 법적 구조 변경. |
투명성 강화 | 알고리즘 작동 방식 및 평가 기준을 구직자에게 공개하도록 의무화. |
기술적 측면에서는 ‘공정 알고리즘(Fair Algorithm)’ 개발에 대한 연구가 활발히 진행 중이다. 이는 학습 데이터의 편향을 인식하고 보정하는 알고리즘, 다양한 보호 집단 간의 결과 균형을 맞추는 알고리즘 등을 포함한다.
일부 기업들은 자체적으로 ‘AI 윤리 위원회’를 설립해 자사 AI 시스템의 공정성을 평가하고 개선하는 노력을 하고 있다. 마이크로소프트, IBM, 구글 등 대형 기술 기업들은 AI 윤리 원칙을 발표하고, 자사 AI 제품의 공정성을 검증하는 도구를 개발하고 있다.
하지만 이런 모든 노력에도 불구하고, AI 채용 시스템의 차별 문제는 완전히 해결되기 어려운 복잡한 도전과제다. 기술적 해결책만으로는 부족하며, 법적, 제도적, 사회적 접근이 함께 이루어져야 한다.
4. AI 채용 시스템의 미래 🌱
AI 채용 시스템이 가져온 효율성과 객관성이라는 장점을 유지하면서도, 차별이라는 함정을 피하기 위해 우리 사회는 어떤 방향으로 나아가야 할까?
먼저, 규제의 강화가 필요하다. 뉴욕시의 편향 감사법처럼 기업에 AI 시스템의 공정성을 검증하고 공개하도록 요구하는 법적 틀이 확립되어야 한다. 한국의 경우, 아직 AI 편향성에 대한 구체적인 규제가 미비하다. 포괄적인 차별금지법 제정을 통해 알고리즘에 의한 간접 차별까지 규율할 수 있는 법적 기반이 필요하다.
또한, AI 개발 단계에서부터 공정성을 고려하는 ‘공정성 중심 설계(Fairness by Design)’ 원칙이 적용되어야 한다. 이는 다양한 인구 집단을 대표하는 균형 잡힌 학습 데이터 구축, 알고리즘 설계 과정에서의 편향 검증, 지속적인 모니터링 등을 포함한다.
인공지능 윤리 교육도 중요하다. AI 개발자와 인사 담당자들은 알고리즘 편향의 위험성과 이를 방지하는 방법에 대해 체계적인 교육을 받아야 한다. 단순히 기술적 효율성만 추구하는 것이 아니라, 공정성과 포용성의 가치를 내재화할 필요가 있다.
더불어, 인간의 개입과 판단을 완전히 배제해서는 안 된다. AI 시스템은 인간 의사결정을 보조하는 도구로 활용되어야 하며, 최종 결정은 다양한 요소를 종합적으로 고려할 수 있는 인간이 내려야 한다.
마지막으로, 이 문제에 대한 사회적 논의가 확대되어야 한다. AI 채용 시스템의 편향 문제는 단순히 기술적 결함이 아니라, 우리 사회에 내재된 차별과 불평등의 반영이다. 따라서 기업과 규제 당국뿐 아니라, 시민사회, 학계, 노동단체 등 다양한 이해관계자들이 참여하는 폭넓은 논의가 필요하다.
AI 기술은 빠르게 발전하고 있지만, 이 기술이 공정하고 평등한 사회를 만드는 데 기여할지, 아니면 기존의 불평등을 심화시킬지는 우리의 선택에 달려 있다. 효율성만큼이나 공정성을 중요시하는 균형 잡힌 접근이 무엇보다 중요한 시점이다.
AI 채용 시스템은 양날의 검이다. 잘 활용하면 인간의 주관적 편견을 줄이고 더 공정한 채용 환경을 만들 수 있지만, 잘못 설계되면 기존의 차별을 더욱 공고히 하는 결과를 낳을 수 있다. 기술의 발전과 함께 우리의 윤리적, 법적 사고도 함께 진화해야 하는 이유가 여기에 있다.