
최근 많은 기업에서 AI 도입이 빠르게 확산되고 있습니다. 채용 과정에서 수백 장의 이력서를 자동으로 스크리닝하고, 면접 영상을 분석하며, 직원의 성과를 데이터 기반으로 평가하는 것이 이제 낯설지 않은 풍경입니다. 이제 HR 분야에서도 AI 활용은 '선택'이 아닌 '기본 전제'가 되어가고 있습니다.

하지만 동시에 AI 이슈에 대한 우려도 커지고 있습니다. AI가 특정 집단에 불리한 결과를 만들지는 않을까요? 직원들의 프라이버시는 충분히 보호되고 있을까요? AI가 내린 평가를 직원들이 신뢰할 수 있을까요? 이런 질문들은 HR 담당자들에게 새로운 부담으로 다가오고 있습니다.
이 글에서는 HR 실무에 직접적으로 영향을 미치는 세 가지 핵심 테마를 살펴보려 합니다. 바로 공정성, 윤리, 성과관리입니다. "AI를 쓰지 말자"는 것이 아니라, "리스크를 제대로 이해하고, HR이 어디를 챙겨야 하는가"에 초점을 맞춰 현실적인 기준을 제공하고자 합니다.
많은 분들이 AI를 도입하면 사람의 편견이 사라질 거라 기대합니다. 하지만 현실은 조금 다릅니다. AI 모델은 과거 데이터로부터 학습하기 때문에, 과거 인사 데이터에 담긴 성별·경력 분포가 그대로 모델에 반영됩니다.

실제로 'Bias in Bios' 라는 연구에서는 동일한 직무라도 성별에 따라 AI 모델의 예측 정확도가 달라질 수 있음을 보여줬습니다. AI는 사람의 편향을 "제거"하기보다 "정교하게 재현"할 위험이 있는 것입니다.
블라인드 채용을 해도 이력서의 경력·활동 서술 패턴을 통해 성별이 추론될 수 있습니다. 또한 자동 스크리닝이 특정 학교나 직무 배경을 과대평가하거나, 영상 면접 AI가 외모·표정을 기반으로 간접 편향을 갖는 문제도 지적되고 있습니다.
승진·평가에서도 마찬가지입니다. 실적은 개인 역량만이 아니라 어떤 고객을 맡았는지, 어떤 업무가 배정됐는지 같은 ‘업무 환경’에 크게 영향을 받습니다. AI는 이 환경적 차이를 구분하기 어렵기 때문에, 같은 실적 차이도 ‘능력 차이’로 해석할 가능성이 있습니다]. 따라서 특정 팀이나 집단이 계속 낮은 점수를 받는 불공정한 상황이 만들어질 수 있습니다.
그렇다면 HR에서는 무엇을 해야 할까요? 우선 AI가 사용하는 입력 데이터의 구성을 확인해야 합니다. 집단별(성별·연령·경력 그룹) 점수 분포를 정기적으로 점검하고, 모델이 의사결정에 미치는 비중을 명확히 설정해야 합니다. 무엇보다 중요한 것은 인사 의사결정의 최종 판단은 반드시 사람이 해야 한다는 점입니다. 이를 'Human-in-the-loop'이라고 하는데, AI는 보조 도구일 뿐 최종 책임은 사람에게 있다는 원칙입니다.
공정성이 "모델 편향, 수치 기반 문제"라면, 윤리는 "조직 신뢰, 직원 동의, 투명성" 같은 더 넓은 범위를 다룹니다. 즉, 윤리는 HR 정책·문화·커뮤니케이션의 문제이며, HR이 직접 챙겨야 하는 영역입니다.
첫째, 프라이버시 침해 위험입니다. 생산성 모니터링을 위해 마우스 클릭이나 타이핑 로그를 수집하는 것은 효율적일 수 있지만, 직원들에게는 '감시'로 느껴질 수 있습니다.
둘째, 투명성 부족입니다. 직원이 "내 데이터가 무엇에 쓰이는지" 모르면 불신이 커집니다. 아무리 좋은 의도로 AI를 사용해도, 그 과정이 투명하지 않으면 직원들은 회사를 신뢰하지 못합니다.
셋째, 고지와 동의의 부재입니다. AI를 사용한다는 사실을 직원에게 명확히 알리지 않으면 신뢰가 손상됩니다. 특히 채용 과정에서는 법적 이슈로 이어질 수도 있습니다.
넷째, 책임 회피 문제입니다. "AI가 그런 점수를 줬다"는 식으로 책임을 분산하는 것은 심각한 윤리 리스크입니다. AI의 판단이라도 그것을 사용한 것은 조직의 결정이기 때문입니다.

실무적으로는 어떻게 접근해야 할까요? 먼저 직원과 후보자에게 AI 사용 사실을 구체적으로 고지해야 합니다. 어떤 데이터가 평가에 사용되는지 명확히 문서화하고, AI 점수는 보조 지표로만 사용해야 합니다. 의사결정을 완전히 자동화해서는 안 됩니다.
또한 직원이 평가 결과에 대해 이의제기할 수 있는 창구를 마련해야 합니다. 그리고 내부 AI 윤리 기준과 운영 절차를 HR이 주도해서 정립하는 것이 중요합니다. IT 부서에만 맡기지 말고, HR이 직접 나서야 합니다.
AI를 활용한 성과관리 시스템을 도입했는데 직원들의 반응이 냉담하다면, 그 이유는 명확합니다. 어떤 데이터를 얼마나 수집하는지 몰라 '감시받는다'고 느끼고, 점수 산출 방식이 불투명해서 왜 이런 점수가 나왔는지 이해할 수 없습니다. 대면 피드백 없이 점수만 전달되면 불공정하게 느껴지며, 결과적으로 직원경험(EX)이 악화되고 조직에 대한 신뢰가 손상됩니다.
AI를 성과관리에 활용하되 신뢰를 유지하려면 어떻게 해야 할까요?
데이터 수집 범위와 목적을 직원에게 투명하게 공유하고, 기준·가중치·절차를 직원이 이해할 수 있을 만큼 설명해야 합니다. AI의 역할은 "패턴 파악과 요약"에 한정하고, 최종 평가는 반드시 관리자가 직접 해야 합니다. 무엇보다 성과 면담은 사람이 직접 진행해야 하며, 팀별·역할별로 데이터가 특정 그룹에 불리하게 작용하지 않는지 주기적으로 점검해야 합니다.

여기서 HR이 특히 주목해야 할 부분은, 직원의 신뢰를 결정하는 요소가 ‘점수’가 아니라 ‘설명’이라는 점입니다. 직원의 신뢰는 '점수의 정확도'보다 '설명 가능성’과 평가 과정의 투명성'에서 결정됩니다. 여러 연구에서도 직원들은 ‘점수의 정확성’보다 왜 이런 평가가 나왔는지에 대한 설명을 더 중요하게 받아들이는 경향이 확인됩니다. 따라서 AI는 숫자를 만들지만, HR은 그 숫자에 의미를 부여하는 역할을 해야 합니다.
AI를 도입할 때 다음 다섯 가지는 반드시 문서화해두시기 바랍니다.
다음 질문들에 자신있게 답할 수 있다면, AI 도입 준비가 잘 되어 있는 것입니다.
AI는 HR을 대체하는 기술이 아닙니다. 오히려 HR의 역할을 더 '전략적이고 설계 중심'으로 확장시키는 도구입니다.
공정성, 윤리, 성과관리는 결국 알고리즘의 문제가 아니라 프로세스·정책·커뮤니케이션의 문제입니다.
HR이 이 세 가지 축을 균형 있게 챙길 때, 조직은 AI 활용의 효율성을 유지하면서도 직원 신뢰를 확보할 수 있습니다.
AI 시대의 HR의 역할은 기술을 감시하는 것이 아니라, 기술이 사람을 위해 작동하도록 프로세스를 설계하고, 직원과의 신뢰를 지키는 역할입니다.
그것이 바로 우리 시대 HR의 새로운 책임이자 기회입니다.