メディア

面接での話し方やSNSをチェックする「AI採用」のキケンな特徴

採用における候補者選定を効率化する「AI採用」には大きな問題点があると、複数の専門家が指摘する。危険なAI採用の落とし穴と、効果的な対策法とは。

» 2023年04月14日 07時00分 公開
[Laurel KalserHR Dive]
HR Dive

 「ChatGPT」をはじめとした、AI(人工知能)ブームはとどまるところを知らない。

 AIは、働き方や人事といった領域にも大きな影響を与えそうだ。産業・組織心理学者でDCI Consulting Groupのエリック・ダンリービー氏(雇用・訴訟サービス部門 ディレクター)は「AIは大規模なデータベースを評価し、業績や離職率、欠勤率、安全衛生、売り上げなどの仕事の成果を判断できる」と説明する。

AIが人間を「差別する」時代が来る?

 しかし、人事領域、特に採用活動にAIを導入することには大きな問題があるようだ。具体的にはどのような問題が起き得るのだろうか。

 2023年2月28日、米国人材マネジメント協会(Society for Human Resource Management)の雇用法とコンプライアンスを扱うカンファレンス「Employment Law and Compliance Conference」が開催された。米国雇用機会均等委員会(EEOC)の委員長を務めたResolution Economicsのビクトリア・リプニック氏(ヒューマンキャピタルグループ責任者)がモデレーターを務める、AIに関するパネルディスカッションでは、経営者が今後直面する課題が指摘された。

 雇用に関して「AIツールの使用によって特定の人口集団に対する偏見が生じやすいことが大きな問題の一つだ」とFortney Scottの経営弁護士、サバンナ・シャンティク氏は警鐘を鳴らす。「アルゴリズムバイアス」と呼ばれるこの概念は、さまざまな形をとり、雇用主やAIツールベンダーが意図して差別的な行動を取っていない場合でも発生する可能性がある。

 AIツールの学習に使用するデータが、犯罪歴を含む情報を参照している場合、「アルゴリズムバイアスが発生する可能性がある」とシャンティク氏は述べる(注1)。EEOCの執行ガイダンスによると、雇用の決定において個人の犯罪歴を使用することは、1964年の公民権法第7編に違反する人種、肌の色、国籍差別につながる可能性がある(注2)。州によっては、雇用主が雇用の判断に犯罪歴を使用する方法を制限する「Ban the Box」法を制定している(注3)。

 バイアスが発生しないように特別に訓練されていたとしても、「AIツールが時間の経過とともにバイアスを学習してしまう場合がある」とシャンティク氏は指摘する。

 同氏は、優秀な労働者を見つけたい雇用主が、AIツールに既存の従業員のデータを学習させる例を挙げた。このデータベースが代表性のあるデータを十分に含んでいない場合(白人男性が多い職場のデータなど)、機械学習は、たとえプログラマーが人種や性別で選択しないよう指示したとしても、この2つの属性を好むようになる可能性がある。

 障害のある候補者に関する問題もある。選考プロセスの一環としてAIによる評価を行うケースがあり、この場合、視覚や聴覚に障害のある人にとっては問題が生じる可能性があるとシャンティク氏は指摘する。

 雇用主は、AIツールが障害者に与える影響に留意しなければならないと同氏は述べる。AIと「障害のあるアメリカ人法」(Americans with Disabilities Act)に関するEEOCの2022年のガイダンスには、その例が示されている(注4)。雇用主は「障害者が合理的配慮を求める権利を持っていることも忘れてはならない」とシャンティク氏は付け加えた。

公平な評価のために、雇用主ができること

 雇用主は、偏見から身を守るための手段を講じるべきだとパネリストは強調した。そのためには、まず「通知」と「同意」が必要だ。通知は、プロセスの最初に行われるべきだ。パネルディスカッションでは、どのようなAIツールを使用するのかを明記し、応募者や従業員がどのような基準で評価されるのかを理解するのに十分な情報を提供する必要があるとされた。

 「なぜ同意を得るべきか」という点も重要だ。「AIが何を評価しているかは、必ずしも個人にとって明確ではない」とシャンティク氏は述べる。同氏によれば、オンライン面接に参加する応募者は、自分の回答内容が評価されていると思っていても、AIツールはその話し方や身振り手振り、アイコンタクトも評価している可能性がある。「アメリカ障害者法の文脈では、応募者がこのことに気付かなければ合理的配慮を求めることができない」とシャンティク氏は指摘する。

 身元調査を行うAIツールも、ソーシャルメディアなど、従来の選考ツールよりもはるかに広い範囲からデータを引き出すことができ、データプライバシーに関する懸念も誘発するとパネリストは説明した。応募者はこれが評価されることを知らない可能性がある。

 米国全体では通知と同意に関する現行法はないが、バイデン政権ではこれを念頭に置いているとパネリストは指摘した。パネリストは、雇用主がホワイトハウスの「AI権利章典(AI Bill of Rights)」を見て、政権の関心の幅を知ることを提案した(注5)。

 リプニック氏は人事担当者に対し、2022年12月に雇用機会均等について啓蒙するInstitute for Workplace Equalityが発表した「職場におけるAIのEEOとDEIの考慮点に関する報告書」を示した(注6)。EEO(雇用機会均等)とDEI(多様性、公平性、包括性)について扱っており、これは同氏が監修し、ダンリービー氏やシャンティク氏、その他多数の専門家が寄稿したものだ。「この報告書は、雇用主が現在の法律の基本を理解し、雇用主が労働者の雇用サイクルを通じて従うべき人事のガードレールを示している」とリプニック氏は述べる。

 雇用主は、州法の動向にも注意を払う必要がある。最も注目すべきは、2023年4月15日に施行予定のニューヨーク市の法律だ(注7)。AIツールを含む自動雇用判断ツールのバイアス監査を実施し、市内に居住する従業員や求職者にその使用について通知することを雇用主に義務付ける。イリノイ州とメリーランド州は既にAI通知・同意法を設けている。カリフォルニア州やニュージャージー州、バーモント州、ワシントン(コロンビア特別区)では、法案提出が進行中だ。

 雇用主とAIベンダーの関係の見直しも重要な予防手段だ。「これは、雇用主が自社の組織の現在どこでAIを使用し、今後どこでAIを使用すべきかを理解することから始まる」とダンリービー氏は述べる。雇用主は、AIの使用状況を積極的に見直すことで理解を得ることができる。

 雇用主がベンダーと話をする際には「AIツールが雇用主の望むことをどのように実現するのか」「ツールの機能がどのように職務に関連しているのか」「雇用主が将来的に職務関連性をどのように説明できるようになるのか」をベンダーに説明してもらう必要がある。

 雇用主はベンダーとの契約書において重要な問題を明確にする必要もある。これには、補償や必要なデータへの将来的なアクセス、ベンダーが独自のテストや他のツールユーザーから偏見を知った場合に雇用主へ通知する義務などが含まれる。

 差別があった場合、「『雇用主であるあなた』が責任を負うことを忘れずに」とダンリービー氏は警鐘を鳴らした。

© Industry Dive. All rights reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。