検索
連載

LinkedInの採用AIは「ブラックボックス化」を解消すべきと研究者が指摘

普及が進む採用AI。規制の流れも強まっているようだ。

Share
Tweet
LINE
Hatena
HR Dive

 「LinkedIn Recruiter」など、人間が介入せずアルゴリズムで意思決定を行う機構(ADS:Automated Decision System)を使用するツールが普及してきている。このようなツールは結論を導き出すプロセスを開示すること、つまり「栄養成分表示」のようなものを示すべきだと、AI(人工知能)やML(機械学習)に関する学術誌「Nature Machine Intelligence」に2023年3月13日(現地時間)に掲載された研究が指摘した(注1)。

採用AI「規制」の現状は?

 採用AIの規制について、現状を整理しよう。

 「ADSの透明性を高めるためのアプローチは今のところ存在しない。ADSは大衆の監視を逃れているにもかかわらず、大衆に大きな影響を与えるため問題になっている」と、ニューヨーク大学やコーネルテック、ニュージャージー工科大学の研究者らは述べる。

 この研究は、規制が始まったばかりのAIを人材採用に使用する際のバイアスを指摘している。ニューヨーク市の地方法144条は企業による自動雇用判断ツールの使用方法を規制しており、ツールを使用する前にバイアスの監査を要求する。この法律は2023年1月1日(現地時間)に施行予定だったが、ニューヨーク市の消費者・労働者保護局(New York City Department of Consumer and Worker Protection)に新法に関する問い合わせが殺到したため、施行は2023年4月15日(現地時間)まで延期されている(注2)。

 米雇用機会均等委員会は、AIが差別を生まないように目を光らせる。委員のアンドレア・ルーカス氏は、公民権法の第7編がこの分野をカバーし、適用されるべきだと述べる(注3)。

 リクルーターは、LinkedIn Recruiterの検索結果を盲信せず、結果をダブルチェックしているという調査結果が発表された。このように、リクルーター自身がAIに頼りきりにならないことも、AIによるバイアスを排除する一つの方法だ。

© Industry Dive. All rights reserved.

ページトップに戻る