イギリスのHRサイトPeople Managementより、今回はHow to embrace AI recruitment and avoid bias (peoplemanagement.co.uk)2021年9月30日By Khyati Sundaramの記事を紹介いたします。
「安価にそしてすぐに利用できるテクノロジーの導入を検討しいている経営者は細心の注意を払わなければならない」とKhyati Sundaram氏は述べる。
Artificial Intelligence (人工知能)は今や我々の生活のあらゆる側面に潜んでいる。「求職活動」も例外ではない。LinkedInやFacebook、そしてModern Hireといった新しい企業を活用するにせよ、 AI によってあらゆる組織は候補者とつながり、そして物凄いスピードで彼らを振るいにかけることが可能になった。
求人が増え、市場の競争が激化しており、次の雇用を迅速に行うためにもデジタルソリューションに目を向けたいと感じる企業が多い。しかしAIは採用のニーズに応える万能薬にはなり得ないということを忘れてはいけない。
AIが非常に有効的なツールであることは言うまでもない。理論的にAIは学習を行い、「適正な候補者」を「適正な役割」にマッチングさせることが可能である。人間が無意識的にアンコンシャスバイアス (無意識の偏見)を持つのと同様に、AIモデルもまた偏見の影響を受けないわけでは全くない。
LinkedInのAIが求職を行う際に、女性より男性をレコメンドする傾向にあったことは有名な話である。男性の方がより多くのリクルーターと関わりを持ち、多くの職に応募し、履歴書上で多くのスキルを掲載している傾向にあることをAIは学習し、これらの行動・傾向がパフォーマンスの指標であると解釈してしまうのである。AIが考慮できなかった事実として、男性は職に必要な条件のうち60%程度満たしていれば応募を行うのに対し、女性は100%に近い条件のマッチがなければ応募を行わないということである。
Facebookは近年、職の宣伝に活用していたAIモデルが性差別を行っていたと非難されている。メカニック関係の求人ではFacebookユーザーのうち96%が男性をターゲットにしているのに対し、保母さんの求人に関しては95%が女性を対象にしていたという。今回はより多くのクリック (応募)を稼ぐためにAIを用いた結果引き起こされた格差であり、無意識の性差別が浮かび上がることとなった。
こういった危険性を避けるためには、採用プロセスを最適化するために用いるプラットフォームについてしっかりと調査を行うことが重要である。AIシステムを取り入れる前に各モデルがどのように学習したか、そして差別や偏見などネガティブ要素のリスクを軽減させるために用いたデータを精査するべきである。
多くのAIモデルは過去の履歴書や現存するハイパフォーマーの応募など安価で便利かつ簡単に手に入るデータを基に学習を行う。こういった情報はアクセスしやすいものの、組織の多くは有色人種の女性や労働者階級そしてマイノリティの候補者を無意識的に除外しており、既存の成功イメージに基づいてアルゴリズムを設計することは永続的な「単一主義」そして多様性の欠如を助長することになる。
汎用的な解決策ではなく、偏見のない採用を促進するためにAIを活用しStatus quo (現状維持)から脱却することが今後の課題である。例えば、AIを用いた求人掲載が特定の集団を排除しないように、性別でコード化された言語の求人広告をチェックすることができる。
研究によれば、「individual (個性のある)」、「driven (やる気のある)」そして「challenging (挑戦的な)」など「男性寄りにコード化された」言語がジョブディスクリプション(職務定義書)に記述されると、女性の応募は10%まで減少されることが明らかとなっている。広告をよりインクルーシブ (包摂的)にするためにAIに学習させ、性別でコード化された言語を特定できるようになれば、雇用者は自身の採用プロセスから偏見を無くし、より多様な候補者母集団を魅了することが可能になる。
AIは候補者を見つけ出し、振るいにかけるために使われるものの、採用マネージャーは盲目的に従ってはならない。彼らは様々なプラットフォームや場所、コミュニティから優秀なタレントを確保しなければならない。AIを持ち込む場合、名前や学歴、経験年数といったプロキシは予測的成功要因になりにくいため削除すべきである。
そうではなく、AIは最も正確かつ客観的なパフォーマンスの予測因子である「スキル」にフォーカスさせるべきである。ジョブディスクリプションを基に、AIは候補者が特定の職務で活躍するためにどのようなスキルが必要であるかを予見することができるため、雇用者は選考プロセスの中でこういったコンピテンシーをチェックすることできるようになる。
重要なこととして、いかなるAIモデルやアルゴリズムであっても差別や偏見を引き起こす識別情報やデータポイントを選別し、倫理的にかつ偏見のないデータに基づいて学習させることが不可欠である。我々の採用プロセスは偏見に満ちており、それ故データもバイアスがかかっている。バイアスがかったデータをテクノロジー化された採用システムに送り込むことはできず異なった結果も期待できない。そのため、多くのAI導入には様々な欠点が潜み、我々自身もAI採用モデルを導入していない。
過去のデータを用いて、AIに採用の意思決定を任せるのではなく、人間がより良いそして平等な意思決定を行えるようにクリーンでフェアなデータセットに焦点を当てなければならない。こうすることでAIモデルはより正確で倫理的なソースを築き、採用の意思決定を行えるようになる。
新しいソリューションを導入する際に既存の問題が深刻化しないよう、細心の注意を払う必要がある。しかし、倫理的にも効率性の観点でも有効的であれば、テクノロジーは未来の採用をよりバイアスフリーなものとすることができるだろう。
日本においても、採用・選考のAI化、オートメーション化がこの数年間で飛躍的に進み、多くの企業がこういったテクノロジーの導入に意欲的である。しかし、日本は概して「Homogeneous (均質的) 」であると度々揶揄され、その排他性は採用プロセスの中でも顕著であり、それ故採用・選考のAI化に伴い、懸念される点は多く存在する。
今後、ジョブ型雇用の中で優秀なタレントを獲得し、活躍なファクターではなく、エビデンス重視の評価制度を組み込み、ハイパフォーマー/活躍条件を分析していく必要がある。また評価制度の一新と同時に、評価の基軸・基準を設定するためにも、業務分析・ジョブディスクリプションの策定を行わなければならないさせるためには、直観/感覚的(ジョブディスクリプションに関してはこちらを参照)。
(D.S)