NHK 解説委員室

これまでの解説記事

「リクナビ問題 学生裏切ったAIサービス」(時論公論)

三輪 誠司  解説委員

就職情報サイト「リクナビ」が、学生の個人情報を利用したAI・人工知能サービスを提供していた問題は、個人情報の不適切な利用が、学生や家族などの大きな怒りにつながっています。その一方、個人情報を利用したAIサービスは、企業から大きな注目を集め、拡大すると見込まれています。リクナビの問題の原因を検証するとともに、こうしたサービスのあり方について考えます。

j190905_01.jpg

j190905_03.jpg

リクナビは、「リクルートキャリア」が運営している学生向けの就職支援サイトです。
個人情報を入力して登録すると、3万社以上の企業の採用情報を見ることができます。面接を申し込む「エントリー」という手続きを行うこともできます。登録する学生は毎年80万人以上と、国内最大のサービスです。

そのリクナビが去年の3月からはじめたのが、「リクナビDMPフォロー」という企業向けサービスです。

j190905_04.jpg

簡単な例で説明します。学生Aさんは、リクナビを通じて、さまざまな企業の採用情報を見ていました。その結果、ある企業の面接を受けました。しかし採用担当者は、Aさんが「別の業種にも関心がある」などと話していたことが気になりました。内定を出したとしても、最終的に辞退してしまうかもしれないと心配しているのです。

そこで、リクナビDMPフォローを使います。リクナビに「Aさんが、内定を辞退する可能性はどの程度あるのか」と尋ねます。するとリクナビは、Aさんに関するデータをAI・人工知能で分析します。その結果、「内定を辞退する可能性が高いです」などとスコアを付けて答えるのです。

このAIは、何を根拠にしているのでしょうか。Aさんが、リクナビのどの企業ページを閲覧していたかという履歴などです。そのデータと、過去の学生の履歴データなどとつき合わせます。そして同じような傾向がある学生は内定辞退をする傾向が高いなどと分析したのです。

このサービスを購入していた企業は38社にのぼります。自動車メーカー、金融機関の持ち株会社、精密機器メーカーなど大手企業が含まれています。価格は、年間で400万円から500万円となっています。

j190905_05.jpg

このサービスは、法律上、問題があると指摘されています。まず、個人情報保護法です。ネットの閲覧履歴を含む個人データは、本人から集める際に、利用目的を示さなければなりません。リクナビは「採用活動補助のため利用企業などに情報提供」すると示して同意を得ていると考えていましたが、学生のうち7983人については、同意を得ていませんでした。

それに加え、了解を取っているとしていたこの記述についても個人情報保護委員会から指摘を受けました。このような分析サービスに利用するとは想像しにくい、つまり分かりにくいとして是正勧告を受けたのです。

さらに、職業安定法の問題もあります。安定法の指針では、求人サイトは、個人情報を本来の目的以外に使う場合は、本人の同意を得なければならないとしています。厚生労働書はそれに違反したとして行政指導する方針です。

リクナビは、研究開発的なサービスだったため、チェックが十分ではなかったと謝罪しています。しかし本物の個人情報を使った有料サービスに踏み切った段階で研究とは言い切れず、言い訳にはなりません。

さらに、モラル上の問題もあります。

j190905_07.jpg

リクナビは、今回のサービスを、企業と学生のミスマッチをなくすためだったと説明しています。学生の採用は、売り手市場が続き、各企業は、優秀な学生の確保に懸命です。このため、どうしても確保したい学生が、「内定を辞退する可能性が高い」ことがわかれば、その学生のいわば「つなぎとめ」に重点をおくことができるとしていました。このため「合否の判断には使わない」という条件で、企業に情報を提供していました。

しかし、学生側から見ると、就職支援と思っていたサイトが、自分の評価を勝手に行い、自分と相対する企業にそれを伝えていたことになります。リクナビに登録しないとエントリーできない企業もあることから、学生の中には、大学からリクナビの登録を勧められたという人もいます。

個人情報を提供しなければ利用できないという有利な立場を利用したもので、学生に対する裏切り行為といわれても仕方がありません。

j190905_08.jpg

ただ、こうした問題は、リクナビにとどまらないと思います。それは、各企業が個人情報の利用目的を分かりにくく示しているからです。各企業は、顧客の個人情報の利用目的を記した「プライバシーポリシー」を公表しています。しかし、集めた個人情報を別のビジネスに活用する可能性があることから、「サービスの改善のために使います」などというあいまいな表現にとどめるケースが多くなっています。

しかしそれでは、リクナビが個人情報保護委員会から、利用目的が不明確であると指摘されたことと何ら変わりません。プライバシーポリシーを図解するなど、理解しやすくする必要があります。国や個人情報保護委員会も、調査・監督を進め、図を使った見本なども示すべきです。

j190905_09.jpg

さて、今回の問題でもう一つ注目されるのは、大手企業など38社が、このAIサービスを購入していたことです。各社は合否判断には使っていないとしていますが、学生からは自分の将来が知らないところでAIによって決められてしまうのではないかという不安の声も聞こえます。採用にAIを活用する場合、学生が不利益をこうむるなどの問題点はないのでしょうか。

人事の分野にAIを使うのは、ヒューマンリソースの頭文字を使って「HRテクノロジー」と呼ばれています。AIへの期待を背景に、ここ数年注目を集めています。

たとえばエントリーシートを入力すると、いいものと悪いものを大まかに分けたり、テストやアンケートによって、将来の活躍度を数値化したりするものなどが提供されています。こうしたサービスは、膨大な数の応募者をさばくことができることや、面接官ごとの評価のばらつきをなくせるとされていますが、使い方によっては、学生の不利益につながるおそれがあります。

まず、個性が見過ごされる危険性があることです。AIは、過去のデータに基づいて将来を確率で予測するため、これまでの人材にはないユニークな特徴は無視される傾向があります。AIの答えを信用しすぎると、個性的な人材は就職が難しくなるおそれがあります。

次に、就職差別につながる恐れがあります。合格者の性別や国籍などが結果的に偏る危険性は否定できません。また、今回のように、ネットの閲覧履歴など、本人の能力とは関係ない指標が使われれば根拠のないレッテル貼りと同じです。

こういうことを考えると、AIの結果をうのみにすると、非人道的な採用につながる危険性があります。AIは補助的な装置であり、出た結果を人が検証することを義務付けるなど、学生の不利益にならないような規制を早急に作っていく必要があります。

j190905_10.jpg

今回のリクナビの問題は、不適切な方法で行われたAIサービスは、不信感しか生まないことを明らかにしました。AIの信頼性が話題となる今、それを使う企業が暴走しないよう、国は規制と監督を続ける必要があると思います。

(三輪 誠司 解説委員)


この委員の記事一覧はこちら

三輪 誠司  解説委員

キーワード

こちらもオススメ!