クローズアップ現代

毎週月曜から木曜 総合 午後10:00

Menu
2019年10月29日(火)
人事・転職ここまで!? AIがあなたを点数化

人事・転職ここまで!? AIがあなたを点数化

今、AI(人工知能)を使って膨大な個人データを分析し、1人1人の能力などを点数化する動きが広がっている。あるITベンチャーは、ネット上の個人データをもとにエンジニアなどの能力をスコア化。転職人材を求める企業向けに有償で提供している。こうした流れに冷や水を浴びせたのが、就職情報サイト「リクナビ」をめぐる問題だ。番組では、最先端の現場を取材するとともに、専門家の協力を得てリクナビ運営会社の手法を細かく検証。今起きていることの問題点を掘り下げ、データ活用のあり方を考える。

出演者

  • 大湾秀雄さん (早稲田大学 教授)
  • 宮下紘さん (中央大学総合政策学部 准教授)
  • 武田真一 (キャスター) 、 栗原望 (アナウンサー)

ネット情報で…あなたの能力・人格を点数化

去年転職した、システムエンジニアの室谷真里さん。
転職のきっかけは、知らない企業から突然届いた、「ヘッドハンティングのメール」でした。

“はじめまして。IT技術の知見が特に豊富でカバー範囲が広い点に、とても感銘を受けました。もしよろしければ、一度弊社オフィスに遊びに来ませんか? ”

差出人は、室谷さんが勉強中だった最新のプログラミング技術のことや、海外で働いた経験のことまで、詳しく記していました。

システムエンジニア 室谷真里さん
「どうやって見つけたんだろうって、まずひとつ、びっくりした。今、自分がやっている技術や、精通しているものを的確に把握されている。」

自分の能力を高く評価してくれていると感じた室谷さん。メールをきっかけに、能力を存分に生かしたいと転職を決意。今、新規ビジネスのシステム開発を一手に担っています。

ENECHANGE エンジニア 室谷真里さん
「(転職して)ものすごくよかった。今まで持っていたスキルを使いながら、さらにスキルアップしつつ、仕事ができる。」

実は、室谷さんの能力を見いだしたのは、別の企業が開発した「AI=人工知能」でした。都内にあるこの会社は、インターネット上の公開情報をAIで分析し、隠れた優秀な人材を発掘するサービスを展開しています。

LAPRAS 島田寛基CEO
「個人が『天職』を得るというところに、ちゃんと機能していない。より、今よりいい環境に行けると、逆にこちらから突然提案する。」

AIが分析するのは、ツイッターフェイスブックといったSNSや、ブログの記事です。

LAPRAS 島田寛基CEO
「キーワードを自動的に、機械学習という技術で抽出している。」

栗原:機械学習ですか?

LAPRAS 島田寛基CEO
「いわゆるAIというものです。」

AIを使った人材発掘の仕組みです。室谷さんは、ネット上のさまざまな場所で、システムエンジニアの仕事について投稿していました。システムは、バラバラに投稿された情報をつなぎあわせ、室谷さんという人物像を生成。得意な技術や技術セミナーへの参加歴、メールアドレスなどの情報を割り出していきます。

この会社では、143万人分のデータベースを構築しています。みずからのブログに、最新のプログラミング技術について、たびたび投稿を続けてきた室谷さん。AIは、その投稿を分析し、どのプログラミング言語を、どの程度使えるのか、10点満点で評価していました。ブログ記事についた「いいね」の数。そして、それをつけた人の技術的レベルも計算した上で、室谷さんの能力を見極めていったといいます。

LAPRAS 島田寛基CEO
「初心者からの“いいね”と、上級者からの“いいね”は重みが違う。エンジニアにとっては、履歴書より、実際どういう活動をネット上で行っているのかの方が重要。」

今回、室谷さんの同意を得て、評価シートを見せてもらいました。

栗原:技術力が3.39。

LAPRAS 島田寛基CEO
「3.39というのは、結構高め。全体の140万人のデータベースのうちのトップ10%。」

栗原:トップ10%、かなりいい人材ということ。

LAPRAS 島田寛基CEO
「ネット上の自分の流してきたデータを使って、趣味嗜好も含んだデータをマッチングに使えば、その人の天職に近いものをレコメンド(おすすめ)してあげたりできる。」

このサービスを利用して、室谷さんをヘッドハンティングした採用担当者は、AIを使った人材発掘システムの効果を実感しています。

ENECHANGE 採用担当 川西智也さん
「転職市場が非常に過熱している状況ですので、中堅以上のレベルの採用は、非常に難しくなっているのが現状。(室谷さんの獲得で)非常に助かっている。」

AIを活用し、表からは見えにくい、採用予定者や社員のリスクを見つけだそうという会社もあります。

調査担当者
「ネット上に、いろんな情報があるので、それを収集し、スコアリングして、どういうリスクがあるのかというのを出しています。」

調査は、企業から提供された履歴書に記された名前、年齢学歴といった情報をもとに行われます。対象者の同意を得た上で、調べているといいます。SNSで公開されている投稿の言葉遣い、投稿した時間まで把握。本人も気づいていない、攻撃性や自己顕示欲社会性などを「数値化」していきます。

栗原:攻撃性ってどういうこと?

調査担当者
「これは暴言を吐いたりとか、そういった投稿が多いと、このスコアが上がっていく。」

栗原:自己顕示欲というのは?

調査担当者
「自分の写真を多く投稿したり、毎日、何投稿もする。(こういう人は)入社してから、会社の情報とかをネットに書き込んだりする傾向が強くなる。」

AIが解析する際に用いる、独自の“ネガティブワード・リスト”を見せてもらいました。犯罪やコンプライアンス違反に関わる言葉だけでなく…。「は?」や「何言ってんの」など、何気なく発する言葉にも、対人関係のトラブルにつながるリスクが潜んでいると言います。

調査担当者
「700キーワードぐらいある。『名前』+『キーワード』をAIで自動的に検索していって、情報を読み込んで、そのあとにAIで、本当に本人のものなのかを判断していく。この数を人力でやろうとしたら、到底できない。」

さらに…。

栗原:TWと出ましたが、これは?

調査担当者
「これは、ツイッターのアカウントが見つかったということ。」

この会社では、匿名のアカウント、いわゆる“裏アカ”の投稿も、フォロワーなどを分析することで特定していくと言います。

調査担当者
「友達とかが発言した内容、情報をもとに、裏アカウントを特定したりします。」

栗原:友達のことも見る?

調査担当者
「そうですね。これ(やり方)はあの…あまり、これは言えない…。裏アカウントで発言する場合、本当に自分の本性が出やすい。」

実際、裏アカウントから、情報漏えいや暴言が見つかることもあったと言います。

現在、このサービスを利用している企業は、大手も含め100社以上。年間、およそ1万人ほどの調査を行っています。

ソルナ 三澤和則社長
「90%ぐらいは、ネット上の情報で、その人の人物像が分かると思う。ネットの情報で、信用をはかっていくような時代になってきている。」

AIが、能力から人格までもあぶりだそうとする時代。私たちは、どう向き合えばいいのでしょうか。

武田:AIを使った企業の人事に詳しい大湾さん、ネット上の情報で人格まで分かる。企業にとってはメリットもあるんでしょうけど、慎重に扱ってほしいなと思うんですが、いかがですか?

ゲスト 大湾秀雄さん(早稲田大学 教授)

大湾さん:特にネガティブチェックのために、ネット上の情報を使うというのは、2つの問題があると思います。
1つは、先ほど出てきた裏アカウントの特定も含めて、間違うことがあると思うんですね。そうしますと、まれなケースでも、間違った人が自分の意図しない形で不利益を被ってしまうことが第一の問題です。
2つ目に、ネット上での発言で萎縮してしまうと。これによって、オープンなコミュニケーションをとれなくなることが2つ目の問題かと思います。個人的には若干、疑問を感じます。

武田:そうした中、企業がなぜ採用にAIを使うようになってきているのか。大湾さんによると、「最適な人材の発掘・定着」そして、「採用業務の効率化」。それぞれどういうことでしょう?

大湾さん:もう1つの背景としては、企業の中にさまざまなデータが蓄積されてきたということもあるんですね。「最適な人材の発掘・定着」は、人材の確保が非常に深刻になってきたということです。ですから、どうやって優秀な人材をひきつけ定着させるかということが、企業の存続を脅かすような重要な課題になってきたと。そのために、活躍予測とか定着予測とか成長予測といった、定量的な指標を使って、人事管理をしていこうという動きが出てきています。
2つ目の要因としては、働き方改革の影響が大きいと思います。人事部というのは働き方改革の旗振り役を務めてきたわけですけど、人事部自身、非常に長時間労働が恒常化していた部署であったと。そうした中で、自分たちの部署で何か生産性を高めていこうといったときに、採用における書類選考の自動化とか、あるいは、人材配置案の作成の自動化といったものに目を向けていったということです。これまで何百時間もかかっていた、例えば書類選考といった仕事が自動化できるようになれば、空いた時間をより丁寧な面接ですとか、内定者のフォローといった、ほかの業務に使えるといったメリットがあります。

ネット情報で能力・人格を分析 どこまでOK?

武田:そして、もうひと方。個人情報保護法に詳しい宮下さんによりますと、法律では、不正な手段による情報の取得や病歴、思想、出自といった、要配慮個人情報の取得は禁止されている。一方、ネット上で公開されている情報などをもとに、その人の能力や人格を分析することは果たしてどうなのかとなっているわけですね。

ゲスト 宮下紘さん(中央大学総合政策学部 准教授)

宮下さん:現状の個人情報保護法では、公開情報であっても規制の対象とはなっています。ただし、AIの分析などをするときには、利用目的、プライバシーポリシーなどで、企業がしっかりとどういう目的で使うのかということを記載しておけば、AIによる分析能力や人格等を分析することは、現状では認められております。ただし、多くの利用者はプライバシーポリシーを読んでいない。そのようなことから、本当にどこからAI分析が行われているかということが1つ、現在、議論になっているのではないかと思います。

武田:きちんと利用目的を示して活用されているかどうかが今、少しあいまいな状況になっている。グレーな状況になっているということなんですね。

栗原:今回取材した2つの企業も、独自に個人情報保護の取り組みを進めているということでした。
まず例えば、どのように情報を集め、分析しているか。採用される側にオープンにしたり、情報の取り扱いについて問題がないか、弁護士に確認したりしています。2つの企業によりますと、ルールにあいまいな部分があるとして、それぞれが自主的な対応を迫られているということでした。

“リクナビ問題”学生の情報が…

武田:AIの利用の在り方に、重い問いを突きつけたのが就職情報サイト、リクナビをめぐる問題です。学生がリクナビに登録して、企業情報を見ていたところ、運営するリクルートキャリアという会社が閲覧履歴などから、AIで内定辞退率をはじき出し、それを企業に販売していました。学生にとっては、味方だと考えていたリクナビによって、将来が左右されかねない事態が起きていたんです。

この春、リクナビを利用して就職活動をしていた大学4年生の学生です。リクナビに掲載される企業のページで、毎日のように情報収集をしていました。

大学生(4年)
「(リクナビを)全く使わない就活というのは、本当に手間もすごいかかりますし。」

8月に入り、リクナビを運営するリクルートキャリアから突然、謝罪のメールが届きました。

信頼して使っていたリクナビが、内定を辞退する可能性をAIで勝手に予測し、企業に売っていたというのです。この学生は、志望する企業の内定が決まっていたものの、裏でこうしたことが行われていたことに不信感を募らせています。

大学生(4年)
「憤りを通り越して、すごい不安というか、ちょっと寒気がする感覚になりますね。」

リクナビは、どのように内定辞退率を算出したのか。
利用したのは、前年度に就職活動を行った学生たちのビッグデータです。学生がリクナビで、どの企業を何回見たのかといった閲覧履歴を集め、志望の傾向をつかみます。その上で、内定を辞退した人と辞退しなかった人とに分類。両者の違いをAIに分析させ、独自のモデルを作成したのです。そこに、今年度就職活動を行う学生のデータをあてはめることで、内定辞退の可能性を点数化。契約した企業1社につき、年間400万円から500万円で販売していました。

リクルートキャリア 小林大三社長
「本当に申し訳ございませんでした。」

学生の就職支援をうたいながら、学生の不利益になりかねない情報を企業に販売していたことに、批判が集中。リクルートキャリアは謝罪し、内定辞退率のビジネスは廃止に追い込まれました。

この学生が不合格となった企業のうち2社は、内定辞退率を購入した企業でした。リクルートキャリアからは、辞退率は採用の判断には使われていないと説明を受けましたが、納得できずにいます。

大学生(4年)
「こういうデータがありますよと(企業側が)言われて、もう見た時点で、忘れる、頭から全部取り去るというのは不可能なので、全く選考に影響していないと言い切ることは、さすがにできないんじゃないかな。」

今回の問題では、内定辞退率を購入していた企業の倫理も問われています。辞退率の購入にあたっては、学生から受け取ったエントリーシートの内容や学生の性格を分析するSPI、慎重な取り扱いが求められるこうした個人情報を、リクルートキャリアに提供した企業もあったのです。

企業側の認識を問うため、NHKは、内定辞退率を購入した企業にアンケートを行いました。購入前に、社内でどのような検討をしたか尋ねたところ、回答した17社のうち、社内で法的に適正であるか検討したと回答したのは5社のみ。検討すらしなかった企業も1社ありました。

さらに、NHKが独自に入手した資料からは、学生のネット上の履歴を把握しようとする、巧妙な手口が浮かび上がってきました。リクルートキャリアは、企業側に学生を対象にしたネット上のアンケートをするよう促していました。
「回答内容ではなく回答完了が必要」という文字。その狙いとは…。
学生がアンケートの回答を終えると、「クッキー」という学生の識別情報が得られる仕組みになっていました。リクルートキャリアがそれを得ることで、学生のネット上の履歴を、より詳細に分析できるようにしたのです。しかし、企業側はこうした目的については、学生に知らせていませんでした。

情報法制研究所 高木浩光理事
「誰がこれを主導してやっているか。もちろんリクナビ側が、やりませんかと提案しているのはそうですけど、最終的な主体は求人企業側が自らやっている。大変問題があると思います。」

学生の閲覧履歴をもとにAIが導き出す、内定辞退率。そもそも、その数字の正確さについても、学生から疑問の声が上がっています。
内定辞退率を勝手に算出されていた学生です。

栗原:今、見ているサイトは?

大学生(4年)
「外資就活ドットコム。」

就職活動中、この学生は「外資就活ドットコム」というサイトをたびたび閲覧していました。さまざまな業界の動向を調べるためで、外資系企業を志望していたわけではありませんでした。しかし、このサイトもAIの分析の対象となっていたことが明らかになっています。

大学生(4年)
「単に、外資就活ドットコムの掲示板を眺めているだけの就活生で、たいして外資系は受けていないかもしれない。実際に私は、外資系の企業は1社も受けていないので、そもそも、内定辞退率の予測を出す計算式が間違えているんじゃないか。」

学生不在の中、生み出された内定辞退率のビジネス。厚生労働省は、学生の就職活動に不利に働く恐れが高いとして、職業安定法に違反していると判断しています。

情報法制研究所 高木浩光理事
「たまたま(AIによって)学習されたモデルに当てはまらない人というのは、どこに行っても一切採用されない。原因も分からないということが起きうる。謎の条件による差別というのが、いっぱい出てくるかもしれません。いわば『マイクロ差別』とでもいう、名前も付いていないような条件による、人の差別というのが起きてくる可能性があると思います。」

AIが個人の将来を左右する現実に、私たちはどう向き合うべきなのか。

“情報の売買”問題は?

武田:宮下さん、リクルートキャリアのビジネスには法的な問題があったと指摘されているわけですが、企業がこういった情報を買っていたということにも問題があるんじゃないかと思います。どうでしょうか。

宮下さん:法的な問題と倫理的な問題に分けて考えることができると思います。まず、法的な問題で考えますと、本来であれば同意を取得していなければいけなかった。学生から同意を取得して、購入することを明示しておくべきでしたが、委託をしてリクナビから購入しておりました。この委託により、AI分析、人の人格や能力まで分析を委託で任せることが許されるのか。依然として、これは法的にもグレーな問題です。
倫理的な問題としては、学生の生き方、人間の生き方を点数化して、能力・資質を点数化するということ自体が、果たして許されるかどうかという問題が残されていると思います。

“AI活用”何が問われているのか?

武田:データやAIを活用する流れというのは、今後も拡大していくものと思われるんですが、大湾さんが企業側に求められる責任としては、こんな言葉を挙げています。「人間主体のデータ活用」。これはどういうことでしょうか。

大湾さん:2つ意味を込めていまして、1つは先ほど、マイクロ差別という言葉が出てきましたけれども、AIの活用に伴って、統計的な差別が新たに生み出されると。それから、バイアスの再生産という問題があります。予測をするために、過去のデータをAIに学ばせるということが必要になります。そうなると、過去のデータは人間の過去の意思決定ですから、そこにバイアスがあると、AIも人間のバイアスをまねて、それを再生産する。例えば、女性の評価が低いというバイアスがあった場合、AIが同じことをするという問題があります。そういったことを避けるためには、活用する人のAIリテラシーを高めていくことが必要で、それと合わせて、データサイエンティストを育成していくと。そういった知識を持った人たちが、バイアスとか差別をできるだけ補正しながら使っていくことが、まず大事だと思います。
2つ目には、社員あるいは利用者が不安を感じて、労使関係とか、あるいは利用者との関係が毀損されてしまうことが、一番怖いんですね。こういったことを避けるためには、やはり企業はプロセスを透明化すること。それから、企業の説明責任を果たすということ。それから、重要な意思決定には、必ず人間が関与するという原則をきちっと守っていくことが必要だと思います。こういった、人間主体のデータ活用を達成するためには、企業の方もきちんと基本理念を確立して、社員の幸福、働きやすさのためにデータを活用するんだ。社会的なものを向上させるために、AIを活用するんだというビジョンを、しっかり固めていくことが大事だと思います。

栗原:ここで紹介したいのが、ヨーロッパの事例です。EU=ヨーロッパ連合では、AIによる個人情報の分析について、分析の対象とされない権利、そして、分析結果に異議申し立てする権利が認められているんですね。

武田:宮下さん、それぞれ、もう少し詳しくご説明いただけますでしょうか。

宮下さん:ヨーロッパでは、個人データの保護、それ自体が基本的人権として位置づけされています。AIによって分析をされ、機械のみによって、結果が、人生が左右される。その場合、人間の介入を求める権利が明文化されました。また、不正確な結果に基づいて不利益を被った場合、異議申し立てをする権利が明文化されております。

武田:これは、今後の日本の在り方を考える上でも、十分参考になるということですね。

宮下さん:我が国でも、来年、個人情報保護法の改正が予定されていますけども、このような動きが、ぜひとも参考になるかと思っています。

武田:AIによって人々が点数化される時代。どう向き合えばいいと思いますか。

宮下さん:データによって、人生の生き方が左右される、差別される、偏見を受ける。このような社会ではなくて、プライバシーの倫理と哲学を持った形で、人間中心、利用者中心の社会、AI技術の発展を迎えるべきではないかと思っています。