COLUMN

今のうちに考えたい「AI時代の人権」

2019.05.07 :

「AI=人工知能が新たな差別を引き起こす」

 

最近、こうした指摘を目にするようになりました。社会のさまざまな場面で人工知能の活用が進む中、いま考えるべきことは何か。

 

「令和」がスタートして間もない5月3日の憲法記念日に都内で開かれた講演会から、この問題を考えます。

人工知能の判断は「正しい」のか?

研究者などおよそ1200人が集まった講演会場で、壇上に立っていたのは慶應大学の山本龍彦教授。

人工知能が膨大なデータを学習することで、個人の好みや健康状態、それに信用力まで分析できるようになり、企業の採用活動のほか、海外では犯罪捜査にも活用されていることを紹介しました。
しかし、こうした人工知能の分析は、あくまで学習したデータから導き出した「予測」に過ぎません。元のデータがゆがんでいれば分析もゆがむことになると、山本教授は指摘します。
「人工知能が予測した結果が実際とずれてしまった場合、プライバシーだけでなく、個人の自由さえも脅かされるおそれがある」
実際、海外では、差別や偏見が含まれた過去のデータを人工知能が学習した結果、差別的な判断を下したケースも報告されていて、山本教授は、同じことが日本でも起こりうると懸念しています。

人工知能が新たな差別を生む?

もうひとつの問題は、人工知能が膨大なデータから自動的に規則性を読み取って判断を下すため、「なぜそう判断したのか」が外部から分からないことです。このため、人工知能が個人の点数化に使われた場合、低い評価を受けた人がどうすれば評価を高められるかも分からず、再挑戦の機会が奪われかねません。

山本教授が最も懸念しているのは、これによって「バーチャルスラム」と呼ばれる新たな被差別集団が生み出されてしまうことです。

山本教授は、私たちの人権と人工知能との関わりについて、おおもとの憲法まで立ち返って考える必要性を訴えています。
「欧米では、人工知能によって生じうる課題について、憲法的な議論を踏まえて制度面での対応が進んでいる。日本でも、人工知能を憲法の問題として議論を進める必要がある」

どのようなAI社会を目指すのか

一方で、人工知能が人事面接を行うことの是非について、山本教授が学生に聞いたところ、賛成と反対とが半々に割れたということです。
山本教授は、「これまでの人間社会の方がよほど不公平で、人工知能は公平に判断してくれる」といった思いが背景にあると分析しています。

私たちの社会をより便利なものにする力を持つ人工知能。私たち一人ひとりが、人工知能とともにどのような社会を築くのかを考えるべき時が来ているのかも知れません。

科学文化部記者

黒瀬総一郎

平成19年入局。岡山局、福岡局を経て平成26年から科学文化部。海洋や天文のほか、現在は、サイバーセキュリティーやネット社会の問題を中心に取材。また、全国の水辺を巡って、ウナギやサンゴなど、生態系の保全や資源管理に関する取材を続けている。川で取ってきたニホンウナギを、長年、自宅で飼育し、体長は80センチに(すでに死亡)。

黒瀬総一郎記者の記事一覧へ

記事の内容は作成当時のものです

COLUMN一覧に戻る

関連記事