NHK 解説委員室

これまでの解説記事

ChatGPTの脅威・高度AIと どう向き合う

三輪 誠司  解説委員

言葉で質問などをすると自然な言葉で答えを返してくれるChatGPTというAI・人工知能が世界に大きな衝撃を与えています。AIがビジネスやくらしを便利にするという期待の一方で自分の仕事が奪われてしまうという懸念が現実味を帯びたと感じる人も出てきています。高度なAIの実用化が迫る中、私達はそれとどう向き合ったらいいのでしょうか。

j230414_01.jpg

j230414_02.jpg

ChatGPTは、アメリカのベンチャー企業「オープンAI」が開発したAI・人工知能です。最大の特徴は、私達が話している「自然言語」で質問をしたり、命令をしたりすると、答えを返してくれることです。たとえば「10年会っていない友人に出す手紙を書いてほしい」と入力すると、10年前の思い出を懐かしみ、再開したいという趣旨の文章を書いてくれました。1分もしないうちに、人が書いたような日本語が表示されるのは、驚くしかありません。

ChatGPTは、質問応答、作文、文章の要約、翻訳、プログラミングなどができます。また、数多くの言語に対応しています。

どうしてこのような機能が実現できたのでしょうか。それは、LLM・大規模言語モデルという仕組みに秘密があります。

j230414_03.jpg

このシステムは、インターネット上などにある数千億という文章をもとに、言葉のつながりを重点的に機械学習しています。例えば、「明日の天気は」に続く言葉は、「晴れ」「雨」「雪」などの確率が高く、「山」「机」「自動車」などは低いことを学習しています。これによって、自然な文章で答えを返すようになっています。

j230414_04.jpg

ただ、ChatGPTには、いくつかの問題点があります。(1)正しい答えを出すとは限らない。機械学習は、確率的な仕組みがあるため、精度は100%にはなりません。(2)新しいアイデアを出すことはない。これは、過去に誰かが書いた文章をもとに学習しているためです。(3)情報が流出する。ChatGPTは、質問として入力された文章も学習データとして取り込むことがあるため、企業秘密や個人情報などを入力すると、データは事実上流出したことになります。

特にデータの扱いについては不信感を招いています。イタリアでは、ChatGPTが利用者の会話の内容など、個人データを法的根拠がないまま収集しているとして一時的に使用を禁止すると発表しました。開発企業は、可能な限り個人情報を削除していると主張していますが、どこまで対応できているか確認しきれていません。しかし、多くの人が安心して利用するためには、データの扱いについて透明性を確保することが前提です。開発企業の十分な説明が求められます。

さて、ChatGPTのような高度な対話型AIについては、大手IT企業が、同じようなシステムの開発を急いでいます。将来的には正確さと安全性を向上させた高度なAIが実用化される時代が来ることは間違いないというのが、ほとんどの専門家の意見です。
ここからは、そのような高度なAIと共存する社会はどのようなものか、期待されることと懸念されることについて考えていきます。

j230414_05.jpg

まずは、期待されることです。高度なAIは、自然言語で人間と会話できるため、ビジネスの分野では、顧客からの問い合わせに自動で答える「チャットボット」などに組み込んだり、さまざまな事務作業をやってもらったりするなどの用途で実用化できると見られています。また、既存のITシステムに組み込む方法も効果が期待できます。難しい使い方を覚えなくても、言葉で操作できるようになるからです。簡単になって利用者が増え、DX・デジタルトランスフォーメーションが急速に進む可能性があります。人手不足の解消につながる企業も出てくると考えられます。

その一方で、懸念されることがあります。特に影響が大きいと見られる、雇用と教育について考えたいと思います。

j230414_06.jpg

雇用の面では、AIが人手不足の解消を超えて、人の仕事を奪う可能性があることです。

AIが専門の三菱総合研究所の比屋根一雄研究理事は、「企業内では単純な定型作業をAIに任せたり、下請け業者に発注せずにAIで処理したりする傾向が、徐々に進んでいくだろう」と話しています。それが進めば、こうした業務を担っていた人や下請け業者は需要が減っていきます。それに備えて、比屋根さんは、新たな時代のスキルが求められるようになるだろうと話しています。それは高度なAIを使いこなすスキルです。

j230414_07.jpg

まずは「言葉を使ってAIに的確な指示ができるスキル」です。日本人は「言わなくてもわかるだろう」と考えることが多く、言葉で丁寧に指示を出すことが苦手と言われています。しかしAIには一般常識がないため、具体的に指示することが求められます。

2つめは、「AIの答えが正しいかどうか判断するスキル」です。AIの能力が高くなっても、完全に正しい答えを出すことは不可能です。このため、AIの回答を読み解き、正しいかどうか確かめなければなりません。こう考えると、高度AIと共存する社会では、人間は、読み書きという基本的な国語能力がこれまで以上に大切になります。そうでなければ、AIに仕事を依頼することができないだけでなく、AIの答えを全てうのみにすることになってしまうからです。

つぎは教育上の懸念について考えてみます。
ChatGPTを使って、小学生が読書感想文を書いたり、大学生がレポートを書いたりしたケースがあると報告されています。こうした使い方について、教育関係者からは、AIの利用を禁止するべきだという意見があります。ただ、自宅でやった課題を提出させるなら、禁止しきれなくなるでしょう。自分の力でやることを求めるならば、学校内で作成させるしかありません。それよりも大きな問題は、AIに依存しきって、考える力が衰えないようにすることです。

j230414_08.jpg

メディアと社会とのかかわりについて研究している、明治大学の大黒岳彦教授は、近年、長い文章をまとめることが苦手な若者が増えていると感じているということです。

これについて大黒教授は、短い文章の集まりで構成されているSNSなどのネットメディアにだけ接しているうちに、思考の断片化が進んでいるのではないかと考えているということです。思考の断片化は、新しいアイデアを生み出す創造的な行為につながらないということです。もし、高度AIの出す答えに接することが多くなり、文章を書いてもらうことが当たり前になるとり、思考の断片化は一層進むおそれがあるといいます。

それを食い止めるためには、価値観や世界観を備えたさまざまな情報に接し、それをそしゃくし、自分の考えを体系的にまとめて表現したり、議論したりする習慣が欠かせないということです。言葉による表現を全てAIに任せきりにせず、人間も続け、考えていく。私たちは、この大切さを改めて自覚する必要があるのではないでしょうか。

特定の課題を迅速に正確にこなすだけでは、AIでもできる時代がいずれ到来するでしょう。このため、人間はAIでは成し遂げられない創造的な行為がもっと求められるようになります。AIを使いこなしながらも依存せず、日常的に知的な考察を続けていくことができなければ、人間はAIに仕事を奪われ、AIの出す答えに乗っ取られていく危険性があるのです。

高度なAIは、人間にとって必要な力と、人間の存在意義を見つめなおすよう、私たちに呼び掛けているのです。


この委員の記事一覧はこちら

三輪 誠司  解説委員

こちらもオススメ!