NHK 解説委員室

これまでの解説記事

松原仁「生成AIとどうつきあうか」

東京大学 教授 松原 仁

s230517_002.jpg

最近生成AIと言われるものが注目されています。みなさんも生成AIの代表格であるChatGPTという名前を見聞きなさっているのではないでしょうか。ChatGPTは人間が何か日本語で質問をするとすぐに答えが戻ってきます。その答えがなめらかな日本語でまともであるというので話題になっているのです。

ここ10年ほどAI、人工知能が大きな進歩を遂げてきましたが、その進歩のもとになっているのはディープ・ラーニング、深層学習という技術です。これまで人の顔の写真を見せると誰かがわかる、日本語で話をすれば何を言っているかわかるといった認識の機能においてディープ・ラーニングは能力を発揮してきました。最近になって新たな絵を描く、新たな文章を書く、という生成の機能において能力を発揮するようになってきました。それらを生成AIと呼んでいます。生成AIには画像を生成するものと文章を生成するものがあります。どちらも言葉を入力するとその入力に対応する画像や文章を出力します。入力の言葉を英語ではプロンプトと呼びますが、日本では呪文という言い方もなされています。
生成AIの例をあげてみましょう。

s230517_001.png

文章生成AIの代表格であるChatGPTに「今の日本が抱える問題についてわかりやすくまとめてください」という呪文を入力するとこのような文章を生成します。これは回答の一部です。もっとも同じ呪文を入力しても回答文は変わることがあります。あるときにこういう文章を出力したということです。アメリカのオープンAIという会社からChatGPTが発表されたのは2022年の11月ですが、それ以降ChatGPTの改良版であるGPT-4を含めて文章を生成するAIがいくつも発表されています。言語を生成するAIは大規模言語モデルというものを使っています。インターネット上に公開されている膨大な文章のデータを集めてディープ・ラーニングで学習させたものがChatGPTなのです。膨大な、というのは本当に膨大で、人間が全部に目を通すなどということはまったく不可能です。このAIは地球上のどの人間よりも物知りということになります。最近、医者の国家試験をこのChatGPT-4が合格したというのも話題になりました。ちなみにChatGPTは日本語の入力ができますが、内部では英語に翻訳してから処理をして、その結果の英語を日本語に翻訳して出力しています。そのため日本語で聞くよりも英語で聞く方が少し精度がいいと言われています。
AIの研究は始まってから70年以上が経過していますが、なめらかで長い文章を生成することはずっとできていませんでした。AIのチャットは以前からありましたが、出力できたのは短い単純な文章だけでした。それが大規模言語モデルを用いることによって長い複雑な文章も生成できるようになりました。人間の生活は言葉のやり取りが中心になって動いているので、AIがこれだけうまく言葉を扱うことができるようになれば、仕事でも学校でもプライベートでもさまざまなところで人間を助ける便利な道具として使えることが期待できます。実際事務作業を中心としていろいろなところでChatGPTが使われ始めています。

いくつかの問題があります。
ひとつは間違った内容の文章を書く可能性があるということです。大規模言語モデルは、呪文と言われる問い合わせに合わせてよく似た情報を探して集めてきてそれらをつなげて回答の文章を作ります。作った文章の内容が正しいか間違っているかの確認はしていません。正解によく似ていればその回答はほぼ正しいと言える場合が多いということにすぎません。論理的な推論に基づいて回答を出しているのではないのです。AIの間違った回答を鵜呑みにしてしまうと大きな問題になってしまうかもしれないので、AIの回答が合っているのかどうかを人間がチェックする必要があります。答を知らない質問に対してわからないと答えずに知ったかぶりをしてまったくのでたらめを答える場合もあります。AIにとってはそのでたらめな答えが正解に近いということなのです。改良版が出てきて間違いが減ってわからないと答えることが多くなってきましたが、大規模言語モデルを使っている限りは100%正解ということはないので、そう思って使う必要があります。もっともわれわれ人間も100%正解ということはないという点で同じなので、今回のAIは人間のような存在と見なすのがいいのかもしれません。

もう一つはデータを集める方法の問題です。ものすごい量の文章データを集めていますが、いちいち文章を書いた人間の許可は取っていません。100万人や1000万人の全員の許可を取るのは事実上不可能です。学習に使ったデータの提供者に謝礼も払っていません。一人一人に払うのも事実上不可能です。日本の法律では許可を取らずに謝礼を払わずにデータを集めて使っていいことになっています。しかしデータを使ってAIのシステムを開発してそのシステムでお金を稼ぐとすれば、データ提供者にもその利益の一部が提供されるべきだという考え方はあると思います。

また、自分の作ったデータはAIの学習には使ってほしくないと拒否すること、これはオプトアウトと呼ばれていますが、これも権利として認めてほしいという考え方もあると思います。ChatGPTを含めた生成AIの技術はまだ生まれたばかりで発展途上にあります。社会として技術の発展とさまざまな社会的な問題の折り合いをどうつけていけばいいかの議論をしていく必要があります。

さらには教育にどう使うか、あるいは使わないかという問題があります。ある種のレポートの問題に対してはAIを使えば正解の回答をすることができてしまいます。ChatGPTはコンピュータのプログラムも作ることができるのですが、プログラムを作りなさいという課題にもAIが回答できる場合があります。勉学に励むべき学生がいつもAIに任せっきりになってしまっては勉強になりません。一方でAIを使って勉強することによってさらなる高みを目指せる可能性があります。いちがいに使ってはいけないというのではなく、使うべきところと使うべきではないところをうまく切り分けていくべきでしょう。
ChatGPTを代表とする生成AIは画期的な技術です。私はこれを自動車の発明になぞらえたいと思います。世界最初の自動車であるT型フォードが発明されました。それまでの馬車に比べて移動が格段に便利になりました。発明されてそこに現物が存在しているので、それの真似をして他の人が類似品を作ることができます。自動車免許の制度もなく、制限速度もなく、道路標識もありませんでした。そういう状況から時間をかけて自動車を運転するためのルールを整備してきました。自動車はともすれば死亡事故も発生する危険な道具ですが、メリットがデメリットにまさるとみんなが見なしているので使い続けて今に至っているのです。
生成AIはT型フォードの発明直後の状況と言えます。生成AIはすでにそこにあります。もはや馬車の時代に戻ることはできません。自動車がT型フォードから現在のものに改良されてきたように、生成AIもこれから改良されていくはずです。
社会としては安心して使えるようにルールを整備していくこと、個人としてはルールに注意しつつ使っていくことが求められると思います。

こちらもオススメ!