岸本充生「ELSIとは何か」
2022年12月21日 (水)
大阪大学教授 岸本 充生
みなさんはこれまで新しいテクノロジーが社会に実装される場面に出会ったことはどれくらいあるでしょうか?私個人でいいますと、子どもの頃には自動改札機やCDプレーヤーなどが社会実装されました。その後、インターネット、パソコン、スマートフォンなどデジタル技術が次々と社会実装されてきました。最近では電動キックボードにも乗ってみたりしました。
こうした新しいテクノロジーは私たちの生活を便利にしてくれる反面、社会実装当初には様々な課題が顕在化します。安全は確保されているか、何かあった場合の責任の所在は明らかか、社会が受け入れてくれるのか、差別や不公平を生み出さないか、などです。特に、パーソナルデータを利活用したり、AI・人工知能を実装したりする場合では、企画構想段階から実装段階までの期間が非常に短いことから数多くのいわゆる炎上事例があります。
他方で、新しいことをしようとする際に、何かあったらどうするのかを気にしすぎて何もできなくなる、いわゆる「何かあったらどうするんだ問題」というものもあります。両者は一見正反対に見えますが、原因は共通しています。テクノロジーと社会の間のギャップを埋めるための知恵やノウハウが足りていないことです。私たちはこのギャップを、「倫理的・法的・社会的課題」、すなわちELSI・エルシーと呼んでいます。
そこで今日は新しいテクノロジーのELSIについてお話いたします。
ELSIとはエシカル・リーガル・ソーシャル・イシューズの頭文字をとったもので、イーエルエスアイと書きます。
ELSIは元々、アメリカで1990年にヒトゲノムを解読するという国家プロジェクトが始まった際に設けられた研究プログラムの名前でした。
ヒトゲノムがすべて解読された際に生じるかもしれない社会の課題をあらかじめ予想し、それらに備えておこうという意図で始まり、成果の1つとして「遺伝子情報差別禁止法」の制定が挙げられます。所管省庁の外部向け研究予算の「少なくとも5%」がELSIに関する研究に割り当てられることが法律で定められました。ヨーロッパでも同様の取り組みが行われ、近年では研究公正の考え方も取り入れた「RRI・責任ある研究・イノベーション」という概念に発展しています。
他方、日本ではELSI研究は生命科学分野において実施されてきたものの、最近までは十分な公的研究費が付けられてきませんでした。そこで私たちは生命科学分野で30年間使われてきたELSIという言葉を新しい文脈でリバイバルすることを試みています。
1つは、ビッグデータの利活用やAIの実装を含む新しいテクノロジー全般に対して適用することです。もう1つは、ELSIとひとくくりにされてきたものを、倫理的(E)の課題、法的(L)の課題、社会的(S)の課題に便宜的に分けて検討する枠組みを提案することです。後者についてみてみましょう。
社会(S)とは、SNSに現れる世論のようなものと思ってください。変化しやすく不安定です。これに対して倫理(E)は社会において人々が依拠すべき規範であり、短期的には安定的です。ただし中長期的には変化します。理想的には法律(L)の基盤になります。例えば、死刑制度や同性婚といったそれらの是非に賛否がある課題は最終的には法律に反映されますが、その背景には何らかの倫理規範があり、さらにその背景には私たちが受け入れるかどうかという社会の受容というものがあります。
新しいテクノロジーが社会に実装されると、現在の法律(L)、倫理(E)、社会(S)のそれぞれにギャップが生じます。古典的な例として有名なものは19世紀末のカメラです。カメラが安価になり一般市民が入手できるようになると、一部の人たちが有名人のプライベートな写真を撮って雑誌や新聞に売り込んだと言われています。こうしたことがきっかけになり「プライバシー」という概念が生み出され、さらにはプライバシーの権利といった法的な考え方につながったのです。
つまり、新しいテクノロジーの社会実装によって生じたギャップを、新しい概念によって埋め合わせたわけです。最近でも、ドローン、ゲノム編集育種、遠隔診療、自動運転技術といった新しいテクノロジーが次々と出てきています。またコロナ禍では、在宅勤務やオンライン会議、オンライン授業なども普及しました。当初は以前からあるルールとの間でギャップが生じたこともあったのではないでしょうか?大学でも当初、オンライン授業において学生に顔出しをどこまで強制すべきかについて議論になりました。こうしたギャップがときには事故や事件、あるいは、いわゆる炎上につながります。
新しい技術の社会実装という文脈では次の2つのパターンがよく見られます。
1つ目のパターンは、法的には大丈夫なのに、倫理的・社会的にダメというケースです。つまり、法律を遵守しているにもかかわらず、いわゆる炎上につながってしまうようなケースです。パーソナルデータを扱う新しいビジネスなどでよく見られます。
2つ目のパターンは逆に、社会が求めているのに現行の法律では認められないか、そもそも対象になっていないようなケースです。ドローンも自動運転技術もそうでした。これら2つのパターンは一見、正反対に見えますが、ともに、技術革新のスピードが、法規制が改正されるスピードを大きく上回っていることの必然的な帰結なのです。
これまで企業活動は法律(L)や社会(S)を拠り所としてきました。部署でいうと法務や広報になります。しかし新しいテクノロジーの社会実装においては、法律(L)は技術革新の後追いにならざるを得ません。他方、社会(S)は移ろいやすく不安定です。そのため、相対的に、倫理(E)の地位が高まってきているのです。近年、AIの利活用を進める企業がこぞって、AI倫理原則を策定しているのはその表れです。外部有識者会議を設置して倫理的な観点から助言を求める動きも広がっています。それでは倫理(E)とは何でしょうか。それは外から与えられるものではなく、組織ごとに何を守りたいかを主体的に考えることから始まります。企業では社訓だとか創業理念、大学だと建学の精神といったものも参考になります。倫理(E)に基づくテクノロジーの社会実装には、自律的な判断と責任が伴うことになります。
最後にELSIへの対応についてまとめましょう。
テクノロジーの研究開発の早い段階から社会実装を見据え、生じるかもしれない倫理的・法的・社会的課題ELSIを予想します。そのためには社会実装のシナリオや、どういった人たちが影響を受けそうかなど、想像力を働かせて洗い出す必要があります。そして、それらに対処するためのアプローチを検討します。
倫理原則を策定したり、必要となるルールを提案したり、発生するかもしれないリスクの評価手法を開発したりすることなどが挙げられます。
これから必要となるテクノロジーの開発スタイルは、テクノロジー自体の研究開発とELSIへの対応を、研究開発の当初から社会実装まで一体的に推進していくものとなります。