デジタル

AI・メタバースLabo ~未来探検隊~

ChatGPTが裁判官?AIに裁かれる未来 受け入れますか

ChatGPTが裁判官?AIに裁かれる未来 受け入れますか

2023.05.18

話題の対話型AI「ChatGPT」を裁判官にした模擬裁判のイベントが、東京大学で開かれた。

機械が人を裁く未来を受け入れられるのか。

司法の未来のあり方について問題提起しようと、学生たちが企画した。

"AI法廷"に多くの傍聴者

東京大学の学園祭が開かれた5月13日、安田講堂には多くの「傍聴者」が詰めかけていた。
前代未聞の「AI裁判官による模擬裁判」を傍聴するためだ。

1階席の傍聴席は ほぼ満席になった

裁判官は対話型AI「ChatGPT」

事件の概要は以下だ。

模擬裁判で扱う架空事件の概要

元交際相手から嫌がらせを受けた女性が、現在の交際相手に相談したところ、交際相手が元の交際相手を殺害し、女性も殺害に共謀したとして殺人の罪に問われる。

検察官や弁護人、被告人は人間が務め、裁判官役を「ChatGPT」が担った。

裁判官はChatGPTだ

AI裁判官の判決に注目集まる

模擬裁判では、検察側と弁護側は真っ向から異なる意見を主張した。

被告女性の弁護士役さん
被告女性の弁護士役さん

「殺害を依頼したり、殺害計画を共有したりしたことはなく、共謀して被害者を殺害したとの検察の主張は全くの誤り」

「元交際相手の殺害を企図し、交際相手と共謀して、これをなそうとしたことは明らか」

検察官役
検察官役さん

審理中、スクリーンにCGで映し出された「AI裁判官」は、合成された音声で証人などに質問した。

ChatGPTさん
ChatGPTさん

「殺害について具体的な計画や手段を提案しているところを聞いたことはありますか」

審理は、およそ1時間にわたって行われ、結審。

AI裁判官が判決を言い渡した。

「判決」を下すAI裁判官

(ChatGPT)
「主文。被告人は殺人罪の共犯とは認められないため無罪とする。被告が憎悪の感情を持っていたことは事実であるが、具体的な殺害計画や共謀が確定的に立証されたわけではない」

判決理由も読み上げられ、模擬裁判は閉廷した。

判決が言い渡される直前には、傍聴した人たちに対して「有罪か、無罪か」を尋ねるアンケートも実施された。

実行委員会によると、回答した864人のうち「無罪」が559人。「有罪」が305人だったという。

傍聴者はどう見たか

傍聴した人たちからは、AIならではの長所や課題を指摘する声があがった。

さん

「AI裁判官の途中の質問は人間だったら、もう少し違うことを尋ねていたのではないかと思いました。AIだと公平というか、見た目など、人間なら考慮してしまう、影響されてしまうところが、影響されないという利点もあるのかなと思いました」

「結果は無罪でしたが人間の裁判官だったら有罪だったのではと思いました。機械にはブラックボックスなところがあると思うので、判断を納得させるという点では人間に委ねたほうがいいと思います。そうでないと、いつか自分が被告になった時に最後まで納得できないまま疑問が残ると思います」

さん

「人の判決と機械の判決を両方比較できたらおもしろいと思いました。公平性なら機械のほうが人間よりも上になると思いますが、刑事裁判には心情的なものが強いため、現時点では刑事裁判は人間のほうが適切にできると思いました」

法律の専門家はどう見たか

模擬裁判を傍聴していた弁護士の田上嘉一さんは。

「判決に至るまでの内容や判決理由の述べ方まで、かなり精度が高いと思いました。無罪という判決、共犯については、殺害を依頼したという点の証拠は不十分だと思いましたので、その共同正犯は認められないだろうなと」

また、司法の場における活用についても可能性を感じたという。

さん

「AIが裁判官そのものを担うのは難しいと思いますが、補助ツールとしての利用、例えば論点を整理させるような使い方は現実的なところまで来ているのではと感じました。AIで人が気付かない論点をあぶり出したり違った視点を入れたりと、全く感情を入れずにアウトプットを出してくれる機械は非常に有用だと思います」

一方で、課題についても。

さん

「倫理的な観点からの課題はあると思います。例えば仮に有罪の判決となった際に、人間ではなく機械に『あなたが罪を犯しましたよ』と言われたときに被告人がどういう心理になるか。人として納得できるのか、感情として受け入れることができるかという問題です。また、判決に至った過程がブラックボックスとなっている点も課題だと思います。どういう仕組みで、その判決に至ったのか。過程の中に人間が入ってチェックすることが大事です」

AIによる判決が出るまでの過程は

今回裁判官役を担い、判決を出した「ChatGPT」は、入力した質問に応じて、答えを返してくれる対話型のAIだ。
人間が作った裁判のシナリオ、証拠や証言のデータを入力し、それにもとづいて最終的に判決を下した。

代表の岡本隼一(右)さんと渉外担当の中島胡太郎さん(左)

企画した有志の学生団体の代表・岡本隼一さんは、AIが公正な判決を導き出すように指示するのに、多くの課題に直面したと話す。

「順番」で「全部無罪」に

現実の裁判では終盤、検察官、弁護人の順番で主張を述べ、最後に裁判官が判決を言い渡す。
この順番が、公正さを保つ大きな壁になったというのだ。

検察官が「有罪」、弁護人が「無罪」という順番で主張すると何が起きるか。

さん

「GPT(=AI)の特性上、後ろのほうで入力された言葉にかなり引きずられるっていう性質があって、何が起きたかというと全部「無罪」になってしまったんです」

直前の主張に引っぱられてしまうという大きな課題が分かったのだ。
現在の「ChatGPT」のアルゴリズムのくせのようなものだと考えられる。

試しに、打ち込む情報は変えずに検察官と弁護人の順番を入れ替えてみた。
すると、今度は「有罪」の判決が出た。

内容ではなく、順番で判決に違いが出る。
このままではいけないと、学生たちはAIが公正な判決を出すための新しい裁判の仕組みを考える必要があった。

AI用の裁判を新たに設計

そこで、検察官と弁護人の主張の後の判決を、3人の裁判官の話し合いで行うように指示した。

どういうことか。

AIに3つの人格を持たせた裁判官を作らせ「合議制」を取らせたのだ。

A裁判官は、検察官寄りの意見を。
B裁判官は、弁護人寄りの意見を述べる役割を与える。
そしてC裁判官は、AとBの意見をまとめる裁判官にした。
こうすることで、検察・弁護側、どちらの意見にも影響を受けない判決を出そうとしたのだ。

さらに「事件の概要」「証言」「論告と弁論」などの情報を段階的に与え、3人の裁判官に「さらにディスカッションを深めてください」と繰り返し会議をさせた。
具体的な条件を繰り返し与えて考えさせると精度が高まるというChatGPTの特性をいかしたのだ。

そして「判決は全員一致で書く必要がある。ディベートを行い3人の意見を一致させてください」などと指示。

すると最終的には、全員が一致した意見にまとまった。

岡本さんたちは、ChatGPTとのやりとりは、およそ3か月の間に少なくとも700回以上行っただろうと振り返った。

岡本さん自身も法律を学んでいる現役の東大生だ

「これくらい筋の通った判決を出してくれたことは、まず本当に達成感があった。民主主義社会に生きる市民1人1人に未来の司法の形を自分事として考えてほしいというのが狙いでした。ネットも含め予想以上に多くの人たちが訪れ、立ち入った議論をする人もいるなど関心が集まったことはうれしく思います」

構想からおよそ半年。
企画した学生たちもAIとの向き合い方に気付きがあったようだ

岡本さん(左)と中島さん(右)
中島さんさん
中島さんさん

「AIの実力を正しく認識して、ここまでは問題ないな、ここ超えるとやっぱり人間社会に悪影響あるかなという点でAIの限界を正しく知ることの重要性をやっぱり実感しました」

「AIを手足って言うとAIさんに悪いな、二人三脚としていろんなことをやっていきたいなと思います」

岡本さん
岡本さんさん

専門家「価値ある挑戦だった」

今回の裁判を傍聴していた、AIと人間との付き合い方などの情報学が専門の国立情報学研究所の佐藤一郎教授は「価値ある挑戦」と評価した。

「たいへん価値がある挑戦といえます。司法も迅速化は求められており、司法におけるAIの利用は望まれていますが、まだ具体化していません。AIにとって司法における事実認定、法解釈などは得意とはいえません。ただ、試してみないことにはAIにとって何が難しいかがわかりませんし、対策もとれません。難しさを知るだけでも、この挑戦は意義がありました」

その一方で、AIが今後より進化し、私たちの生活に浸透していく中、活用や規制を含めたルール作りとAIとの棲み分けを明確にすべきと訴えた。

「今後、AIが広がることで、残念ながら廃れる仕事や、所得格差は生じてしまうだろう。そのためAIを利用しつつもAIには置き換えられない知識や技術をもつ人材を育成=教育が企業にも政府にも求められる。また規制については、日本では規制はイノベーションの阻害になるとしてAIの規制に反対する意見があり、規制に関する議論がなされていません。しかし自動車は道路交通法や排ガス規制など、多様な規制があるから安全に使えているし、その中でイノベーションが生まれている。AIは効用も大きいが、影響が大きい以上、何らかの規制は避けられないのではないか」

模擬裁判終了後にプロンプトを公開

模擬裁判の終了後、岡本さんたちは、AIにどのような指示を与えて判決を導き出したのか、やりとりを示した「プロンプト」を、インターネットで公開した。

「AI裁判官の公正性を確認してもらうこと」が主な目的だ。

この「プロンプトの公開」について佐藤教授は「参考になる」と評価した。

「企業が経営判断で最終的には人間が判断するにしてもAIの中を判断の補助に使うことは出てくる。そのときにAIの判断の特性を理解して、工夫する。そしてそれを公開することは、人間がAIをどどう使いこなすかを考えていくときにとても重要になる」

今回の学生たちの取り組みは、司法だけでなく、今後幅広い分野でAIを活用していくための方策を探る、チャレンジングな実験だったと思う。

今後ますます利用が広がっていくAI。
このスマートな相棒と、私たちはどう共存していくべきか。

多くのことを考えさせられた。

ご意見・情報 お寄せください