誤った使われ方に気をつければ、大きなチャンスになります。
ChatGPTによって急にAIが身近になったことで、AIをめぐる議論全体が変わりました。
倫理と価値観をもって適切に利用されるよう、安全対策がいっそう重要になったのです。
なぜなら、テクノロジーを誰も止めることはできないからです。

AIの急速な普及にどう対応?規制の動きは?EUの高官に聞く
G7=主要7か国のデジタル・技術相会合が29日から群馬県高崎市で開かれます。EUを代表して出席するヨーロッパ委員会のベステアー上級副委員長に、会合を前に、ChatGPTを含めたAIの急速な普及に対する受け止めやEUが進める規制の動きについて聞きました。
(聞き手:ブリュッセル支局長 竹田恭子)
ChatGPTのような生成AIをどう見ていますか?

EUとしてAIのリスクや規制をどう考えていますか?

私たちはテクノロジーを規制するのではなく、AIによって人が差別的な扱いを受けないように、AIをどう利用するのかについてのルールを設けようとしています。
AIのリスクとは、例えば、住宅ローンを申し込んだ銀行が業務でAIを使っていたとします。
AIのリスクとは、例えば、住宅ローンを申し込んだ銀行が業務でAIを使っていたとします。
もしそのAIが若者や女性に対して偏った判断をしたら、住宅ローンを受けることが非常に難しくなります。
私たちはAIを使った判断が、性別などではなく、事実に基づいて確実に行われるようにしようとしています。
私たちはAIを使った判断が、性別などではなく、事実に基づいて確実に行われるようにしようとしています。
EUのAIを規制する法案はChatGPTのようなAIにも対応できる?
おおむねできると思います。
数か月前には誰もChatGPTのことを考えてはいませんでしたが、法案は新たな技術が出てきても、将来にわたって使えるものです。
個別の技術ではなく、使い方に焦点を当てているからです。
数か月前には誰もChatGPTのことを考えてはいませんでしたが、法案は新たな技術が出てきても、将来にわたって使えるものです。
個別の技術ではなく、使い方に焦点を当てているからです。

このAIの規制法案は、AIについて、水平方向に、面的に規制をかけるものです。
ほかに、データをどう保護するかについての既存の法律などもあり、そうした制度全体によって、広くリスクに対応できるのです。
ほかに、データをどう保護するかについての既存の法律などもあり、そうした制度全体によって、広くリスクに対応できるのです。
法律によって信頼してAIを使えるようになりますか?

次のステップは、世界がAIとどう向き合うかです。
私たちはパートナーの国々と取り組み、アメリカや日本、G7の他の国、そして、OECD=経済協力開発機構などでも国際的な議論を求めていきます。
そうでなければEUの法律が適用されないところで、AIを信頼して使うことができません。
私たちはパートナーの国々と取り組み、アメリカや日本、G7の他の国、そして、OECD=経済協力開発機構などでも国際的な議論を求めていきます。
そうでなければEUの法律が適用されないところで、AIを信頼して使うことができません。
G7デジタル・技術相会合にはどのような議論を期待しますか?
G7でAIの利用について議論することは非常に重要です。
誰もがAIを使えるようになった今、利用のあり方をめぐる議論は政治的な問題、誰がガバナンスを主導するのかという問題になっています。
私たちの価値観に基づいた社会を維持できるようにするためです。
誰もがAIを使えるようになった今、利用のあり方をめぐる議論は政治的な問題、誰がガバナンスを主導するのかという問題になっています。
私たちの価値観に基づいた社会を維持できるようにするためです。

G7の中でも、国によってAIに対する向き合い方に違いはあります。
私たちは法律による規制が必要だと考えていますが、国によっては、より自発的な取り組みや、業界主導の取り組みを考えているかもしれません。
重要なのは向き合い方が違っても、ともに対応することです。
私はリスクに基づいて利用のあり方を考えることが非常に有効だと思います。
そうでなければ人々はAIは危険すぎて使いたくないと考えるようになる可能性がありますし、そうなれば、多くのチャンスを逃すことになるでしょう。
私たちは法律による規制が必要だと考えていますが、国によっては、より自発的な取り組みや、業界主導の取り組みを考えているかもしれません。
重要なのは向き合い方が違っても、ともに対応することです。
私はリスクに基づいて利用のあり方を考えることが非常に有効だと思います。
そうでなければ人々はAIは危険すぎて使いたくないと考えるようになる可能性がありますし、そうなれば、多くのチャンスを逃すことになるでしょう。
(以上、ベステアー上級副委員長)
EUの規制法案とは? AIのリスクを4つのグループに分類

EUの執行機関、ヨーロッパ委員会はおととし4月、AIの規制法案を議会や加盟国に提出し、法律の成立に向けて現在も議論が続けられています。この法案ではAIをリスクに応じて4つのグループに分類しています。
【最もリスクの高いAI:公共機関による信用度の評価など】
もっともリスクの高い、「許容できないリスク」のAIは基本的な人権を侵害するとして利用が禁止されます。
具体的には、
▽公的機関による人々の信用度の評価や分類や
▽公共空間で人々を監視する目的などで、
顔認証の技術に使われるAIなどが対象となります。
【ハイリスクのAI:入試や採用で人々を評価することなど】
2番目に高いリスクのAIは「ハイリスク」に分類され、
▽学校や企業が入試や採用で人々を評価するときや、
▽銀行が融資の可否を判断する際に使われるAIが含まれます。
これらのAIにはさまざまな条件が設けられ、偏った判断をしないよう適切なデータを学習させたり精度の確認をしたりすることや、記録の保持や人間による監視などが必要になります。
【限定的なリスクのAI:対話式AIなど】
3番目は「限定的なリスク」のAIで透明性の義務が課され、
▽対話式AIについてはAIを利用していることを知らせ、
▽AIを使って実在する人物に極めて似せた画像などを作る場合には明示するなどとしています。
【最小のリスク:規制の対象にはならず】
そのほかは「最小リスク」のAIとされ、新たな規制の対象とはなりません。
【最もリスクの高いAI:公共機関による信用度の評価など】
もっともリスクの高い、「許容できないリスク」のAIは基本的な人権を侵害するとして利用が禁止されます。
具体的には、
▽公的機関による人々の信用度の評価や分類や
▽公共空間で人々を監視する目的などで、
顔認証の技術に使われるAIなどが対象となります。
【ハイリスクのAI:入試や採用で人々を評価することなど】
2番目に高いリスクのAIは「ハイリスク」に分類され、
▽学校や企業が入試や採用で人々を評価するときや、
▽銀行が融資の可否を判断する際に使われるAIが含まれます。
これらのAIにはさまざまな条件が設けられ、偏った判断をしないよう適切なデータを学習させたり精度の確認をしたりすることや、記録の保持や人間による監視などが必要になります。
【限定的なリスクのAI:対話式AIなど】
3番目は「限定的なリスク」のAIで透明性の義務が課され、
▽対話式AIについてはAIを利用していることを知らせ、
▽AIを使って実在する人物に極めて似せた画像などを作る場合には明示するなどとしています。
【最小のリスク:規制の対象にはならず】
そのほかは「最小リスク」のAIとされ、新たな規制の対象とはなりません。
AIサービスをEU域内で提供すれば規制の対象に

AIを使ったサービスなどをEU域内で提供すれば、日本を含む域外の事業者も規制の対象となり、違反すれば最高で3000万ユーロ、日本円で44億円余りか、世界全体の売上高の6%の、どちらか高いほうの巨額の制裁金が科される厳しい内容となっています。