EU上級副委員長 「生成AIはリスクに応じて利用を考える必要」

29日から開かれるG7=主要7か国のデジタル・技術相会合に出席するEU=ヨーロッパ連合の高官がNHKの取材に応じ、「ChatGPT」などの生成AIについて、「リスクに基づいて利用の在り方を考えることが非常に有効だ」と述べ、適切な活用に向けて各国が共通点を見いだすことに期待を示しました。

会合を前に取材に応じたのは、EUの執行機関、ヨーロッパ委員会でAIやデジタル政策などを担当するベステアー上級副委員長です。

この中で、ベステアー氏は「ChatGPT」など、生成AIの急速な普及について、「誤った使われ方に気を付ければ大きなチャンスになる。倫理と価値観を持って正しく利用できるよう、安全対策の重要性が増している」と述べました。

そのうえで、EUではAIの利用に規制を設ける法案が議論されていることに触れ、「テクノロジーを規制するものではなく、AIによって人が差別的な扱いを受けないよう、どう利用すればよいかルールを設けようとしている」として、できるだけ早い法案の成立を目指したいという考えを示しました。

そして、G7の会合については「重要なのはAIへの向き合い方が違っても、ともに対応していくことだ。リスクに基づいて利用の在り方を考えることが非常に有効だと思っている。そうでなければ、人々は、AIは危険すぎて使いたくないと考える可能性がある」と述べ、適切な活用に向けて各国が共通点を見いだすことに期待を示しました。

EUの規制法案 AIのリスクを4つのグループに分類

EU=ヨーロッパ連合の執行機関、ヨーロッパ委員会はおととし4月、AIの規制法案を議会や加盟国に提出し、法律の成立に向けて現在も議論が続けられています。この法案ではAIをリスクに応じて4つのグループに分類しています。

最もリスクの高いAI:公共機関による信用度の評価など

もっともリスクの高い、「許容できないリスク」のAIは基本的な人権を侵害するとして利用が禁止されます。

具体的には、
▽公的機関による人々の信用度の評価や分類や
▽公共空間で人々を監視する目的などで、
顔認証の技術に使われるAIなどが対象となります。

ハイリスクのAI:入試や採用で人々を評価することなど

2番目に高いリスクのAIは「ハイリスク」に分類され、
▽学校や企業が入試や採用で人々を評価するときや、
▽銀行が融資の可否を判断する際に使われるAIが含まれます。

これらのAIにはさまざまな条件が設けられ、偏った判断をしないよう適切なデータを学習させたり精度の確認をしたりすることや、記録の保持や人間による監視などが必要になります。

限定的なリスクのAI:対話式AIなど

3番目は「限定的なリスク」のAIで透明性の義務が課され、
▽対話式AIについてはAIを利用していることを知らせ、
▽AIを使って実在する人物に極めて似せた画像などを作る場合には明示するなどとしています。

そのほかは「最小リスク」のAIとされ、新たな規制の対象とはなりません。

AIサービスをEU域内で提供すれば規制の対象に

AIを使ったサービスなどをEU域内で提供すれば、日本を含む域外の事業者も規制の対象となり、違反すれば最高で3000万ユーロ、日本円で44億円余りか、世界全体の売上高の6%の、どちらか高いほうの巨額の制裁金が科される厳しい内容となっています。