ChatGPT 各国で規制検討の動き 個人情報保護などの懸念から

対話式AI「ChatGPT」の利用が世界で急速に広がっている中、各国は個人情報の保護などへの懸念から規制案や認証制度などの検討を始めています。

アメリカのベンチャー企業「オープンAI」が開発した「ChatGPT」は、質問を入力すると、まるで人間が書いたかのような自然な文章を作成できるため、さまざまな用途で利用が急速に広がっています。

一方、個人情報の保護や情報流出の懸念などAIがもたらすリスクについても指摘されています。

こうした中、アメリカではAIの利用に関する規制案が検討されていて、アメリカ商務省は11日、規制案に向けてAIの評価や認証制度などについて一般からの意見募集を開始すると発表しました。

また、イギリスではデータ保護の当局が、「ChatGPT」を含む生成AIシステムの使用または開発に関する留意点を公表するとともに、個人情報を活用する際の法的責任についても言及しました。

一方、カナダのプライバシー保護の当局は「同意なく個人情報が収集、利用、そして開示されている」という苦情を受けて、「オープンAI」に対して調査を開始したと今月4日、発表しました。

日本でも高市科学技術担当大臣は「ChatGPT」について14日の衆議院内閣委員会でただちに利用を規制する考えはないとする一方、情報流出などの懸念にも対応する必要があるとして、検討体制を強化する方針を示しました。

欧州でも規制検討の動き

ヨーロッパでは、個人情報の保護などを理由に「ChatGPT」の規制を検討する動きが広がっています。

先月31日、イタリアが使用を一時禁止したのに続き、フランスやドイツ、それにアイルランドなどが規制を設けるか検討中だと地元メディアが伝えています。

このうちフランスでは、「個人情報が本人の同意がないのに収集、使用され、公開されている」などとする複数の苦情がこれまでにデータ保護当局に申し立てられ、当局が調査を行っていると伝えられています。

また、フランス南部のモンペリエ市では、市の職員とその家族に対して「ChatGPT」の使用を控えるよう呼びかけることを検討しているということです。

また、ドイツでは今月3日、当局の高官が地元紙に「ドイツでも同じような措置が原則、可能だ」と述べ、使用を一時禁止にしたイタリアと同じような対応をドイツもとることが可能だという内容が伝えられています。

13日には、EU=ヨーロッパ連合の加盟国のデータ保護当局などで作る「ヨーロッパデータ保護会議」が今後の対応を協議するための専門の作業部会を設置しました。

今月29日から群馬県高崎市で開かれるG7デジタル・技術相会合でも、こうした生成AIの技術にどう対応していくか議論される見通しです。

イタリアでは一時的に使用禁止 オープンAIに対策求める

イタリアのデータ保護当局は、対話式AI「ChatGPT」について、膨大な個人データの収集などが個人情報の保護に関する法律に違反している疑いがあるとして先月31日、一時的に使用を禁止すると発表しました。

欧米で初めて使用禁止に踏み込んだイタリア。

そのきっかけは、先月20日、外部から寄せられた声でした。

詳細は明らかにされていませんがこのAIソフトの利用者の会話の内容や支払いに関する情報について、データの侵害があったとするものだったということです。

これを受けて当局が調査した結果、収集しているデータの内容を利用者に適切に通知していなかったことや、アクセスする際に年齢を確認する仕組みがないことがわかったとしています。

AIの学習に必要な膨大な個人データを法的根拠がないまま収集していたとみられ、こうした手法が個人情報の保護に関するイタリアの法律に違反している疑いがあるとみられたのです。

イタリアの当局は今月12日、ChatGPTを開発したアメリカの「オープンAI」に対して、今月中に具体的な改善策を講じるよう指示したと発表しました。

改善策としては、▽利用者がデータの修正や消去ができるようにすることや、▽子どもの保護のために年齢確認を厳密にすること、さらに、▽AIの学習のために個人情報を収集し、利用していることをテレビやネットなどを通じて広く啓発することも求めています。

イタリアの当局は、オープンAIが期限とする今月末までにこうした対策を講じたことが確認され、個人情報の扱いをめぐる懸念が解消されれば、使用禁止の措置を解除するとしています。

専門家 “AIの活用 政治レベルで早急に対応を”

イタリアの当局がいち早く「ChatGPT」の一時使用禁止に踏み切ったことについてイタリアで長年、IT業界とデータ保護の問題を取材してきたジャーナリスト、アレサンドロ・ロンゴさんに話を聞きました。

ロンゴさんは多くのヨーロッパの国々がAIサービスに細心の注意を払っているとし、イタリアの当局が開発したベンチャー企業「オープンAI」に求めた対策は近い将来、ヨーロッパに限らず、世界標準になるはずだとの見方を示しました。

そのうえで、ロンゴさんは2年前に起きたある事故が今回の規制の背景にあると指摘しました。

その事故とは10歳のイタリア人の少女が動画投稿アプリで流行した息を長くとめる遊びで死亡したというものです。

ロンゴさんは、「イタリア人は子どもたちがAIを悪用したり、AIに間違った方向に導かれたりすることをおそれている」と述べ、社会全体でAIのリスクから子どもを守ろうという意識が強いことが「ChatGPT」の一時使用禁止につながったとの認識を示しました。

さらに、「データをよりよく活用し、ヨーロッパの企業のビジネスや経済成長につなげたいという側面もある」とも述べ、個人情報やビッグデータがヨーロッパの外に流出することや、アメリカのIT企業がいまのAIサービスの発展を主導していることに警戒感があると指摘しました。

ロンゴさんは、「AIをどう活用するか、イタリアとして包括的な戦略を持っていないことが最大の問題だ」と述べ、政治レベルで早急に対応すべきだと主張しました。