ChatGPT 子ども保護の安全対策強化 プライバシー侵害懸念で

対話式AIの「ChatGPT」に対して、プライバシー侵害などの懸念が出ていることから、開発したアメリカのベンチャー企業は、子どもを保護するため利用者は18歳以上とするなど安全対策の強化方針を示しました。

まるで人間が書いたかのような自然な文章を作成できる「ChatGPT」は、世界で利用が急速に広がっています。一方で、プライバシー侵害への懸念から、イタリアの当局がこの対話式AIを一時的に使用禁止にする措置をとり、ほかのヨーロッパ各国も同じような措置をとる可能性が指摘されています。

こうした中、「ChatGPT」を開発した「オープンAI」は、公式ブログを通じて安全対策の強化方針を示しました。

この中で、AIが学習するデータには個人情報も含まれているものの、可能なかぎり削除していると説明したほか、AIが作成する回答については暴力などを含む内容は生成されないようにしているとしています。

最新のソフトはこれまでのものと比較して、許可していない内容の回答をする可能性が82%低くなったと説明しています。

さらに、子どもの保護を重要な課題の1つとしてあげており、利用者は18歳以上、または保護者の許可を得た13歳以上にかぎり、今後、年齢を確認する仕組みの導入を検討しています。