デジタル

AI・メタバースLabo ~未来探検隊~

「生成AI」のリスクや注意点 最低限これだけは気をつけて

「生成AI」のリスクや注意点 最低限これだけは気をつけて

2023.06.13

利用が急速に広がっている対話型AI「ChatGPT」や画像生成AI。

使う際の注意点を記したガイドラインを日本ディープラーニング協会が公開しています。

生成AIは誰でも手軽に使うことができる一方、情報漏えいや著作権などの権利侵害のリスクなども指摘されています。

生成AIを利用する時に私たちは何に気をつけるべきなのか。

最低限、これだけは知っておくべき注意点を、ガイドラインを参考に見ていきます。

ガイドラインは随時、アップデートされる予定ですので最新情報をご確認ください

個人だけでなく企業や組織でも導入始まる「生成AI」

「生成AI」は、あらかじめ学習させた大量のデータをもとに、文章や画像、音楽などを生成する能力をもった「人工知能」。

専門的な知識が無くても簡単な「指示」をテキストなどで入力するだけで文章やプログラムのコード、画像などを、生成させることができます。

議事録の要約、翻訳、アイデア出しなど、ビジネスやマーケティング、教育やエンターテイメントなど多様な分野での応用が考えられ、個人以外でも多くの企業や組織で導入が始まっています。

注意すべきは、大きく2点

生成AIを使う際の注意点は、大きく2点に分けられます。

(1)著作権 商標権などの権利侵害になる可能性に注意

ガイドラインでは、『知的財産権の処理の必要性や法規制の遵守という観点からは、以下の類型のデータを入力する場合、特に注意が必要』として、「著作権」「商標権」「意匠権」「パブリシティー権」が挙げられています。

著作権については、『単にAIに他人の著作物を入力するだけの行為は著作権侵害に該当しません』としつつ、『生成されたデータが、入力したデータや既存のデータ(著作物)と同一・類似している場合は、当該生成物の利用が当該著作物の著作権侵害になる可能性もあります』とされています。

商標権や意匠権も同様で、『故意に、あるいは偶然生成された、他者の登録商標・意匠と同一・類似の商標・意匠を商用利用する行為は商標権侵害や意匠権侵害に該当します』となっています。

では、どんな仕事に携わる人たちが、何に注意するべきなのか。

特に気を付けるべきなのは「クリエイター」と呼ばれる人たちです。

AIを使ってイラストやデザインなどの画像を制作する「AIアーティスト」。
キャッチコピーやロゴ、デザインなどを考案する「コピーライター」や「デザイナー」など。
また動画などの「投稿者」も注意が必要です。
海外では、人気アーティストの音声をAIで再現・模倣した曲がSNSで拡散され話題となりましたが、アーティストの楽曲の管理会社が「著作権の侵害」だとしてストリーミングサービスからの削除を求め、その後、削除されました。

また、画像生成AIでは「自分の作品を許可なくAIの学習に使われ、似た作品を作られた」などとして、アメリカで、AIの運営会社を相手に集団訴訟を起こす動きも出ています。

日本でも俳優や音楽家などで作る団体がアンケート調査を行ったところ、具体的な権利侵害として「画風を盗用された」「公表した漫画がAIが学習するデータとして勝手に使われていた」「自分の声が、AI加工のモデルとして無断で販売された」などの声が寄せられています。

(2)生成AIに入力した情報が他者に流出するおそれ

AIに情報を入力する際も注意が必要です。

ガイドラインでは、『個人情報・秘密情報・機密情報』といった、いわゆる『秘匿性の高い情報は入力しない』よう、呼びかけています。

ユーザーが入力したデータはAIのモデルの学習に利用されることがあります。

秘匿性の高い情報を入力してしまうと、生成AIのサービスを提供している会社やほかのユーザーにも情報の内容が流出するおそれが指摘されています。

個人情報や機密情報などを扱う機会の多い以下のような人たちは特に注意が必要です。

個人情報を扱う「医療従事者」や「公務員」、それに「教育者」や「司法関係者」。

会社や組織の秘密に携わる「営業や契約の担当者」「財務や技術開発の担当者」。

「会議の議事録の担当者」も要約に便利だから、と安易に使用してしまうと会議の内容が流出しかねません。

このほか機密情報を扱う業種として「メディア」「セキュリティー」関係者も挙げられます。

国内のセキュリティー会社のリサーチでは、生成AIに「脱獄」と呼ばれる特殊な手法を用いて指示し、他人のメールアドレスの開示を要求したところ、通常であれば「プライバシーに関わる」などとして決して開示しないアドレスを開示したということです。

漏えいした情報 犯罪などに悪用されるおそれも

漏えいした情報が、サイバー犯罪などにさらに悪用されるおそれも指摘されています。

海外では大手企業の社員が会社の機密情報を生成AIに入力してしまったという事例が相次いで報告され、セキュリティー企業が行ったアンケートによると、およそ7.5%の人が、会社のデータを入力していたことがわかったと言うことです。

中には、機密情報として社内限定の内部情報、続いてソースコード、顧客データがあったということです。

生成AIを利用する際には、企業や組織内でどこまでの範囲で活用してよいのかのルールを事前に決めておくことも大事です。

そもそもAIが生成した内容が虚偽の可能性も

ここまで「利用する際の注意点」を見てきましたが、生成されたものを「利用する時」に必ず確認しなければならないことがあります。

『AIが生成した内容には虚偽が含まれている可能性がある』

と、ガイドラインでは指摘しています。

『大規模言語モデルの原理はある単語の次に用いられる可能性が確率的に最も高い単語を出力することで、もっともらしい文章を作成していくもの』です。

このため、必ずしも生成された内容が「正しい」とは限らないのです。

ガイドラインでは『生成AIの限界を知り、生成物の内容を盲信せず、必ず根拠や裏付けをみずから確認する』ことが大切だとしています。

文部科学省 教育現場でのガイドラインを検討中

このほか盗作や考える力の減退などの影響が懸念されている教育現場での利用に関しては、文部科学省が、使用に適切な年齢や禁止すべき場面、仕組みや活用法を学ぶ授業のアイデア、教員の校務の負担軽減などについてのガイドラインを、ことしの夏ごろまでに作ることを目指しています。

またAIの規制や活用のあり方などについて関係省庁で協議する「AI戦略チーム」でも、生成AIの普及を踏まえ、総務省の法人利用者向け、また経済産業省の開発会社向けのガイドラインの見直しについて、検討の議論を進めていくことになっています。

生成AIをめぐっては、日々、新しい使い方や発見のほか、懸念すべき点などについてさまざまなユーザーから情報が上げられています。

会社や組織では、最新の情報を取り入れ、適宜、ルール作りを進めた上で、さまざまなガイドラインを参考にしながら慎重に利用していくことが望まれます。

日本ディープラーニング協会は、公開中のガイドラインを随時、アップデートしていくことにしています。

ご意見・情報 お寄せください