生成AIで生み出された画像やデータの著作権は誰のものなのか?AIは日々の業務を効率化できる一方で、使用したプロンプトが他社の著作物だと判明するなどのトラブルも起こりかねません。それらの損害リスクを抑えようとする動きは世界中に広がり、2024年5月にはEUで「AI法(※1)」が承認されるなど、AI開発・運用に関する規制の動きが活発化しています。
AI時代の今、エンジニア自身や企業を守るために知っておくべき生成AIの法律知識とは?国内外のデジタル政策の調査・分析に精通している弁護士の角田龍哉さんに詳しくお話を伺いました。日本におけるAIガバナンスの包括的な指針を示した「AI事業者ガイドライン」についても解説しています。
(本記事の情報は2024年8月時点の内容)
角田 龍哉
西村あさひ法律事務所 弁護士 AIをはじめとしたIT/デジタルプラットフォーム分野における競争法/独占禁止法案件を中心に、電気通信、消費者保護、各種業規制等の様々な経済規制案件を取り扱う。 通商を含む国内外のデジタル政策の調査、分析にも精通している。GPAI (Global Partnership on Artificial Intelligence)2022登壇、AIガバナンス協会賛助会員。
生成AIの普及により規制の議論も加速
角田さんはどれくらい前からITやAIに関わる法律を見てこられたのですか?
西村あさひ法律事務所に入って10年ほどになりますが、一貫してデジタルプラットフォームやIT分野の規制関係の案件を扱ってきました。AI関連では、例えばクローリングの対象で、どんな種類のサイトが著作権法や個人情報保護法上どのようなリスクに関連するかを分析する案件などを担当しています。2016年頃には、今後AIを活用したサービスが増えることを踏まえて所属事務所のシンクタンクで研究会を開催し、AIやデータを活用したビジネスの実態や展望を最先端の研究者・技術者・事業家らと議論し、デジタル時代の競争法/独占禁止法、競争施策のあり方についての提言を含んだ報告書をまとめました。
AIが本格的に広まる前から、関連する法律を見てこられたということですね。
そうですね。AI時代となった今はAIにまつわるさまざまなルールメイキングをサポートしたり、デジタル関連の規制設計の際の助言などもさせていただいています。
まさにAI関連の法律のスペシャリストですね。角田さんは学生時代からIT領域に関心がおありだったのでしょうか。
はい、2011年に欧米で「ビッグデータ」の囲い込みについて競争法の適用が問題となったことをきっかけに、デジタル経済における法規制の現代化、アップデートが様々な領域で起こっていることに関心を持ちました。
その後のAIの進化について、どのようにご覧になっていますか?
さまざまな見方がありますが、2000年頃から始まったとされる第三次AIブームでは既存のデータの中から人間が正解を教える、いわゆる「教師あり学習」が盛んでした。例えば、自動運転において歩いている人を識別し、その人が横断歩道を渡るかどうかの行動予測をするAIのようなものですね。そこから、2020年前後になって、大量の学習データを集め、かつ大規模な計算資源(※2)に投資がなされたこともあり、データを組み合わせてさまざまなタイプの新しいコンテンツを生み出せる「生成AI」モデルが誕生しました。
生成AIの活用にガイドラインが必要になった背景も教えてください。
生成AIは本当の意味で自律しているAIではないものの、ある種人間の制御を離れて動作を行い、アウトプットをしてきます。そういった技術的な発展と共に、ルールによる制御が必要になってきました。また、AIが商業的な利用以外に、兵器や国力として活用できるという安全保障の観点から、制御を求める必要性が世界的に認識されていったことも挙げられます。
AIについて一般企業の商業的なガイドラインと、安全保障のガイドラインは全く別軸なのでしょうか。
国ごとにアプローチが分かれています。アメリカは経済と安全保障をミックスさせたようなコミットメントや大統領令を策定し、政府機関から開発企業に対応を要請しています。EUで新しく制定されたAIの法律は、軍事用途や安全保障は適用範囲外です。日本の法制も現在は、安全保障の観点はAIに関するガイドラインそのものとは別途対処されるような建付けになっています。AIに対する日本の制度的な対応方針は、秋に公表される内閣府のAI制度研究会の中間とりまとめであらためて示されると思われます。
これから決まっていくことも多いということですね。一般の事業者向けのガイドラインが使われ始めたのは、いつ頃からでしょうか。
世界的な潮流から考えると、生成AIが社会に普及していった2020年頃からだと思います。ただ、2015年くらいには既に機械学習や生成AIがサービスとして出始めていたので、そのころからガイドラインや規制の必要性について議論されることもあるにはありました。実際、EUでAIの法律の検討が2018年頃に始まり、2021年には本格的な法整備の提案が出されているので、それらの一連のアクションが世界的な議論を加速させた要因にもなっていると考えられます。
EUで法律に違反すると、売上高の7%の制裁金に
日本の動きは世界と比べていかがですか?
日本は2019年にAI社会原則という、法的な強制力は持たないガイドライン、いわゆるソフトロー(soft law)を策定しています。国際機関・OECDでの議論と並行して作ったものなので、世界的に見ても先進的な取り組みだったと思われます。ただ、これはソフトローではあるので、強制的な力でAIを統制する法律としてはEUが初めてとされています。
ガイドラインの中で、罰則を設けるかどうかの議論にはまだ行き着いていないですか?
そうですね。そもそも罰則が本当に必要か、認証などが活用されやすくなるような仕組みが良いのか、そういった点も含めて現在検討されている段階です。
EUで法律に違反すると、どのような罰則があるのですか?
最大では、3500万ユーロ(約59億円)か世界中の売上高の7%いずれか高い方を上限とした制裁金が課されます。例えば、EUでは精神的に危害を加えるようなAIサービスの販売は禁止されているため、そういったサービスを販売すると制裁金の対象になります。また、安全性にかかわる機器のほか、金融や医療、自動車など高いリスクを持っているサービスの中には、事前に審査を受ける義務が適用されるものがあり、その審査を飛ばすとやはり違反になる可能性があります。日本国内における電気通信・ガスなどの公益事業と同じような規制がAIに対してかかっているようなイメージです。
実際に制裁金を支払ったケースはありますか。
EUで法律が出来たのがつい最近で、現在はまだ施行までの準備期間なので、実際に摘発例が出てくるのは今から2〜3年先になるかと思います。
会社のリソースを利用して作ったコードは「会社の著作物」
日本では、AI関連でどのようなトラブルや相談がありますか。
多いのは著作権法と個人情報保護法に関連した事案や、機密情報の管理に関するご相談です。AIを導入・活用してのアウトプットに対して、著作権の侵害のチェックをどうするのかや、エンジニア関連で言えばオープンソースのソフトウェアと生成AIのモデルを組み合わせようとする時に、オープンソースとはいえその利用条件はどのようにチェックするかなどのご相談があります。
エンジニアのソースについてはどのように考えておくべきでしょうか。
会社のパソコン、リソースを利用して作ったものはエンジニア自身ではなく、会社の著作物として扱われ得るということは意識しておく必要があります。また、非常に短い単純なコードであれば著作物ではないこともあるものの、工夫して作り出したプロンプトや長いアウトプットに関しては、著作権がある前提で対応することが多いです。またAIに学習させる時、社内のデータについても学習させて良い範囲はどこなのかを明確化しておき、顧客からもらったデータなどを勝手に学習に使わないようにすることも気をつけるべきポイントです。会社としてルールやマニュアルを作っておくことで、こういったリスクは防げると思います。
生成AIと著作権に関して、国内で訴訟の例はありますか。
今のところは日本では見当たりません(2024年8月現在)。ただ、例えば、自社の記事データを公開している企業やクリエイターなどがAIモデルの開発業者に対してライセンス料を請求したり、その支払いの必要性を問題提起しているケースが見られます。著作権法違反として訴訟で賠償金を請求しているわけではないものの、経済的な実態としてはデータの学習や利用の対価を請求していることにはなるので、似たようなことが日本でも起こっていると言えるかもしれません。
なるほど。AIに関する社内ルールを設けて、環境を整備している企業は多いですか?
IT業界の企業はもちろん、AIを業務効率化のために利用している企業や、金融・製薬業界などでも多くの企業が社内ガイドラインやガバナンスポリシーを設けています。ガイドラインを設けておくことで、事前にAIにまつわるトラブルを防ぐだけでなく、AIを扱う適切な社内体制を構築するための経営判断が行われていると説明しやすくなります。トラブルが起こった際も、その対応策について初動から社内の共通認識を持って対処できるため、社内ガイドラインは重要です。
2024年に発表された「AI事業者ガイドライン」とは?
2024年には、経済産業省と総務省からAI事業者ガイドラインが発表されました。AI事業者ガイドラインが制定された背景について教えてください。
生成AIが社会に広く普及していく過程で、誤った情報が出たり、著作権やプライバシーに新しいリスクを生み出したりすることへの制御が、日本でも必要だと考えられるようになりました。他方で、新しい技術を日本が積極的に活用していかなければ、国内で新しい産業が生まれず、国力の上昇につながらないという危機感も影響しています。さらに2023年に広島で行われたG7において、日本主導で国際的なルールメイキングを進めていくことが議論され、AIの活用・普及とリスクのバランスがうまくとれた、世界にAIの利用をめぐる指針を普及させていく目的もあり、ガイドラインが作られたと考えられます。
AI事業者ガイドラインの対象となる事業者を教えてください。
AIを開発する事業者、AIを組み入れてサービス化する提供事業者、そしてAIをビジネスで利用する事業者の3者が対象となっています。業務外で使う方や学習データ関連の利用者は対象外です。
ガイドラインは、リスクベースアプローチという考え方に基づいて作られているそうですが、この考え方についても教えてください。
AI事業者ガイドラインは、サプライチェーン全体を通して守るべきこと、推奨されることを決め、AIリスクに対処しようというコンセプトで作られています。高いリスク、重大なリスクが発生しそうだと考えられるところには実践が期待される諸事項を重点的に提示し、それ以外はなるべく自由に活動できるようにするのが「リスクベースアプローチ」という考え方です。開発事業者、サービス業者、利用者の3つの対象で比べると、リスクの高い開発業者であればあるほど対応が推奨されることが多く、利用者は相対的に少ないという構造になっています。
なるほど。具体的に開発事業者はどのような作業が発生するのでしょうか。
AI事業者ガイドラインにはリスクのレベルの高さに準じてやるべき対策をチェックできるワークシートが付いているので、それを参考に作業をすることができます。人権や環境などに取り返しのつかない影響を与える事業や、差別に関わるもの、金融や医療・自動車などリスクの高い業界ではチェック項目、対策が多くなります。他方で、しっかりと対策され、適切な経営判断の下でAI利活用が行われていれば、万が一何か起こっても意図や過失があって発生したものではないため、すぐに大きな責任を問われるようなものではないと判断されやすくできます。
対応するのはDX関連の部署が多くなりますか?
そうですね。DXや情報ITシステム関連を扱う部署が多いです。各企業の法務部門だけは技術的・実務的に対策を実行できるかどうかを判断できないことも多いので、DXやIT部門と連携して対応するのが一般的だと思います。
法務にとってAIやデジタル技術は業務範囲外なので、判断に困ることも多いということですね。
はい、一方でエンジニアやITシステムの部署においては法律的な解釈や考え方に慣れていなかたったり、開発の自由度が下がると警戒してしまったりすることもあるかもしれません。ガイドラインの活用では、企業内の両部署で課題を感じている現状があるかもしれません。
エンジニアが自主的に学習データや作業環境の確認を
ITエンジニアが生成AIを利用するときに注意するべきことを教えてください。
著作権関連で言えば、開発・学習を行う場合では、データの提供元の規約・契約や自身が所属する社内ルールで利用OKとなっている学習データセットを利用していることの確認は重要なチェックポイントになります。過去に委託開発したデータセットやモデルの成果を利用しようとする場合は、委託元からの明示的なライセンスも必要かもしれません。また、アウトプットについては、そもそも委託元との関係で生成AIを利用して業務を実施することが許容されているのか確認しておくことで無用なトラブルを防げるでしょうし、プロンプトを入れる時に意図して他人の著作物であることが明らかな内容に寄せたものは出さないように注意した方がいいでしょう。
機密情報やプライバシーの観点ではどうでしょうか。
プライバシーとの関係では、多くの場合、開発・学習との関係ではプライバシーにかかわるような情報は利用しない扱いにしているのではないかと思われます。また、アウトプットについても、著作権と同様に、意図して第三者のプライバシーを公にするようなことを目的としたプロンプトは入力しないように注意した方がいいでしょう。機密情報については、入力するプロンプトがサーバーで記録されているか、記録される場合はそれが学習に使われるかどうかは事前に確認をする必要があります。特に記録される場合は、顧客のデータや要件定義に関する情報は入力しないように使わざるを得ないと思います。
自動で記録されるケースもありますよね。
そうですね、それを防ぐためにはサーバーで記録しない社内環境を組んでいただくのが安心です。エンジニアがソフトウェアを作るということであれば、AIが出してきたソフトウェアがセキュリティホールや脆弱性のあるコードではないかと自ら調べるなど、アウトプットされた情報をそのまま流用する前に自分で調べることも大切になってきます。
他に、エンジニアが知っておくべき法律知識はありますか。
著作権法については文化庁からわかりやすい解説資料が出ています。さまざまなケースが紹介されていますので、何か不安に思った時には見ていただくと良いと思います。また個人情報保護法に関しても個人情報保護委員会から生成AIの注意喚起に関するパンフレットも出ていますので、そういった情報をまずはご覧いただけると良いと思います。自分が学習データセットを加工する・作ってモデルを開発する側なのか、AIのモデルを利用する側なのかによって関連するルールが異なりますので、まずはどちらの立場なのかを明確に認識して頂ければ、見通しも良くなるはずです。
今後、生成AIが進化し活用が増えていくにあたって、トラブルも増えていくのでしょうか。
そうですね、生成AIが社会に普及して使われる場面が増えれば、トラブルも自然と増えていくと考えられます。例えば、過去にクラウドが普及したときにも、社会全体で広く使われる中でクラウド上に保存したデータ管理のトラブルが見られるようになっていきました。また、漏洩が起こった際に誰がどの範囲で管理の責任を持ち、共有すべきかといった課題もあります。生成AIにおいても、利用が増えていくことで見えてくる課題や、ルールメイクが必要になる場面は増えていくと思います。
そういったトラブルに対処するため、エンジニアがやるべきことはありますか。
モデルの開発との関係では、適正な学習データを使うことは、AI事業者ガイドラインやEUのAI法にも定められているので、適正な学習データや環境で作業したかどうか、その保証を求められる場面は増えてくると想定されます。そのため、エンジニアが自主的に学習データの適正や作業環境を確認し、記録を取っておくことは今後重要になるのではないでしょうか。EU向けに売られるサービスに関連していれば、現地の厳しい規制が適用されるので、より慎重に作業する必要があります。
最後に、エンジニアに伝えたいことはありますか?
日本では2024年の秋に、AIの法制度をどう設計していくべきか、政府での中間とりまとめが公表され、議論がさらに加速していきます。日本において期待されるAIの活用の仕方や範囲、将来的な展望を左右する部分があると思いますので、ぜひその動向をチェックしていただきたいです。おそらく意見募集の機会もあるので、率直なご意見をいただければ有益だと思います。政府側が独自に情報収集をして実態を知るには限界があるので、エンジニアの皆さんの想いも積極的に反映することでより良い制度が出来ていくと思います。
ライター
編集部オススメコンテンツ
アンドエンジニアへの取材依頼、情報提供などはこちらから