OpenAIはアメリカ大統領選など選挙の年である2024年に対するアプローチを発表しました。「フェイクニュースに利用されること」など、AIが直面している課題に対して、どう取り組むかを解説しています。
「選挙の年」である2024年にAIが直面している課題
今年2024年は「選挙の年」と呼ばれます。台湾、ロシア、インド、EUなどで重要な選挙が行われ、11月には米大統領選が行なわれる(※)からです。
(※編者注 すでに実施された国もあります)
このような重要な年に、AIが直面している課題が「フェイクニュースに利用されること」です。
生成AIで虚偽の内容の写真を生成され、それがSNSでまことしやかに拡散してしまうことがあります。
また、フェイクニュースは最終的には虚偽の内容であることが明らかになりますが、判明するまでの間、信じられることによって投票行動に大きな歪みを与えてしまいます。
OpenAIのアプローチ
これに対応する形で、OpenAIは、国際的な選挙の年である2024年に対するアプローチを発表しました。
OpenAIでは、画像生成AIツール「DALL・E3」で生成した画像を見分けるツールを研究者に向けて開放しました。
DALL・E3による画像を利用したフェイクニュースを短時間で判別できるような仕組みを構築してもらう目的があります。
また、コンテンツの情報源と信頼性を高めるための規格「Content credentials(C2PA)」の運営員会にも参加するとしています。
ChatGPTにおいては、EUの選挙について質問をされた場合は、EU選挙の公式ウェブである「elections.europa.eu」に誘導をするようにします。
ChatGPTが学習した内容から回答を生成するだけでなく、公式情報に誘導することで誤った情報を提供する確率を可能な限り下げようという試みです。
アメリカ大統領選への対応
同様の試みは、米国大統領選挙でも全米国務長官協会(NASS)と協力をして行われる予定となっています。
OpenAIは、現在提案されている「連邦機関などの候補者に関するAIの欺瞞的な音声、視覚メディアの配布を防止する法案」を支持していることを表明しました。
この法案は憲法修正1条(言論の自由)を一部制限しながらも、選挙広告の公正性を確保するものになります。
OpenAIとしては、「自社の技術が有権者を欺くために使われることを望んでいない」とし、同法案について、選挙でAIが直面する課題を解決する重要なステップになると考えているとしています。
AIツールは過去の前例がないもので使用状況をより慎重に確認
また、「公共サービス、医療サービスなどでもAIを活用して、市民の日常生活を改善し、複雑な問題でも解決できるようにしたいと願っている。同時に、そのようなAIシステムが安全に構築され使用されていることも確認したいと考えている」との意見を表明。
他の新技術でも利点とともに課題が発生しますが、特に「AIツールは過去の前例がないものであり、使用状況をより慎重に確認しながら、そこから学び、展開をしていく必要がある」としています。
OpenAIの具体的な取り組みの詳細
OpenAIのチームの今年の選挙に際しての具体的な取り組みは以下となります。
悪用の防止
2024年の選挙の年には、別人になりすますディープフェイク、影響力の水増し操作、候補者になりすますチャットボットなど、AIのさまざまな悪用が想定されます。
OpenAIでは、新しいシステムをリリースする前にレッドチーム(脆弱性をテストする独立したチーム)に渡し、ユーザーと外部パートナーにフィードバックを依頼することで、問題を起こす可能性を低くする安全策を構築します。
画像生成AI「DALL・E」には、候補者だけでなく著名な実在の人物の画像生成を拒否する機能がありますが、それもこうした試みから生まれてきたものです。
OpenAIでは、AIが個人の考え方を説得する能力がどの程度あるのかを評価できていないとして、現段階ではChatGPTを使って政治キャンペーンやロビー活動に役立てること、そのようなアプリケーションを配布することを許可していません。
また、実在の人物または実在の機関として振る舞うチャットボットの構築も許可していないほか、さらに、選挙に関する情報を誤って伝えたり、民主的な選挙プロセスへの参加を阻害するアプリケーションも許可しないとしてます。
このような違反は、ユーザーが通報できる体制を整えているということです。
(ChatGPTで違法なアプリケーションなどを発見した場合は、誰でもメニューから「Report」を選ぶことで通報ができるようになっている)
【画像出典】OpenAIプレスリリース「How OpenAI is approaching 2024 worldwide elections」
生成AIコンテンツの透明性
生成AIが生成した画像でも、その学習に使用した画像の出所を明らかにすることで画像を評価できるようになります。
すでに、画像の来歴に関して暗号化をして画像に埋め込む規格「Content credentials(C2PA)」の標準化が進められています。画像生成AI「DALL・E3」ではこの仕組みを実装しています。
また、DALL・Eで生成した画像を検出するツールの実験も行なっています。内部テストでは有望な結果が得られており、ジャーナリスト、プラットフォーム、研究者などのテスターグループに配布を行ない、フィードバックを受ける予定になっています
また、ChatGPTでもコンテンツの透明性を高める努力を続けており、ChatGPTの回答に、参考にした記事の属性やリンクが表示されアクセスできるようになります。
権威ある投票情報への誘導
また、選挙に関する回答に関しては、公式情報、権威のある機関へのアクセスを誘導するようにします。
米国の場合は、無党派の組織である「全米国務長官協会」の「Can I Vote(NASS)」に誘導します。
これにより、ChatGPTの回答だけに頼るのではなく、公式状況をも参考にできるようになるため、「利用者は正確な情報を得ることができるようになる。この手法は、他の地域でも導入されていくことになる」としています。
【記事出典】OpenAIプレスリリース「How OpenAI is approaching 2024 worldwide elections」
編集部オススメコンテンツ
アンドエンジニアへの取材依頼、情報提供などはこちらから