[No.110]欧州連合と米国企業がAI規制で衝突、欧州AI法令「EU AI Act」改訂版にOpenAIとGoogleが反発

欧州連合(European Union、EU)は域内のAIを規制する法令「AI Act」の成立を目指し最終調整を続けている。EUはChatGPTなど生成AIを「ハイリスクなAI」として追加し、運用に厳しい条件を課すことを明らかにした。

これに対しOpenAIは強く反発し、規制について合意できない場合は欧州市場から撤退すると表明。

一方、Googleは独自の規制方式を提案し、欧州連合とAI規制方針について合意を模索している。

欧州連合と米国企業の間で、AI規制案に関し、考え方の相違が表面化した。

出典: Reuters

AI Actの改版

「AI Act (Artificial Intelligence Act)」とは欧州員会(European Commission、EC)によるAI規制法で、EU内でAIを安全に運用するためのフレームワークとなる。

現在、法案の最終調整が行われており、年内に最終案を取りまとめ、2025年からの施行を目指す。

この過程で、「ファウンデーションモデル(Foundation Models)」と呼ばれるAIが追加された。

ファウンデーションモデルとは大規模な言語モデルで、OpenAIの「ChatGPT」やGoogleの「Bard」など、生成AIが含まれる。

これにより、ChatGPTなどが「ハイリスクなAI」と区分され、その運用に厳しい条件が課されることとなった。

ChatGPTなどに課される厳しい条件

改版されたAI Actは、生成AIを開発するOpenAIやGoogleに対し、製品の運用や開発で厳しい条件を科す(下のグラフィックス)。

その条件は運用と開発の二つプロセスに適用される:

  • 運用における条件:AIが使われていることを示し、AIが有害なコンテンツを生成しないこと。AIが第三者企業の製品に組み込まれて利用される場合も、開発企業にこの義務が課される。
  • 開発における条件:AIのアルゴリズムの教育データに関し、著作物を使用した場合は、その概要を開示する。
出典: European Parliament

OpenAIはEUから撤退

これに対しOpenAIは強く反発した。

CEOのSam Altmanは、AI Actの規制条件に沿うよう最大限の努力をするが、これが実現できなければ欧州市場から撤退すると述べた。

AI Actに準拠できない場合は制裁金が課され、実質的に、EU域内で事業を展開できなくなる。

Altmanは、後日、この発言を撤回し、欧州議会と協力していくことを確認したが(下の写真)、欧州連合と米国企業の亀裂が露呈した。

出典: Sam Altman

GoogleはAI協定を提案

欧州メディアによると、AlphabetのCEOのSundar Pichai(下の写真)はブリュッセルを訪問し、欧州連合幹部と会談した。

Pichaiは、改版されたAI Actの規制条項に対し、独自の方式を示し、規制方針で現実的な合意点を模索している。

PichaiはAI協定「AI Pact」を提案し、AI Actが施行されるまでの期間を対象に、AIの運用条件を提示した。

AI Pactの内容は明らかになっていないが、AI Actが施行されるまでの期間に、AI開発を進める必要があり、協定に基づいてこれを実行するとしている。

出典: Google

米国ハイテク企業は反発

改訂版AI Actによる生成AIの規制について、米国のハイテク企業は反発を強めている。

高度なAIを開発するSalesforceは、AI Actの規制指針は実情にそぐわないと指摘。
生成AIは誕生したばかりの技術で、そのメカニズムが明らかになっていない。

このため、生成AIを安全に開発運用するための指針や標準技術が確立されていない。

準拠すべき基準が無い状態で、AI Actは何を根拠にChatGPTを規制するのか、疑問が呈されている。

米国と欧州の対立の根は深い

ハイテク企業をめぐる規制政策に関し、米国と欧州の間で衝突を繰り返してきた。

直近の事例は「EU一般データ保護規則(General Data Protection Regulation、GDPR)」で、欧州員会はMetaなどにプライバシー保護で厳しい規制を課している。

現在は、生成AIを中心に、OpenAIやGoogleに厳しい条件を科そうとしている。

米国側は、EUは企業のイノベーションを阻害すると主張する。

一方、EUは、世界に先駆けて、欧州が消費者の権利を守り、ソーシャルメディアやAIを安全に運用する手本を示していると主張する。

現実的な解を模索する

同時に、米国産業界で、現実的な解決策を探求する動きが始まった。
その一つが、AIを段階的に規制する考え方で、市場で議論が広がっている。

生成AIに関しては、動作原理が十分理解されておらず、安全な使い方に関し、共通の合意が形成されていない。

そのため、これからの研究開発で、危険性を明らかにし、安全に運用するための技術標準化が求められる。

これら安全技術の進展に応じ、運用するためのガイドラインを確立し、AI規制法を整備するのが現実的との意見が広がっている。

米国市場はEUがAI Actに段階的な規制を組み込むことを期待している。