[No.110]欧州連合と米国企業がAI規制で衝突、欧州AI法令「EU AI Act」改訂版にOpenAIとGoogleが反発
欧州連合(European Union、EU)は域内のAIを規制する法令「AI Act」の成立を目指し最終調整を続けている。EUはChatGPTなど生成AIを「ハイリスクなAI」として追加し、運用に厳しい条件を課すことを明らかにした。
これに対しOpenAIは強く反発し、規制について合意できない場合は欧州市場から撤退すると表明。
一方、Googleは独自の規制方式を提案し、欧州連合とAI規制方針について合意を模索している。
欧州連合と米国企業の間で、AI規制案に関し、考え方の相違が表面化した。
AI Actの改版
「AI Act (Artificial Intelligence Act)」とは欧州員会(European Commission、EC)によるAI規制法で、EU内でAIを安全に運用するためのフレームワークとなる。
現在、法案の最終調整が行われており、年内に最終案を取りまとめ、2025年からの施行を目指す。
この過程で、「ファウンデーションモデル(Foundation Models)」と呼ばれるAIが追加された。
ファウンデーションモデルとは大規模な言語モデルで、OpenAIの「ChatGPT」やGoogleの「Bard」など、生成AIが含まれる。
これにより、ChatGPTなどが「ハイリスクなAI」と区分され、その運用に厳しい条件が課されることとなった。
ChatGPTなどに課される厳しい条件
改版されたAI Actは、生成AIを開発するOpenAIやGoogleに対し、製品の運用や開発で厳しい条件を科す(下のグラフィックス)。
その条件は運用と開発の二つプロセスに適用される:
- 運用における条件:AIが使われていることを示し、AIが有害なコンテンツを生成しないこと。AIが第三者企業の製品に組み込まれて利用される場合も、開発企業にこの義務が課される。
- 開発における条件:AIのアルゴリズムの教育データに関し、著作物を使用した場合は、その概要を開示する。
OpenAIはEUから撤退
これに対しOpenAIは強く反発した。
CEOのSam Altmanは、AI Actの規制条件に沿うよう最大限の努力をするが、これが実現できなければ欧州市場から撤退すると述べた。
AI Actに準拠できない場合は制裁金が課され、実質的に、EU域内で事業を展開できなくなる。
Altmanは、後日、この発言を撤回し、欧州議会と協力していくことを確認したが(下の写真)、欧州連合と米国企業の亀裂が露呈した。
GoogleはAI協定を提案
欧州メディアによると、AlphabetのCEOのSundar Pichai(下の写真)はブリュッセルを訪問し、欧州連合幹部と会談した。
Pichaiは、改版されたAI Actの規制条項に対し、独自の方式を示し、規制方針で現実的な合意点を模索している。
PichaiはAI協定「AI Pact」を提案し、AI Actが施行されるまでの期間を対象に、AIの運用条件を提示した。
AI Pactの内容は明らかになっていないが、AI Actが施行されるまでの期間に、AI開発を進める必要があり、協定に基づいてこれを実行するとしている。
米国ハイテク企業は反発
改訂版AI Actによる生成AIの規制について、米国のハイテク企業は反発を強めている。
高度なAIを開発するSalesforceは、AI Actの規制指針は実情にそぐわないと指摘。
生成AIは誕生したばかりの技術で、そのメカニズムが明らかになっていない。
このため、生成AIを安全に開発運用するための指針や標準技術が確立されていない。
準拠すべき基準が無い状態で、AI Actは何を根拠にChatGPTを規制するのか、疑問が呈されている。
米国と欧州の対立の根は深い
ハイテク企業をめぐる規制政策に関し、米国と欧州の間で衝突を繰り返してきた。
直近の事例は「EU一般データ保護規則(General Data Protection Regulation、GDPR)」で、欧州員会はMetaなどにプライバシー保護で厳しい規制を課している。
現在は、生成AIを中心に、OpenAIやGoogleに厳しい条件を科そうとしている。
米国側は、EUは企業のイノベーションを阻害すると主張する。
一方、EUは、世界に先駆けて、欧州が消費者の権利を守り、ソーシャルメディアやAIを安全に運用する手本を示していると主張する。
現実的な解を模索する
同時に、米国産業界で、現実的な解決策を探求する動きが始まった。
その一つが、AIを段階的に規制する考え方で、市場で議論が広がっている。
生成AIに関しては、動作原理が十分理解されておらず、安全な使い方に関し、共通の合意が形成されていない。
そのため、これからの研究開発で、危険性を明らかにし、安全に運用するための技術標準化が求められる。
これら安全技術の進展に応じ、運用するためのガイドラインを確立し、AI規制法を整備するのが現実的との意見が広がっている。
米国市場はEUがAI Actに段階的な規制を組み込むことを期待している。