[No.131]バイデン大統領はAI規制の方向に政策を大転換、企業はAIの安全試験と情報開示が義務付けられた、大規模モデルの危険性を管理しつつ技術革新を促進
バイデン大統領は、10月30日、アメリカが責任あるAI開発と技術革新を推進するため、政策を大きく転換した大統領令を発行した。
大統領は記者会見で、AIが悪用されないため、セーフガードを設け、生物兵器の開発やサイバー攻撃を防ぐことに重点を置いていると、大統領令の趣旨を説明した(下の写真)。AI開発企業には、大規模モデルの安全性に関する試験を実施し、その結果を報告することを求めた。
アメリカ政府はAI規制に消極的であったが、大統領令で政策を一転し、AIの危険性を制御しつつイノベーションを推進する方針を打ち出した。
大統領令の概要
大統領令はアメリカが責任あるAI開発と運用で世界のリーダーとなることを目的に制定された。
バイデン政権は責任あるAI開発を進めており、Googleなど15社と自主規制に関する合意文章「Voluntary AI Commitments」を制定した。
大統領はこの内容を拡充したもので、8つの項目から構成される。
- 安全基準:開発企業は大規模モデルの安全試験を実施しその結果を報告
- プライバシー保護:プライバシー保護技術(暗号化技術など)の開発を支援
- 国民の権利保護:AIアルゴリズムによる差別を制御するための基準を制定
- 消費者や患者の支援:医療でAIを安全に使うためのプログラム制定など
- 労働者の保護:労働者がAIにより不利益をこうむらないための基準の制定
- 技術革新促進:国立AIセンターで研究者や学生に計算環境を提供
- 国際社会との連携:G7や主要国と連携しAI安全規格の制定など
- 連邦政府のAI利用:連邦政府がAIを安全に利用するための基準を制定
安全基準
安全基準「New Standards for AI Safety and Security」では、AIの安全性とセキュリティと信頼性に関する新たな基準を規定する。
その中心が、開発企業に大規模モデルの安全試験を実施し、その結果と関連情報を連邦政府に報告することを求めている。
製品を出荷する前に、企業はモデルが安全でセキュアであることを保証することが義務付けられた。
AIモデルの安全試験
大規模モデルの安全試験の具体的なプロセスは:
- 対象モデル:ファウンデーションモデル (パラメータ数が10B以上のモデルで、OpenAIのGPT-4やGoogleのPaLM 2など主要モデルが対象となる。更に、オープンソースとして公開されている10B以上のモデルも対象となる。Meta Llama 2をベースにモデルを開発する際にはこの義務が課される。)
- 試験方式:Red Teaming (モデルを攻撃してアルゴリズムの脆弱性を検証する方式)
- タイミング:モデルのトレーニング時(モデルの開発時に安全試験を実施し報告)
AIモデルの安全試験を要請する根拠法
AIモデルの安全試験に関しては「Defense Production Act」という法令に準拠する。
Defense Production Actは国防のために大統領が民間企業に生産を要請することを認める法令で、コロナのパンデミックでワクチン製造などで使われた。
今回は、国家安全保障の観点から、AIが国家や国民に重大なリスクをもたらすことを抑止するため、民間企業に安全対策を要請する。
AIの安全規格
大統領令は、AIシステムが安全でセキュアであるための、標準規格の制定やツールの開発や検査方法の制定を求める。
具体的には、連邦政府に対し、この規定を実行することを求めている:
- 国立標準技術研究所(NIST):Red Teaming方式で安全性を検証するための試験規格の制定
- 国土安全保障省(DHS):規定された試験規格を基幹インフラに適用しAIのリスクを査定
- エネルギー省(DOE)など:化学兵器、生物兵器、核兵器、サイバー攻撃に関しAIリスクを検証
バイオエンジニアリング
大統領令は、AIで危険なバイオマテリアルが製造されることを抑止することを求めている。
具体的には、人工的にバイオマテリアルを生成するときの安全規格の制定を求める。
バイデン政権は特に、AIで生物兵器など危険なマテリアルが生成されることを重視し、安全対策を求める。
AIが生成したコンテンツ
大統領令は、AIが生成したコンテンツにより、国民が騙されることを防ぐための基準の制定を求めている。
また、AIが生成したコンテンツを安全に利用するため、ベストプラクティスの制定とコンテンツを見分ける技術の確立を連邦政府求めている。
具体的には:
- 商務省(DOC)は、コンテンツを認証する基準とAIが生成したコンテンツにウォーターマークを挿入する技術を開発する。
- 連邦政府は、政府が国民に向けて発信するコンテンツにこの技術を導入し、配信するドキュメントが正当であることを保証する。
サイバーセキュリティ
大統領令は、AIを使って基幹インフラの脆弱性を見つけ、それを補強するための技術の確立を求めている。
これは、バイデン政権が進めているハッキング・チャレンジ「AI Cyber Challenge」を拡大するもので、AIを使ってソフトウェアの弱点をあぶりだし、セキュアなシステムを構築する。
セキュリティメモランダム
大統領令は、AIと安全保障に関する次のアクションをメモランダム「National Security Memorandum」として定めるよう求めている。
メモランダムは、軍事部門と諜報部門がAIを安全にかつ倫理的に活用する指針を定める。
また、敵対国によるAIの軍事使用に対抗するための措置を定める。
規定されなかった項目1:ライセンス制度
大統領令はAI開発企業に幅広いアクションを求めているが、ここに規定されなかった条件は少なくない。
厳しい規制を設けるものの、企業に対して責務を軽減する一定の配慮を示している。その一つがライセンスで、AI開発を認可制にすることは規定されなかった。
ライセンスを受けた企業だけが大規模モデルを開発できる制度が導入されるとの予測もあったが、この方式は規定されなかった。
規定されなかった項目2:データ開示
AIモデルに関しどこまでの情報開示が求められるのかが最大の関心事であった。
大統領令で、検査方式はRed Teamingと確定し、開示情報は検査結果のデータに限られた。AIモデルのアーキテクチャやサイズ(パラメータの数)や教育データについて開示することは求められなかった。
生成AI開発で競争が激化する中、これらを配慮して、情報開示は必要最低限の範囲に留まった。
規定されなかった項目3:教育データの著作権
大統領令は、教育データの開示を求めていないことに加え、教育データに著作物が含まれているかどうかの情報提示も求めていない。
市場では、書籍の著作者などがAI開発企業を著作権侵害で訴訟しているが、著作権に関する規定は制定されていない。
AI開発者側に有利な内容となっている。
AI政策の大転換
アメリカ政府はAIの危険性は認識するものの、これを規制する政策については消極的な立場を取ってきた。
しかし、ChatGPTなど高度な生成AIが登場し、危険性が顕著になり、バイデン政権はAI開発企業に自主規制を求めるなど、安全対策を進めた。大統領令により、これらが制度として確立し、AI開発企業は安全検査が義務付けられた。
アメリカ政府は一転してAI規制に進路を転換したが、同時に、技術革新を支援するという現実的なオプションを選択した。