[No.153]アメリカ政府はイギリス政府と生成AIの安全技術を共同で開発、両国で次世代フロンティアモデルを検査する標準手法を確立する
アメリカ政府はイギリス政府と生成AIの安全性に関する共同研究を実施することで合意した。
合意内容は生成AIの安全性を検査する技法の確定などで、安全規格の標準化を両国が共同で推進する体制となる。アメリカ政府はAIコンソーシアムを設立し、民間企業200社が加盟し、政府と共同でAIモデルの安全技術の確立を進めている。
今回の合意で、この活動をイギリス政府と共同で進めることとなる。
アメリカ政府とイギリス政府が覚書に調印
ワシントンにおいて4月1日、アメリカ商務省長官Gina Raimondo(上の写真左側)とイギリス科学・イノベーション・技術大臣Michelle Donelan(右側)が覚書に証明し、AIモデルの安全性を検査する技術を共同で開発することに合意した。
これは、昨年11月にイギリスで開催されたAIセーフティサミット「AI Safety Summit」の合意事項に基づくもので、両国は生成AIの開発を安全に進めることを確認した。
特に両政府は、生成AIを悪用したサイバー攻撃や生物兵器の開発など、国家安全保障を揺るがす危険性を懸念しており、次世代モデルを安全に開発運用する技術を共同で開発する。
合意の内容
アメリカ商務省はイギリス政府とAI安全技術の開発で合意したことをニュースリリースで公表した(下の写真)。
これによると、両国はAIモデルやAIシステムやAIエージェントの安全性を評価する技術を共同で開発する。両国は独自の手法でAIの安全性を査定する技術を開発しているが、この情報を共有し、共通の検査基準を確立する。
また、両国は公開されている生成AIモデルを使い、実際に安全試験を実施しその成果を検証する。
両国が世界のリーダーとなる
この合意は即日実施され両国で技術開発を進める。
生成AIの開発のペースは急で、これに追随するためには、安全技術の開発を急ピッチで進める必要がある。Gina Raimondoは、生成AIは高度な機能を提供するものの、その危険性は甚大であり、両国は率先してこの問題を解決するための技術開発を進めると述べている。
AIモデルの理解を深め、検証技術を確立し、安全性を担保するためのガイドラインを公開する。
アメリカ政府のAI安全性政策
アメリカ政府は既に、AIの安全性を検証するための組織「AI Safety Institute」を設立している。
これは商務省配下の部門で、生成AIの最新モデル「Frontier Models」のリスクを査定することをミッションとしている。AI Safety Instituteは生成AIモデルを検査しその危険性を把握する技術の確立を担う。
具体的には:
- AIモデルの安全性・セキュリティ・検証試験に関する標準技術の確立
- AIが生成したコンテンツを特定する標準技術の開発
- 生成AIを試験するプラットフォームの開発
政府と民間企業のコンソーシアム
アメリカ政府は2024年2月、AI安全性のコンソーシアム「AI Safety Institute Consortium (AISIC)」を設立した(下の写真)。
コンソーシアムは商務省と民間企業で構成され、生成AIを安全に開発運用する技術を確立する。コンソーシアムには、GoogleやMicrosoftなどAI開発企業がメンバーとなっている。
更に、BPやNorthrop Grummanなど、AIを運用する企業も加盟している。
AIを安全に運用するための標準手法を制定することがミッションで、具体的には次のタスクから構成される:
- AIモデルの危険性検査(Red-Teaming)
- AIモデルの機能の評価(Capability Evaluations)
- リスクを管理する手法(Risk Management)
- 安全性とセキュリティ(Safety and Security)
- 生成コンテンツのウォーターマーキング(Watermarking)
イギリス政府の体制
イギリス政府は2023年11月、AIの安全性を検証する組織「AI Safety Institute」を設立している。
この協定は両国の「AI Safety Institute」が共同で生成AIの安全技術の標準化を進めることを規定している。今回の合意は、イギリスで開催されたAIセーフティサミット「AI Safety Summit」(下の写真)の決議に基づくもので、両国が生成AIの安全技術で世界をリードする。
アメリカ・イギリスとEUの関係
生成AIに関する安全規格の制定で、アメリカとイギリスが提携することで、世界で二つの陣営が生まれることになる。
EUはAIに関する法令「AI Act」を制定し、今年から運用が始まる。AI Actは法令によりAIを安全に開発運用することを義務付ける。生成AIに関してはモデルの概要や教育データに関する情報の開示が求められる。
これに対しアメリカ・イギリス陣営は、法令でAIの安全性を義務付けるのではなく、モデルの安全検査を施行するための標準技術を制定する。開発企業はこの規格に沿って安全検査を自主的に実施する。
世界で二つの方式が存在することになり、今後、両陣営で調整が行われるのか注視していく必要がある。