[No.97]米国政府はAI規制に乗り出す、AIの危険性を管理するフレームワークを初めて公開、信頼できる自動化システムの開発指針を示す

アメリカ国立標準技術研究所(National Institute of Standards and Technology, NIST)は、AIの危険性を管理するためのフレームワークを公表した。

これは「AI Risk Management Framework」と呼ばれ、AIの危険性を把握し、リスクを最小化するためのガイドラインや手法が示されている。

米国政府が制定した初のAI規制方針で、企業や団体はこれに準拠して、信頼できるAIシステムを開発する。

出典: NIST

NISTの取り組み

社会でAIが幅広く使われ、消費者は多大な恩恵を受けている。

同時に、アルゴリズムにより差別を受け、保険への加入ができないなど、AIの問題点が顕著になっている。

このため、NISTは、AIの危険性を定量的に把握し、共通の理解を持つための研究を進めてきたが、これをフレームワークの形に纏めて発表した。

このプロジェクトは2021年7月に始まり、ドラフトを公開し、企業からの意見書を集約し、最終版が2023年1月にリリースされた。

フレームワークの構成

フレームワークは二部構成になっており、第一部はAIの危険性を理解し、それを把握する手法が示されている。

第二部は、フレームワークのコアの部分で、組織がAIの危険性を低減するための手法が示されている。

信頼できるAIとは

第一部で、NISTは「信頼できるAI(Trustworthy AI)」を定義し、それを構成する要素を説明している(下のグラフィックス)。

信頼できるAIは安全で、安定して稼働し、判定理由を説明でき、個人のプライバシーを保護し、公平に判定できるシステムと定義する。

更に、これらの要素を検証でき、また、これらの要素が設計に従って稼働するとしている。

そして、システム全体が、責任ある設計で、情報が開示されることが信頼できるAIを構成する要素になるとしている。

出典: NIST

AIの危険性を低減する手法

第二部は、フレームワークのコアの部分で、組織がAIの危険性を低減するための手法が示されている。

これらの手法は「機能(Function)」と呼ばれ、四つの要素で構成される(下のグラフィックス)。

それぞれの機能は複数のカテゴリーに分類され、更に、それらはサブカテゴリーに細分化される。
四つの機能とは:

  • 統制(Govern):組織が信頼できるAIを開発するため企業文化を育成する手法
  • マップ(Map):AIシステムの要素とそれが内包するリスクをマッピングする手法
  • 計測(Measure):特定されたリスクを査定し、解析し、それをトラックする手法
  • 管理(Manage):AIシステムの機能の重要性に応じてリスクの順位付けを行う手法
出典: NIST

フレームワークの使い方

フレームワークは、機能とカテゴリーごとに、信頼できるAIを開発するための指針を示している。

これは、ソフトウェア開発のためのマニュアルというよりは、開発指針を定めたデザインガイドで、ハイレベルなコンセプトが示されている。

例えば、「管理(Manage)」に関しては、AIのリスクを重大度に応じてランク付けして管理する手法が示されている:

  • マップや計測のプロセスにより、AIシステムのコンポーネントのリスクを査定する
  • 管理のプロセスでは、リスクを勘案し、AIシステムが設計通りの機能を実現できるかを検討し、開発を継続するかどうかを決める
  • 開発を継続する際には、リスクを低減する手段を実行するなど

フレームワークの位置付け

フレームワークの特徴は、信頼できるAIを開発するための指針であり、法令ではなくこれに準拠する義務はないこと。

米国政府は、連邦議会がAIを規制する法令を制定するのではなく、ガイドラインを提示して、業界が自主規制する方針を取る。

この背後には、AIそのものの定義が明瞭ではなく、産業界全体を一律に規制することは難しいとの考え方がある。

フレームワークは業種に特化したものではなく、汎用的な構造で、これをベースに企業や団体が最適な枠組みを導入する。

NISTとは

米国では商務省(Department of Commerce)がAI標準化において中心的な役割を果たし、連邦政府の取り組みをリードしている。

NIST(下の写真)は商務省配下の組織で、AI関連の研究や標準化を進めている。

NISTは計量学、標準規格、産業技術の育成などの任務を担い、信頼されるAIが経済安全保障に寄与し、国民の生活を豊かにするとのポジションを取る。

出典: NIST

次のステップ

フレームワークが米国政府のAI政策の枠組みとなり、法令による規制ではなく、業界の実情に応じて柔軟にAIを開発する方針が示された。

一方、欧州はAI規制法「AI Act」で、域内27か国を統合して管理する方式を取る。

この他に、世界ではユネスコ(UNESCO)や経済協力開発機構(OECD)が倫理的なAIを開発するためのガイドライン(Recommendation)を公開しており、各国で利用されている。

世界にはAI規制法令やAIガイドラインが存在しており、米国政府は次のステップとして、他国のフレームワークと整合性(Alignment)を取る作業に進むことを計画している。