[No.175]人間の知能を超えるAI「スーパーインテリジェンス(ASI)」の開発を始動!!Sutskeverは安全性を最優先したASIを2030年までに投入

AI研究の第一人者であるIlya Sutskeverは今年6月、人間の知能を超えるAI「Artificial Superintelligence (ASI)」を開発する企業「Safe Superintelligence Inc.(SSI)」を設立した。

今週、SSIは主要ベンチャーキャピタルから10億ドルの出資を受けたことを発表した。

SSIはこの資金を元に、安全性を最優先したスーパーインテリジェンスの開発に着手した。

出典: Adobe Stock

Safe Superintelligence Inc.とは

Safe Superintelligence Inc.(SSI)はIlya Sutskeverらにより設立されたスタートアップ企業で、カリフォルニア州パロアルトとイスラエル・テルアビブを拠点とし、人間の知能を凌駕するスーパーインテリジェンスを開発する。

Sutskever(下の写真右側)はOpenAIでスーパーインテリジェンスを人間の価値に沿って稼働させる技術「スーパーアラインメント(Super-alignment)」の研究責任者を務めた。

SutskeverはSam Altman(左側)の解任騒動のあとOpenAIを去りSSIを創設した。

出典: Getty Images

会社のミッション

SSIは安全なスーパーインテリジェンスを開発することをミッションとし、短期レンジでビジネスを運営するのではなく、長期レンジで研究開発を進める。

安全なスーパーインテリジェンスの開発では、AI技術と安全技術を並列で開発しながら、モデルの規模を拡大していく戦略を取る。このプロセスでは、安全機能の開発を優先し、モデルの規模を拡大していく。

ベンチャーキャピタルからの資金はコンピュータ環境の構築や研究者の給与などに充てる。

ベンチャーキャピタルからの投資

Andreessen HorowitzやSequoia Capitalなど主要ベンチャーキャピタルが10億ドルを出資し、SSIの企業価値は50億ドルとなった。

ここ最近、ベンチャーキャピタルはAI企業への投資に慎重な姿勢を示しており、まだプロトタイプも完成していない企業に大型投資を実行したことで、SSIの構想に注目が集まっている。

スーパーインテリジェンスとは

スーパーインテリジェンスは「Artificial Superintelligence (ASI)」と呼ばれ、人間の知能を凌駕するAIを指す。一方、人間レベルのインテリジェンスは「Artificial General Intelligence (AGI)」と呼ばれ、ASIと対比して使われる。

また、現行のAIは特定のタスクの処理に特化したモデルで「Artificial Narrow Intelligence (ANI)」と呼ばれる。ASIは高度な学習能力を持ち、短期間でスキルを獲得する。また、人間が解決できない大きな問題を解決することができるとされる。

このペースで開発が進むとASIは2030年までに登場するという予測が業界の共通見解となっている。

出典: Adobe Stock

スーパーインテリジェンスのイメージ

Sutskeverは講演の中でスーパーインテリジェンスについて語っている。

スーパーインテリジェンスは人間を超越するAIであるが、物理的にはデータセンタ全体がこのモデルを実現す。巨大なデータセンタが大規模モデルを実行し、人間の知能を超えるタスクを実行する。

巨大データセンタ=スーパーインテリジェンスという概念となる。Sutskeverは、スーパーインテリジェンスが人間に敵対意識を持たないよう、人類と友好的な関係を築くことが肝要であると述べている。

モデルの開発では人間に対しポジティブな意識をもつよう方向を調整する「スーパーアラインメント」が重要になる。

出典: Adobe Stock

スーパーインテリジェンスを安全に開発する技法

SSIはスーパーアラインメントについて具体的な手法は公開していないが、SutskeverはOpenAIでこの研究を担っていた。

それによると、スーパーインテリジェンスの開発では、モデルを人間の意図に沿って稼働させることが最大のチャレンジとなる。この問題を解決する手法として、人間に代わりアラインメントを評価するAI「アラインメントAI」を開発するアプローチを取る。

スーパーインテリジェンスの開発では人間がモデルを評価するには限界があり、人間に代わりアラインメントAIがこれを司る。

具体的には:

  • Scalable Oversight:アラインメントAIがAIモデルを評価する
  • Generalization:アラインメントAIが学習したスキルを他の分野に応用する

AIの開発ではモデルの規模が大きくなると、AIが実行するタスクが複雑になり、また、それぞれの領域で高度な専門知識が必要になり、人間がこれを実行するには限界がある。

このため、人間の評価者に代わりアラインメントAIがこれを実行する手法を取る。

スーパーインテリジェンス開発の見通し

Sutskeverはベンチャーキャピタルからファンディングを受けたあと、Xにツイートを掲載し、スーパーアラインメント開発の目途がついたことを明らかにした(下の写真)。

「Mountain: identified.  Time to climb」と書き込み、どの山をアタックすれば安全なスーパーインテリジェンスを開発できるのか、指針が定まったことを示唆した。

基礎研究の段階を経て、あとはエンジニアリングの問題で、山に登るときが来たと述べている。

出典: Ilya Sutskever

Sutskeverの背景情報

Sutskeverは旧ソビエト連邦出身のコンピュータサイエンティストで、ニューラルネットワークの生みの親として知られている。

Sutskeverは2012年、トロント大学で画像を判定するニューラルネットワークを開発し精度を劇的に向上させた。このモデルは「AlexNet」と呼ばれ、Convolutional Neural Network(CNN)というモデルの基礎技術となった。

これがAIブームの口火を切り、現在の生成AIに繋がっている。

Sutskeverの人物像

SutskeverはOpenAIで安全技術の研究開発を進めてきたが、Sam Altmanは次世代製品の開発を優先する方向に転換し、解任騒動のあと会社を離脱しSSIを設立した。

Sutskeverの講演を聴くとスーパーインテリジェンスの安全機構の重要性を理解できる。Sutskeverは研究者であるが技術に関し深い理解を示し、AIの哲学者でもある。

AIの真理を把握し、モデルの挙動規範を評価する倫理学者としての側面を持つ。

SutskeverはこのペースでAI開発が進むとスーパーインテリジェンスが生まれるのは自明の流れで、これに先立ち、いまから安全技術の研究開発を進める必要があるとの信念を持つ。