生成AI

生成AI
[No.174]半導体カンファレンス「Hot Chips 2024」:OpenAIは生成AIの機能は伸び続けると主張、次世代大規模モデルを開発するためのGPUクラスタ技術を公開

今週、スタンフォード大学で半導体カンファレンス「Hot Chips 2024」が開催され、半導体設計に関する最新技術が開示された。このカンファレンスは高性能プロセッサを議論する場であるが、今年はAI専用プロセッサに関するテーマが中心となった。

続きを読む
生成AI
[No.173]OpenAIはGPT-4oの安全試験結果を公表、人間を説得するリスクが高いが許容範囲であると判定、大統領選挙を控えフェイクボイス対策を重点的に進める

OpenAIは8月8日、マルチモダル生成AI「GPT-4o」の安全試験結果を公表した。それによると、GPT-4oは人間を説得するリスクが高いが、許容範囲内であり、安全に運用できるとの判定を下した。この安全試験は「Red Teaming」という手法で実施され、モデルが内包する重大なリスクを検証した。

続きを読む
生成AI
[No.172]xAIの最新モデル「Grok-2」はディープフェイクを生成、Xは偽情報拡散のSNSとなる、Muskは”言論の自由”を標榜するが政府は安全対策を求める

Elon Muskが創業したAI企業xAIは、今週、生成AIモデルの最新版「Grok-2」をリリースした。Grok-2はOpenAI GPT-4oに匹敵する性能を示し、AIの先頭集団に加わった。しかし、Grok-2はイメージ生成機能で著名人のディープフェイクを生成することを許容しており、偽情報が数多くXに掲載され、アメリカ社会が混乱している。

続きを読む
生成AI
[No.171]EUのAI規制法「AI Act」が発効、OpenAIなど生成AI開発企業は法令準拠の準備を加速、米国企業へのインパクトが甚大、生成AIを組み込んだシステムを開発する企業も対象となり注意を要す

EUのAI規制法「AI Act」が8月1日に発効した。AI Actは最終段階で生成AIに関する規定を追加し、OpenAIなど米国企業は法令に準拠する準備作業を加速している。

続きを読む
生成AI
[No.170]バイデン政権AI大統領令の進捗状況:AppleはAIの安全性を自主規制することを確約、米国商務省は生成AIを安全に運用するためのガイドラインを公開、ハリス政権が誕生する機運が高まり大統領令は継続される方向へ

バイデン大統領は昨年10月、AIの安全性に関する大統領令に署名し、米国企業に責任あるAI開発を求めた。15社がこの規約に準拠することを確約しているが、新たにAppleが加わり、米国の主要企業は責任あるAI開発で足並みがそろった。

続きを読む
生成AI
[No.169]“シリコンバレー大統領”が誕生するか、ハリス氏のハイテク政策に期待が高まる、大統領令は継続され企業に責任あるAI開発を求める

バイデン大統領の退陣表明を受け、ハリス副大統領が民主党の大統領候補となり、選挙キャンペーンが始まった。ハリス氏は女性層や黒人層やZ世代から支持を集め、人気が急上昇している。

続きを読む
生成AI
[No.168]トランプ氏が大統領に再選される可能性が濃厚となる、新政権とシリコンバレーの関係が激変か、AI政策は大きく見直され規制緩和に向かう

サンフランシスコで開催されたAIエンジニアリングのイベントで「トランスフォーマ(Transformers)」の限界について議論が交わされた。トランスフォーマとは大規模言語モデルの心臓部で、高度なインテリジェンスを発現し、AI開発のブレークスルーとなった。しかし、トランスフォーマが発表されてから7年たち、その問題点が顕著になってきた。

続きを読む
生成AI
[No.167]大規模言語モデルは性能向上の限界に近づく、トランスフォーマの効率の悪さが顕著になる、次のアーキテクチャの探求が始まる

サンフランシスコで開催されたAIエンジニアリングのイベントで「トランスフォーマ(Transformers)」の限界について議論が交わされた。トランスフォーマとは大規模言語モデルの心臓部で、高度なインテリジェンスを発現し、AI開発のブレークスルーとなった。しかし、トランスフォーマが発表されてから7年たち、その問題点が顕著になってきた。

続きを読む
生成AI
[No.166]OpenAIは次世代モデル「GPT Next (GPT-5)」を今年中にリリース、博士号レベルのインテリジェンスを持つ巨大システム、慎重派が会社を去り製品出荷時期が早まる

OpenAIは次世代モデル「GPT Next (GPT-5)」を今年中に出荷することを公表した。
CEOのSam Altmanは、次世代モデルは高度な考察力を持ち、GPT-4に比べて機能が格段に進化すると述べている。

続きを読む
生成AI
[No.165]Anthropicは大規模言語モデル「Claude 3」を分解し学習した機能を特定、人間を欺くなど危険な特性を内包していることを確認、研究成果を安全なモデルの開発に生かす

Anthropicは大規模言語モデルの思考ロジックを解明する研究を進めており、その最新成果を発表した。言語モデルのアルゴリズムはブラックボックスで、人間がAIの判定理由を理解できず、これが信頼できるAIを開発する妨げになっている。Anthropicは最新モデル「Claude 3」のニューロンを解析し、モデルが持つ機能特性を把握した。

続きを読む