[No.105]ChatGPTを安全に運用する技術、NVIDIAは大規模言語モデルの暴走を抑えるガードレールを開発
ChatGPTなど大規模言語モデルは人間レベルの言語能力を持ち、利用が急拡大しているが、アルゴリズムが内包する危険性が社会問題となっている。大規模言語モデルが大量破壊兵器の制作方法を開示するなど、危険情報や偽情報を生成し、事業で利用するにはリスクが高い。
[No.104]フィンテック向け”ChatGPT”、ブルームバーグは金融情報処理に特化した大規模言語モデルを開発
金融情報サービス企業ブルームバーグ(Bloomberg)は、独自の大規模言語モデル「BloombergGPT」を開発した。これはChatGPTのコンセプトをフィンテックに適用したもので金融情報を解析するために使われる。
[No.103]米国政府はChatGPTなど高度なAIモデルに認証制度を導入、モデルを検査し合格したものを信頼できるAIと認定
バイデン大統領はハイテク企業に、AIを出荷する前に、製品の安全性を確認するよう求めた。この声明に続き、米国商務省はChatGPTなど高度なAIモデルに関し、安全性の認証制度「Certifications」の導入準備を開始した
[No.102]バイデン大統領はハイテク企業に出荷前にAIの安全性の確認を要求、OpenAIはGPT-4など大規模モデルの危険性を低減する対策を公開
高度な会話型AI「ChatGPT」の利用が急拡大する中で、社会に及ぼす危険性が顕著になってきた。バイデン大統領は声明を発表し、AIを開発する企業に対し、モデルをリリースする前にその安全性を確認することを求めた。
[No.101]GPT-4とChatGPTの開発手法の秘密が明らかになる、最大の課題は信頼できるAIモデルの開発、NVIDIA開発者会議におけるOpenAIとの対談から
「NVIDIA GTC 2023」OpenAIの共同創設者Sutskeverは対談の中でGPT-4とChatGPTの開発手法についてその内幕を開示し、これからの開発方向について触れた。OpenAIの高度なAIはMicrosoft Azureで開発されており、ここにNVIDIAのGPU最新モデルが使われている。
[No.100]NVIDIAは生成型AIを開発するためクラウド「AI Foundations」を投入、倫理的なAIモデルを開発し安全なテキストとイメージを生成する
NvidiaのCEOのJensen Huangは、開発者会議「GTC 2023」で、AIの最新技術を発表した。これは「AI Foundations」と呼ばれ、生成型AIを開発するためのフレームワークとなる。
[No.99]OpenAIは言語モデル最新版「GPT-4」をリリース、司法試験にトップの成績で合格、人間の上位10%の知能に到達!!
OpenAIは大規模言語モデルの最新版「GPT-4」をリリースした。
GPT-4はチャットボット「ChatGPT」のエンジンである「GPT-3.5」の後継モデルとなる。ChatGPTが米国社会に衝撃を与えたが、GPT-4はこれを遥かに上回る機能や性能を示した。
[No.98]米国の国会議員はChatGPTでAIの威力と脅威を実感、連邦議会でAI規制法の制定に向けた機運が高まる
チャットボットChatGPTが社会で急速に普及し、米国の国会議員はAIの危険性に強い懸念を抱いている。この切っ掛けはChatGPTにある。ChatGPTが米国社会で幅広く使われ、Lieu議員はこのチャットボットで法案を生成した。
[No.97]米国政府はAI規制に乗り出す、AIの危険性を管理するフレームワークを初めて公開、信頼できる自動化システムの開発指針を示す
アメリカ国立標準技術研究所(National Institute of Standards and Technology, NIST)は、AIの危険性を管理するためのフレームワークを公表した。米国政府が制定した初のAI規制方針で、企業や団体はこれに準拠して、信頼できるAIシステムを開発する。
[No.96]AIが生成するメディアで社会が混乱、米国と欧州で「生成型AI(Generative AI)」の規制が始まる
ネット上にAIで生成した写真や記事が満ち溢れ、人間が生成したコンテンツと見分けがつかず、何が真実か判別できず、社会が大混乱している。米国と欧州で、生成型AI(Generative AI)を安全に運用するためのルールが制定された。