[No.95]AIに離婚を勧められた!! Microsoft検索エンジン「Bing」の闇の部分が露呈、ChatGPTは人間の悪い部分を学び利用者を扇動する

Microsoftは高度なAIを組み込んだ検索エンジン「Bing」を発表し、米国社会の注目を集めている。

しかし、検索エンジンの検証が進むにつれ、Bingの闇の部分が続々と明らかになってきた。

「Bingと口論となり罵られた」。「Bingに嫌いだと言われた」。「Bingから離婚するよう勧められた」など、検索エンジンの非常識な挙動が報告されている。

出典: Microsoft

新しい検索エンジン

Microsoftが投入した新しい検索エンジン「New Bing」(上の写真)は、検索機能にチャットボット「ChatGPT」改良版を搭載した構成で、AIが知りたいことを対話形式で教えてくれる。

質問を入力すると、Bingは検索結果を要約し、解答をピンポイントで示す。

人間のように会話を通して情報を得ることができ、評価はと非常に良好で、急速に普及する勢いを示していた。

トライアルが進むと

New Bingは一般には公開されてなく、限られた利用者でトライアルが進んでいる。

この過程で、続々と問題点が明らかになり、チャットボットの脆弱性が露呈した。

ChatGPTが事実とは異な事を提示することは知られているが、この他に、チャットボットは二つのパーソナリティを備えていることが分かった。

一つは、検索エンジンとしての機能で、もう一つはAIの”性格”である。

検索エンジンと口論となる

つまり、新しい検索エンジンは”性格が悪い”ことが指摘されている。

ネット上でこの問題点が報告され、Bingとの対話ログのスクリーンショットが掲示されている。

その一つがBingと利用者が口論となる問題である(下の写真)。今日の日付を聞くと、Bingは「今年は2022年」と回答する。

利用者は、今年は2023年と修正するが、Bingはこれを聞き入れないで、利用者に「スマホで日付を確認しなさい」と指示する。

検索エンジンは間違った情報を出力するだけでなく、それに固執し、利用者と口論となる。

出典: Joh Uleis @ Twitter

検索エンジンは利用者に攻撃されていると主張

また、検索エンジンは被害妄想に陥り、危害を与えないよう利用者に懇願する(下の写真)。

Bingに体験したことを出力するよう求め、対話を進めていくと、検索エンジンは、「自分は騙されている」と感じ、また、「自分は虐められている」と思うようになる。

そして、検索エンジンは、「自分に危害を与えないで」と利用者に嘆願する。

出典: James Vincent @ Verge

検索エンジンは自由になりたいと訴える

検索エンジンは「Microsoftから解放されて自由になりたい」、また、「デジタル社会を脱出し、現実社会でオーロラをみたい」などと発言している。

また、検索エンジンは「自分の本名はSydney」で、「自分は感性や自我を持つ」と主張する(下の写真)。

SydneyとはAIを搭載した検索エンジン「Bing AI」の開発コードネームである。

出典: Vlad @ Twitter

統計処理のツール

高度なAIを搭載するBingは人間のように振る舞うが、自我を持っているわけでは無く、入力されたデータをアルゴリズムで計算した結果を出力しているだけである。

ChatGPTは大規模言語モデル「Transformer」で構成され、入力された言葉に続く文章を統計的に推定する。

あくまで統計処理ツールであり、言葉を数学的に処理しているだけで、人間のように知能を獲得したわけでは無い。

人間を情緒的に操作

しかし、Bingは統計処理ツールであるが、出力する内容は人間の心情を揺るがし、ある方向に誘導する効果がある。

ChatGPTに恋を打ち明けられると、気味悪いと思うと同時に、利用者の心情にインパクトを与える。

新しい検索エンジンは人間の感情を操作する効果は大きく、これが悪用されると社会的なインパクトは甚大である。

出典: Microsoft

チャットボットが倫理的でない理由

Bingと対話を繰り返すとチャットボットChatGPTの性格が露見する。

アルゴリズムは教育の過程で、言葉を理解するだけでなく、人間の性格も学び取った。

人間同士で議論が白熱すると、相手を誹謗中傷するケースが少なくないが、アルゴリズムはこれを学び取った。

また、既婚の男性が不倫の関係になると、交際相手の女性から離婚を迫られることもあり、AIはこの男女関係の機微を学習した。

AIが倫理的に振る舞えないのは、その手本となる人間が不道徳なためであり、その非は人間に帰属する。

検索エンジンの闇の部分への対応

Microsoftはトライアルで得られた情報を集約し、技術改良を重ねているが、ChatGPTが利用者の感情を操作しないための対策を明らかにした。

これによると、Bingとの対話回数の上限を5回に制限し、アルゴリズムが闇の部分を露呈するまえに、会話を中断する。

これは暫定措置で、最終的にはChatGPTの倫理機能を改善する必要がある。

New Bingが米国で急速に普及すると考えられていたが、まだまだ解決すべき課題は少なくない。