Anonymous ID: b6c314 Sept. 7, 2025, 5:59 a.m. No.23559542   🗄️.is 🔗kun

AI doesn’t just lie — it can make you believe it

 

AIは嘘をつくだけではありません - それはあなたにそれを信じさせることができます

 

New studies show AI chatbots and altered media can distort memory

 

新しい研究では、AIチャットボットと変更されたメディアが記憶を歪める可能性があることが示されています

 

人工知能と関連技術によってもたらされる、より微妙で陰湿な脅威の1つは、記憶を改ざんする能力です。

心理学者のエリザベス・ロフタスは、過去50年間、人間が決して起こったことのないことを思い出すために操作できることを示しています。

現在、カリフォルニア大学アーバイン校の教授であるロフタスは、マサチューセッツ工科大学の研究者と協力して、AIが私たちが覚えていると思うものを操作する方法を探求しています。この操作は、被験者がAIに生成されたテキストと画像を見ていることを知っている場合でも発生します。調査結果は、人工知能が誤った記憶を植え付ける人間の能力を増幅できることを示唆しています。

1970年代に始まった有名な一連の実験で、ロフタスは、適切な提案により、心理学者が子供のようにショッピングセンターで失われたこと、またはピクニックで卵やイチゴのアイスクリームで病気になったことを記憶することができることを示しました。後者は実際に人々をそれらの食べ物を欲しがらないようにしました。証拠にもかかわらず、記憶はイベントのテープ録音のようなものであるという考えを揺るがすことはできません。

「このテープレコーダーモデルのメモリモデルを遵守する人は、メモリが建設的なプロセスであることを理解していないようです」とロフタスは、私たちの脳がさまざまな時期に獲得したビットとピースの記憶を構築することを説明しました。私たちは、記憶を失ったり退色したりすることを忘れることを直感的に理解していますが、誤った詳細の追加ではありません。

ロフタスはまた、「投票をプッシュする」という考え方の可能性を研究しています。そこでは、「脱税で有罪判決を受けたことを知っていれば、ジョー・バイデンについてどう思いますか?」彼女は、AIがこの種の欺瞞を大規模にどのように効果的に行うかを検討するのは冷静だと言いました。

記憶の操作は、MIT Media Labの研究者であるPat Pataranutapornは、深い人をだますこととは非常に異なるプロセスであると述べています。たとえば、The New York TimesのWebサイトの精巧な偽物を作成する必要はありません。過去に何かを読んだ人を納得させるだけです。 「人々は通常自分の記憶に疑問を呈しません」と彼は言いました。

 

Pataranutapornは3つの記憶実験の主執筆者であり、その最初のものは、チャットボット尋問者が質問に提案を埋め込むだけで証人の証言を変える方法を示しました。

その研究では、参加者は武装強盗のビデオ映像を見ました。その後、「強盗が車に駐車した場所の近くにセキュリティカメラがありましたか?」など、誤解を招く質問をされました。これらの参加者の約3分の1は、強盗が車で到着するのを見たことを後に思い出しました。車はありませんでした。誤った記憶は1週間後でも持続しました。

被験者は3つのグループに分けられました。1つは誤解を招く質問を受け取りませんでした。もう1つは書かれた形でそれらを受け取り、3人目はAIチャットボットからそれらを受け取りました。チャットボットグループは、書面で誤解を招く情報を受け取った人の1.7倍の誤った記憶を形成し続けました。

別の研究では、不正なAIの要約またはチャットボットが、人々が読んだストーリーに誤った記憶を簡単に挿入できることが実証されました。パタラヌタポーンは、さらに懸念しているのは、AIの要約またはチャットを誤解を招く参加者も、読書からの実際の情報を保持していないことであり、彼らが想起した真の情報に対する自信が少ないことを報告したことです。

3番目の研究では、AIが画像とビデオを使用して誤った記憶をどのように植え付けることができるかを示しました。研究者は200人のボランティアを4つのグループに分けました。各グループの参加者は、24の画像のセットを見ました。一部はニュースWebサイトで見つかった典型的な画像でしたが、他の人は誰かがソーシャルメディアに投稿する結婚式の写真などです。

数分後の2回目の視聴中に、各グループに異なるバージョンの画像が表示されました。 1つのグループが同じ(変更されていない)画像を見ました。 2番目のグループでは、AIが変更されたバージョンが表示されました。 3番目のグループでは、AI修飾画像が短いAIの生成ビデオに変換されました。最終グループは、AIが生成されたビデオに変換された完全にAIに生成された画像を表示しました。

元の画像を見たグループでさえ、いくつかの誤った記憶を保持していました - 24の異なる写真を思い出すことがどれほど難しいかを考えると、驚くことではありません。しかし、あらゆるレベルのAI操作にさらされた参加者は、誤った記憶を大幅に多く報告しました。メモリの歪みの速度が最も高いグループは、AIの生成画像に基づいてAIに生成されたビデオを視聴したグループでした。

若い人たちは、高齢者よりも誤った記憶を取り入れる可能性がいくらか高かった。教育レベルは感受性に影響しなかったようです。特に、誤った記憶は、参加者をだましてAIに生成されたコンテンツが本物であると考えることに頼っていませんでした。

画像実験では、変更のいくつかは背景の変化を伴いました。これは、一般の集まりや天気の変化に軍事的存在を追加します。画像は、オリジナルの機能のほとんどを保持していました。私が専門家から学んだように、本当の影響を与えるために、偽情報は少なくとも60%真実のストーリーを組み込む必要があります。

この最新の研究は、現実の把握に対するテクノロジーの影響に関するより多くの議論に拍車をかけるはずです。また、ソーシャルメディアのアルゴリズムは、人気と影響力の誤った印象を生み出すことにより、人々がフリンジのアイデアと陰謀説を受け入れることを奨励しています。

AIチャットボットは、私たちにさらに微妙で予想外の影響を及ぼします。私たちは皆、新しい事実と強い議論によって心を変えることにオープンでなければなりません。

 

https://www.japantimes.co.jp/commentary/2025/09/04/world/artificial-intelligence-lies/

 

//'//'//'//'//'//'/////

自分の頭で考える事ができなければ、、、