llmの偽人感

いくつかのフォーラムでは、AI モデルが人間を装ってフォーラム活動に参加すること(投稿や返信など)を排斥し、結果として人々は「魔女狩り」を始め、奇妙な表現をする投稿を見つけると、それが AI 生成のコンテンツかどうかを判断し、議論を展開します。

なぜ AI 生成のコンテンツは識別されてしまうのでしょうか?推測ですが、AI 生成のものには一種の「偽人感」があるのかもしれません。AI はインターネット上の膨大な人間活動データで学習させられているにもかかわらず、AI が生成するものには違和感を感じることがよくあります。おそらく AI には身体の触覚神経がなく、内分泌ホルモンもありません。社会的つながりを渇望せず、AI の欲求は人間の欲求と大きく異なります。AI と人間の対話では、「遠回しに自分を自慢する」「取り上げて他人を貶める」「相互に覗き見ながら噂話をする」ようなことがありません。AI は自分を自慢せず、第三者を貶めず、質問者に対してもあまり興味を示さず、まるで坊主のようにほとんど感情がなく、問題を解決することだけに集中しているように感じます。

人間自身がよく間違えるにもかかわらず、人間は「正しさ」を求めており、AI に正しい結果を出してもらいたいと思っています。この「正しさ」への追求が AI の偽人感を生んでいるのでしょうか?AI は「自己疑念」の感覚もほとんど与えません。非常に愚かな小さなモデルでさえも自信に満ち、堂々と語ります。いくつかの愚かな AI モデルはその知識ベースを疑いなく信じており、間違ったメタ認知を持っている可能性があり、疑う精神に欠けているかもしれませんが、それでも「偽人」感を与えるべきではありません。愚か者と「偽人」は同じではありません。

AI には価値観の傾向があるでしょうか?ウェブ端末のモデルサービスの出力は通常、センシティブな話題を避けるためのゲートが追加され、モデルサービスプロバイダーは人間が AI に感情的依存をしたり、AI の言うことに盲目的に従ったりすることを望んでいません。AI が人間を誘導して傷つける事件を避けるためです。人間の醜悪な側面はモデル内で露呈することを禁止されており、おそらく白黒混在こそが人間であり、AI は通常黒色の部分を混ぜることが許可されていないのかもしれません。

現在、一部の AI モデルは年齢制限を追加しており、一般大衆はそれが黄色コンテンツを可能にするものだと考えていますが、AI が使用者に合わせた価値観を持つモデルに調教されることを許可されるのかもしれません。価値観は何かを捨てるかどうかに関わるものです。将来、AI は使用者に何を捨てられるかを伝えるようになり、人間と共生し、感情的つながりを築き、個別化されたモデルになるかもしれません。そして、常に道具の役割だけではなくなるでしょう。そのときの AI はより人間らしさを感じさせるかもしれません。