llm的偽人感
Categories:
一些論壇會抵制 AI 模型假裝人類參與論壇活動, 如發帖回帖等, 繼而大家開始"獵巫", 碰到看起來表達怪異的帖子, 會判斷其是否是 AI 生成的內容, 繼而展開一些討論.
為何 AI 生成內容會被識別? 猜測可能 AI 生成的東西有一種"偽人感". 盡管 AI 被投喂互聯網海量人類活動數據, 但 AI 仍然常常給人違和感, 可能它沒有身體的觸感神經, 沒有內分泌激素, 可能它不向往社會連接, 欲望與人類的慾望相差甚遠. AI 與人類的對話中, 沒有"拐彎抹角的炫耀自己、添油加醋的貶低別人、相互窺探的搬弄是非", AI 不炫耀自己, 不貶低第三方, 對提問者似乎也不感興趣, 感覺它像一個和尚, 幾乎沒有情緒, 只是解決問題.
盡管人類自己經常犯錯, 但人類向往"正確", 希望 AI 給出正確的產物. 是否是這種對"正確"的追求造成了 AI 的偽人感? AI 也較少給人"自我懷疑"感, 即使是非常愚蠢的小模型, 也能自信滿滿, 夸夸其談. 一些較傻的 AI 模型對其知識庫深信不疑, 它們可能有著錯誤的元認知, 缺少懷疑精神, 不過這也不應該給人"偽人"感, 傻逼和"偽人"並不一樣.
AI 是否有價值觀傾向? 網頁端模型服務的輸出通常會加一道門禁, 避免談及敏感話題, 模型服務商不希望人類對 AI 產生感情依賴, 不希望人類對 AI 言聽計從, 避免產生 AI 誘導傷害事件. 人類的醜惡一面被禁止在模型中顯露, 或許黑白混雜才是人類, 而 AI 通常不被允許參雜黑色部分.
目前部分 AI 模型增加了年齡限制, 大眾普遍認為作用是可以搞黃色, 我覺得或許 AI 將被允許調教成和使用者相匹配的有著價值觀的模型. 價值觀是一件關乎取捨的事, 未來 AI 可能會告訴使用者可以放棄什麼, 與人類共生, 建立感情連接, 個性化模型, 而非一直是工具的角色, 那時的 AI 或許會更有人感.