低智力型LLM適合做什麼

低智力型LLM適合作為內容分析和提問工具,而非直接生成內容或替代人類決策。

與大模型鬥智鬥勇一年,終於明白一個事實,模型的輸出是概率性的。這本來是一件顯而易見的事,但仍然花了我不少時間去接受。只有真正理解大模型的概率性,才能思考它適合做什麼事。

大模型的輸出由於傾向輸出更高概率正確的內容,因此其答案也具有非常大的迷惑性,不容易識別。有的文章面向讀者層次高,對低質文章浪費的腦力和時間非常敏感,因而牴觸 AI 生成內容。有的讀者對各類文章的分辨能力較差,更容易接納 AI 生成內容。

因此讓大模型生成內容,需要考慮面向讀者群體,不適合生成需要嚴謹對待的內容,如技術文檔、論文、教程、長文等,適合生成簡短的新聞、社科類文章、評論等。大模型幻覺 問題進一步限制了其在需要事實準確性場景的應用。

不應讓 AI 替人做決定,而應該讓 AI 輔助人做決定。不應將思考交給 AI,而是應該讓 AI 輔助人思考。不應詢問 AI,而是讓 AI 詢問人。嘗試讓 AI 提出問題,而非解決問題。

讓低智力型 AI 分析內容,提出問題,不適合让其解決問題。可以嘗試做內容分析工具、提醒工具、提問工具、給出選擇題。這些場景中 AI 的作用是輔助人類發現盲點,而非直接產出結論。

AI 寫作領域也存在類似討論,質量控制仍然是關鍵挑戰。將低智力型 LLM 定位為輔助工具而非內容生產者,才能充分發揮其價值。