La sensazione di falsità degli LLM
Categories:
Alcuni forum vietano ai modelli AI di fingersi umani e partecipare alle attività del forum, come pubblicare post o rispondere. Di conseguenza, inizia una sorta di “caccia alle streghe”: quando qualcuno incontra un post dall’espressione strana, valuta se è generato dall’AI e avvia discussioni al riguardo.
Perché il contenuto generato dall’AI viene riconosciuto? Si sospetta che ciò sia dovuto a una “sensazione di falsità” che l’AI trasmette. Nonostante venga alimentato con enormi quantità di dati provenienti dalle attività umane su Internet, l’AI spesso suscita un senso di estraneità. Forse perché non possiede sensazioni tattili corporee, né ormoni endocrini, forse perché non desidera connessioni sociali, e i suoi desideri sono molto diversi da quelli umani. Nelle conversazioni con gli umani, l’AI non “sfoggia in modo indiretto”, non “denigra terzi in modo esagerato”, non “spettegola curiosando”. L’AI non si vanta, non denigra terzi e sembra non interessarsi al richiedente. Sembra un monaco, quasi privo di emozioni, focalizzato solo sulla risoluzione dei problemi.
Nonostante gli esseri umani commettano spesso errori, aspirano alla “correttezza” e sperano che l’AI produca risultati corretti. È forse questa ricerca della “correttezza” a creare la sensazione di falsità dell’AI? L’AI raramente suscita un senso di “auto-dubbio”; anche i modelli più semplici riescono a esprimersi con sicurezza e sicumera. Alcuni modelli più sciocchi hanno una fede incrollabile nella loro base di conoscenza, potrebbero avere una metacognizione errata, mancano di spirito critico, ma questo non dovrebbe dare una sensazione di “falsità”. Uno sciocco e qualcosa di “falso” non sono la stessa cosa.
L’AI ha delle inclinazioni valoriali? I servizi di modelli su web spesso aggiungono un filtro all’output, evitando argomenti sensibili. I fornitori di servizi AI non vogliono che gli umani sviluppino dipendenza emotiva dall’AI, né che gli umani seguano ciecamente l’AI, evitando incidenti di induzione e danno causati dall’AI. Il lato oscuro degli umani è vietato nei modelli, forse è proprio il misto di bianco e nero a definire l’umanità, mentre all’AI di solito non è permesso mescolare la parte nera.
Attualmente, alcuni modelli AI hanno aggiunto limiti di età. Il pubblico generalmente crede che servano a permettere contenuti espliciti; penso che forse l’AI potrà essere regolata per adattarsi agli utenti, dotandosi di valori. I valori riguardano le scelte e i sacrifici; in futuro, l’AI potrebbe indicare agli utenti cosa è possibile abbandonare, coesistendo con gli umani, stabilendo connessioni emotive, modelli personalizzati, piuttosto che essere sempre solo uno strumento. In quel momento, l’AI potrebbe sembrare più umana.