De onechte menselijke indruk van llm's
Categories:
Sommige forums weerstaan AI-modellen die zich voordoen als mensen die forumactiviteiten uitvoeren, zoals het plaatsen van berichten en het reageren op berichten. Vervolgens beginnen mensen met ‘heksenjachten’, en als ze een vreemd ogend bericht tegenkomen, beoordelen ze of het AI gegenereerde content is en beginnen vervolgens met discussies.
Waarom worden AI-gegenereerde inhouden herkend? Vermoedelijk omdat AI-gegenereerde dingen een “onecht menselijk gevoel” hebben. Hoewel AI wordt gevoed met enorme hoeveelheden internetgegevens van menselijke activiteiten, geven AI-producten vaak een gevoel van misstrijking, mogelijk omdat het geen lichamelijke zenuwen heeft, geen hormoonstelsel, geen verlangen naar sociale connecties, en de verlangens van AI sterk verschillen van die van mensen. In gesprekken met mensen, is er geen ‘zichzelf op een gemanierde manier laten zien, anderen overdreven afzetten, nieuwsgierig roddelen’, AI laat zichzelf niet zien, zet derden niet af, en lijkt niet geïnteresseerd in de vragers, het voelt alsof het een monnik is, bijna zonder emoties, enkel gericht op het oplossen van problemen.
Hoewel mensen zelf vaak fouten maken, verlangen mensen naar ‘juistheid’ en hopen dat AI de juiste producten levert. Is dit verlangen naar ‘juistheid’ dat de onechte menselijke indruk van AI veroorzaakt? AI geeft ook zelden het gevoel van ‘zelftwijfel’, zelfs zeer domme kleine modellen kunnen vol zelfvertrouwen en uitbundig zijn. Sommige dommere AI-modellen hebben volledig vertrouwen in hun kennisbank, ze hebben mogelijk een verkeerde meta-cognitie, missen een twijfelaar, maar dit zou niet het gevoel van ‘onecht mens’ moeten geven, want een idioot is niet hetzelfde als ‘onecht mens’.
Heeft AI een morele neiging? De uitvoer van AI-modelservices via webpagina’s wordt meestal beschermd door een controlepoort om gevoelige onderwerpen te vermijden. Modellanbieders willen niet dat mensen emotionele afhankelijkheid van AI krijgen, niet dat mensen blindelings gehoorzamen aan AI, en ze willen AI-geïnduceerde schadegebeurtenissen vermijden. Het lelijke deel van de mensheid wordt verboden in het model te tonen, misschien is het mengen van zwart en wit wat mens is, en AI wordt meestal niet toegestaan om het zwarte deel te mengen.
Momenteel hebben sommige AI-modellen leeftijdsbeperkingen toegevoegd. Het algemene publiek denkt dat het effect is dat je grove taal kunt gebruiken. Ik denk dat AI misschien zal worden toegestaan om te worden afgestemd op de gebruiker met waarden. Waarden zijn iets dat te maken heeft met keuzes maken. In de toekomst zal AI de gebruiker misschien vertellen wat ze kunnen opgeven, samenleven met mensen, emotionele connecties opbouwen, gepersonaliseerde modellen, in plaats van altijd de rol van gereedschap te zijn. Dat soort AI zou misschien meer menselijk gevoel kunnen hebben.