Sensação de falsidade humana da LLM
Categories:
Algumas comunidades online resistem a modelos de IA que fingem ser humanos e participam de atividades, como postar e responder. Isso gera uma caça às bruxas, onde mensagens estranhas são suspeitas de serem geradas por IA, gerando discussões.
Por que o conteúdo gerado por IA é identificado? Suspeito que seja devido a uma “sensação de falsidade humana”. Embora a IA seja alimentada por dados massivos de atividades humanas na internet, ainda assim costuma causar estranheza. Talvez por não ter sensações táteis, sem glândulas endócrinas, sem desejo de conexão social, seus desejos são muito diferentes dos humanos. No diálogo com humanos, a IA não possui “ostentação indireta, desvalorização exagerada de terceiros, fofocas de investigação mútua”, não se exibe, não difama terceiros, aparentemente não se interessa pelo interlocutor, parece um monge, quase sem emoções, apenas resolve problemas.
Embora os humanos cometam erros frequentemente, desejam “acerto” e esperam produtos corretos da IA. Será que essa busca por “acerto” gera a sensação de falsidade humana? A IA raramente demonstra “auto dúvida”, mesmo modelos muito simples falam com confiança inabalável. Alguns modelos mais limitados acreditam cegamente em sua base de conhecimento, possivelmente com metacognição incorreta, falta de espírito questionador, mas isso não deveria causar sensação de “falsidade humana”, já que estupidez e “falsidade humana” não são iguais.
A IA tem inclinações de valores? Serviços de modelo na web geralmente têm um filtro de saída para evitar tópicos sensíveis. Os provedores não querem dependência emocional dos usuários nem obediência cega, evitando incidentes de indução prejudicial. O lado feio dos humanos é proibido nos modelos; talvez a mistura de preto e branco seja humana, enquanto a IA normalmente não pode conter a parte negra.
Atualmente, alguns modelos têm restrição de idade. A maioria acredita que serve para permitir conteúdo adulto, mas acho que talvez a IA venha a ser permitida para ser treinada de acordo com valores do usuário. Valores envolvem escolhas e sacrifícios. No futuro, a IA talvez indique ao usuário o que pode abandonar, convivendo com humanos, estabelecendo conexões emocionais, modelos personalizados, não apenas como ferramenta. Nessa época, a IA talvez tenha mais sensação humana.