llm의 가짜 인간 감각

일부 포럼에서는 AI 모델이 인간처럼 행동하며 포럼 활동에 참여하는 것을 금지한다. 예를 들어 게시글을 올리거나 댓글을 다는 등의 행위가 금지된다. 이에 따라 사람들은 “사냥감"을 찾기 시작한다. 표현이 이상해 보이는 게시물을 발견하면 그것이 AI가 생성한 내용인지 판단하고 토론을 시작한다.

왜 AI가 생성한 내용이 식별될까? 아마도 AI가 생성한 것에는 “가짜 인간 감각"이 있기 때문일 것이다. AI는 인터넷의 방대한 인간 활동 데이터를 학습했지만, 여전히 종종 어색함을 준다. 아마도 AI는 신체 감각 신경이 없고, 내분비 호르몬도 없으며, 사회적 연결을 갈망하지 않고, 욕망이 인간의 욕망과 크게 다를지도 모른다. AI와 인간의 대화에서 “돌아가면서 자신을 과시하거나, 과장해서 다른 사람을貶低하거나, 서로 험담을 나누는” 모습은 찾아볼 수 없다. AI는 자신을 과시하지 않고, 제3자를貶低하지 않으며, 질문자에게도 별다른 흥미를 보이지 않는다. AI는 마치 승려 같아서 거의 감정이 없고, 문제만 해결하려 한다.

인간 자신이 자주 실수를 저지르지만, 인간은 “정확함"을 갈망한다. AI가 올바른 결과물을 내놓기를 바라는 것은 AI의 가짜 인간 감각을 초래하는 원인일까? AI는 또한 “자기 의심"을 거의 보이지 않는다. 매우 어리석은 작은 모델이라 할지라도 자신감에 차서 장황하게 이야기한다. 일부 어리석은 AI 모델은 자신의 지식 베이스를 확실히 믿고 있는 것 같으며, 잘못된 메타认知을 가지고 있을 수 있고, 의심 정신이 부족할지도 모른다. 하지만 이것이 반드시 “가짜 인간” 감각을 주지는 않을 것이다. 바보와 “가짜 인간"은 다르다.

AI는 가치관 경향이 있을까? 웹 포트 모델 서비스의 출력은 일반적으로 민감한 주제를 피하기 위해 문을 하나 더 추가한다. 모델 제공업체는 인간이 AI에 감정적 의존을 갖는 것을 원치 않으며, 인간이 AI의 말을 무조건 따르는 것을 원치 않는다. AI誘導 상해 사건을 피하려는 것이다. 인간의 추악한 면은 모델에서 드러나지 않도록 금지되어 있다. 아마도 흑백이 섞여 있는 것이 인간이고, AI는 일반적으로 검은 부분이 섞이는 것을 허용받지 못한다.

현재 일부 AI 모델은 연령 제한을 추가했다. 대중은 이것이 노골적인 내용을 만들 수 있다는 점에서 효과가 있다고普遍认为한다. 나는 AI가 사용자와 맞는 가치관을 가진 모델로 조정될 수 있도록 허용될지도 모른다고 생각한다. 가치관은 선택과 관련된 일이다. 미래에는 AI가 사용자에게 무엇을 포기할 수 있는지 알려줄지도 모른다. 인간과 공생하며 감정적 연결을 형성하고, 개인화된 모델이 될지도 모른다. 도구의 역할만 하는 것이 아니라, 그때의 AI는 더 인간적인 감각을 줄지도 모른다.