저지능형 LLM은 무엇에 적합한가
Categories:
대형 모델과 일 년 동안 씨름하며, 마침내 한 가지 사실을 깨달았다. 모델의 출력은 확률적이다. 이는 당연한 사실이지만, 내가 받아들이기까지 상당한 시간이 걸렸다. 대형 모델의 확률적 특성을 진정으로 이해해야만, 그것이 무엇에 적합한지 고민할 수 있다.
대형 모델은 더 높은 확률로 올바른 내용을 출력하는 경향이 있기 때문에, 그 답변은 매우 혼란스럽고 식별하기 어렵다. 어떤 글들은 독자 계층이 높아, 저질 글에 낭비되는 정신적·시간적 비용에 매우 민감하여 AI 생성 콘텐츠를 거부한다. 또 다른 독자들은 다양한 글을 구별하는 능력이 떨어져, AI 생성 콘텐츠를 더 쉽게 받아들인다.
따라서 대형 모델로 콘텐츠를 생성할 때는 대상 독자층을 고려해야 한다. 기술 문서, 논문, 튜토리얼, 장문 글 등 엄격한 태도가 필요한 콘텐츠 생성에는 부적합하며, 짧은 뉴스, 사회과학 분야 글, 리뷰 등에는 적합하다. 대형 모델 환각 문제는 사실 정확성이 필요한 분야에서의 적용을 더욱 제한한다.
AI가 사람을 대신해 결정을 내리게 해서는 안 되며, AI가 사람의 결정을 보조하게 해야 한다. 사고를 AI에 맡겨서는 안 되며, AI가 사람의 사고를 보조하게 해야 한다. AI에게 묻는 것이 아니라, AI가 사람에게 묻게 해야 한다. AI가 문제를 해결하기보다는 질문을 제기하게 해보라.
저지능형 AI에게 내용을 분석하고 질문을 제기하게 하는 것은 적합하지만, 문제를 해결하게 하는 것은 부적합하다. 콘텐츠 분석 도구, 알림 도구, 질문 도구, 선택형 문제 제공 도구로 시도해볼 수 있다. 이러한 상황에서 AI의 역할은 인간이 맹점을 발견하도록 돕는 것이지, 직접 결론을 도출하는 것이 아니다.
AI 글쓰기 분야에서도 비슷한 논의가 존재하며, 품질 관리 여전히 핵심 과제이다. 저지능형 LLM을 콘텐츠 생산자가 아닌 보조 도구로 자리매김해야 그 가치를 충분히 발휘할 수 있다.