AI 할루시네이션, 당당한 거짓말의 원리와 실무 프롬프트 해결책
AI가 작성한 그럴듯한 보고서에 속아 낭패를 본 경험, 실무자라면 한 번쯤 있을 겁니다. 국내외 판례를 묻자 존재하지 않는 사건을 창조해내거나, 논문 제목을 물었을 때 그럴싸한 가짜 제목을 3개나 던져주는 현상은 단순한 오류가 아닙니다. 이를 ‘할루시네이션(Hallucination)’이라
AI가 작성한 그럴듯한 보고서에 속아 낭패를 본 경험, 실무자라면 한 번쯤 있을 겁니다. 국내외 판례를 묻자 존재하지 않는 사건을 창조해내거나, 논문 제목을 물었을 때 그럴싸한 가짜 제목을 3개나 던져주는 현상은 단순한 오류가 아닙니다. 이를 ‘할루시네이션(Hallucination)’이라
최근 업무 생산성을 높이기 위한 AI 도구들이 쏟아지고 있지만 정작 나에게 꼭 필요한 데이터를 학습시켜 활용하기란 쉽지 않았습니다. 구글에서 선보인 NotebookLM은 이러한 페인포인트에 집중하여 사용자가 제공한 문서나 영상 자료 안에서만 답변을 생성하는 혁신적인 솔루션을 제시했지요.