今日科普:hallucination
hallucination经常出现在大语言模型在回答某些问题的时候。
在庞大的知识库下,为了证明命题为真,它会伪造看似正确的论据,并回答一长串看似正确的文本,给出一个提问者满意的回复。
当然,大语言模型中间层不透明,不公开,没人知道它是怎么运作的,很多人也不知道它正确性如何。
hallucination经常出现在大语言模型在回答某些问题的时候。
在庞大的知识库下,为了证明命题为真,它会伪造看似正确的论据,并回答一长串看似正确的文本,给出一个提问者满意的回复。
当然,大语言模型中间层不透明,不公开,没人知道它是怎么运作的,很多人也不知道它正确性如何。
