abstract吧 关注:38,753贴子:466,642
  • 1回复贴,共1

小肥知识科普

只看楼主收藏回复

今日科普:hallucination
hallucination经常出现在大语言模型在回答某些问题的时候。
在庞大的知识库下,为了证明命题为真,它会伪造看似正确的论据,并回答一长串看似正确的文本,给出一个提问者满意的回复。
当然,大语言模型中间层不透明,不公开,没人知道它是怎么运作的,很多人也不知道它正确性如何。


IP属地:澳大利亚来自iPhone客户端1楼2024-12-01 22:29回复
    gpt:简单遛条@AI训练师


    IP属地:江西来自Android客户端3楼2024-12-02 22:30
    回复