传统大语言模型存在幻觉问题,即有时会生成看似合理但实际错误的信息,如编造不存在的科学研究或虚构历史事件细节,这是因为模型本质上是在做概率预测,而不是真正的知识检索。
传统大语言模型存在幻觉问题,即有时会生成看似合理但实际错误的信息,如编造不存在的科学研究或虚构历史事件细节,这是因为模型本质上是在做概率预测,而不是真正的知识检索。
A、正确
B、错误
正确答案:A
答案解析:传统大语言模型基于概率预测生成文本。它在训练过程中学习的是给定前文情况下下一个词出现的概率分布。模型并没有真正意义上对知识进行结构化的存储和检索,而是根据大量文本数据中词与词之间的共现关系等统计信息来生成内容。
当生成文本时,尽管它生成的表述在语法和连贯性上可能看似合理,但由于并非基于对真实知识的准确检索和判断,就可能出现编造不存在的科学研究、虚构历史事件细节等幻觉问题。例如,在回答关于某个科学理论的问题时,模型可能根据以往见过的类似表述的概率组合,生成一个看似专业但实际并不存在的研究成果。所以,该说法正确。
Tag:动手学AI人工智能通识与实践
时间:2025-11-16 11:35:51