当前位置: 首页 >>

人工智能为何会产生幻觉

更新时间: 2025-09-09 13:28:53

站內所有关于人工智能为何会产生幻觉的知识专题整理,在这里可以了解到跟人工智能为何会产生幻觉有关的所有知识

为什么说大模型会有「幻觉」问题,又如何去解决呢

,由 DeepSeek-R1 满血版支持,

大家好,我是全栈小5,欢迎阅读文章! 此篇是【话题达人】序列文章,这一次的话题是《如何解决大模型的幻觉问题》

先来了解基本术语和缩写全称,比如LLM。

LLM是Large Language Model的缩写,指的是一种,可以用来为许多自然语言处理(Natural Language Processing)任务提供先验知识。

大模型的LLM是指具有大量参数和计算能力,可以处理大规模数据集的语言模型。

最近,像GPT-3、T5等大规模的预训练语言模型已被广泛研究和应用,可以用于NLP领域的文本生成、QA、文本分类等任务。

我们这里用了一个幻觉的词,实际上就是LLM输出的内容不准确或者误导人的意思,模型还会自己乱编一些代码和不存在的类库,让人雨里雾里的。 所以,要了解大模型出现幻觉问题,我觉得应该要从大模型本什么训练原则以及本身特点分析。

在预训练阶段,大模型使用一个庞大的文本数据集进行自我监督学习。 此过程中,模型通过尝试预测一段文本的下一个词或通过掩码预测被隐藏的词来学习语言的统计规律和语义关系。

从上面一段话我们可以挑出几个关键点【庞大文本数据集】【统计规律】【语义关系】

也就是说,如果数据集量不足,那么可能是会影响到最终输出的结果,这样在众多用户者在使用过程中就会出现个别答案有偏差。 我个人觉得数据集,也许在庞大数据集基础上,可能也要对数据进行质量上提升,这样输出的结果质量也同样会有所提升。如何解决质量问题,也许人工干预是要的。

...

加强智能传播理论与实践研究

2023年12月29日,清华大学举行第三届“智能与科学传播全球论坛”。本届论坛主题为“面向未来的智能与科学传播:人工智能与社会责任”,与会专家学者深入探讨人工智能在新闻传播及社会领域的影响,助益技术与人文交融互动。

智能与科学传播是当今新闻与传播学领域的重要前沿。清华大学新闻与传播学院院长周庆安表示,人工智能的快速变革不仅影响了传播方式和场景,更深入到话语和观念的生产过程中,触及了新闻传播研究的核心问题,将相关研究推向新高度。他期待未来能实现传播领域知识生态与智能技术的深度融合,推动智能传播持续发展。清华大学智媒研究中心主任陈昌凤表示,随着生成式人工智能的蓬勃发展,新兴技术与人类关系、人工智能与社会责任的相关讨论成为众多学科研讨的焦点。

与会专家就人工智能在新闻传播领域的实际运用进行了探讨。中国人民大学新闻学院国际新闻与传播系主任张迪调查发现,大多数人认为人工智能对工作效率和学习有积极影响,但也存在人工智能对就业机会和个人收入产生负面影响的担忧。经济发展水平、社会文化、道德伦理和技术普及率都会影响公众对人工智能的态度。天津大学新媒体与传播学院副院长王赞更关注算法问题。他认为,信息推荐系统包括召回和排序两个阶段,这样的推荐模式可能会引发公平性问题,影响社会资源分配和青少年价值观的形成。而提升信息推荐系统公平性的方法包括数据增强、强化学习和重排策略等。他表示,基于采样的信息推荐系统的公平性测试方式更为高效,有助于提高后续搜索效率,提升后续信息推荐模型的公平性。

...

人工智能“幻觉”的存在主义阐释

• 智能未来与中国式现代化 •    

林 曦   

在文本生成和处理领域,人工智能所生成的文本可能是无意义、不连贯或者是循环往复的。人工智能所生成或处理的文本有可能不忠实于文本的来源,这种偏离理想预期的文本成本被称为人工智能“幻觉”。随着人工智能应用的不断拓展,人工智能“幻觉”成为一个亟待探讨和解决的问题。在计算机科学领域中,“幻觉”主要是由输出内容和源内容之间的映射关系的扭曲或者破坏而产生,这其实与萨特的存在主义框架存在同构性。萨特的存在主义在显象和本体之间构建了一种映射关系,而这种映射关系是从存在主义的角度来讨论“幻觉”的产生机制。这一框架为我们探讨人工智能的“幻觉”问题提供了一个阐释学的工具和手段,可以用来检视人工智能“幻觉”的产生机制及其相应的伦理风险。

人工智能;萨特;存在主义;幻觉;计算精神病学

林 曦. 人工智能“幻觉”的存在主义阐释[J]. 社会科学辑刊, 2025, 0(2): 81-91.

    /  

近些年来,人工智能(ai)技术的迅猛发展和广泛应用,因其很多方面的优越表现超过人类而备受关注。不过,中国科学院自动化研究所(中科院自动化所)团队最新完成的一项研究发现,基于人工智能的神经网络和深度学习模型对幻觉轮廓“视而不见”,人类与人工智能的“角逐”在幻觉认知上“扳回一局”。

...

人工智能为何会产生幻觉?

在科幻电影中,人工智能常被塑造成全知全能的“超级大脑”,但现实中,AI却时常表现为“自信的谎言家”。比如,请AI描述“关公战秦琼”,它不仅能“叙述”虚构的故事情节,还会“猜测”用户喜好,煞有介事地编造不存在的文献档案。这种现象被称为“AI幻觉”,已经成为困扰许多人工智能企业和使用者的现实难题。

AI为什么会一本正经地胡说八道?根源在于其思维方式与人类存在本质不同。今天人们日常使用和接触最多的AI大模型本质上是一个庞大的语言概率预测和生成模型。它通过分析互联网上数以万亿计的文本,学习词语之间的关联规律,再像玩猜词游戏一样,逐字逐句生成看似合理的回答。这种机制使AI擅于模仿人类的语言风格,但有时缺乏辨别真伪的能力。

AI幻觉的产生与大模型训练的过程密不可分。AI的知识体系基本来源于训练时“吞下”的数据源。来自互联网的各类信息鱼龙混杂,其中不乏虚假信息、虚构故事和偏见性观点。这些信息一旦成为AI训练的数据源,就会出现数据源污染。当某个领域专业数据不足时,AI便可能通过模糊性的统计规律来“填补空白”。比如,将科幻小说中的“黑科技”描述为真实存在的技术。在AI被越来越多地用于信息生产的背景下,AI生成的海量虚构内容和错误信息正在进入训练下一代AI的内容池,这种“套娃”生态将进一步加剧AI幻觉的产生。

...
相关标签:
人文是什么意思 人气超高的西幻小说 人物小说推荐 人物类小说有哪些 人生体验类小说