人工智能在总结长篇文档时易产生错误信息,即所谓的“幻觉”,这降低了处理效率。为应对此挑战,美国纽约大学的研究人员开发了一种基于鸟群行为的算法框架,作为大型语言模型(LLMs)的预处理步骤,旨在提高文档摘要的可靠性。
该研究由纽约大学库朗数学、计算和数据科学学院的Anasse Bari教授和研究员Binxu Huang共同完成。他们分析了AI代理在总结长文档时出错的原因,Bari解释道:“当输入文本过长、嘈杂或重复时,模型性能会下降,导致关键信息丢失或偏离源材料。”因此,他们借鉴鸟群行为,将文档句子视为虚拟鸟,通过分组和筛选减少冗余,保留关键点,从而生成更简洁的输入供LLMs处理。
该框架工作分为两个阶段:首先,清理句子并评分,基于词汇、语义和主题特征;其次,应用鸟群行为规则,将相似句子聚类,从每个群中选择最高分句子,确保摘要覆盖多样主题。研究人员在超过9,000个文档上测试,结果显示,结合该框架的LLMs能产生更高事实准确性的摘要。Bari强调:“我们开发了一个实验框架作为预处理步骤,而不是LLMs的竞争对手,它识别重要句子并去除噪音。”但他也指出,该方法尚未完全解决幻觉问题,只是部分改进。
出版详情:作者:New York University;标题:《What flocking birds can teach AI about reducing noise》;发表于:《Frontiers in Artificial Intelligence》(2026)。












