🤖
有问题?问 AI Ask AI
BLOG

2026年我用ChatGPT写related work被导师当面指出三处文献造假后才明白引用生成器的致命陷阱

#Guide

那天组会,导师把我的LaTeX PDF投影到白板上,用红笔圈出三处

第一处:我引用了’Zhang et al., NeurIPS 2026 Workshop on LLM Reasoning, pp. 42–58’——导师打开NeurIPS官网2026 workshop列表,该workshop根本未设立;第二处:’Chen & Lee, arXiv:2411.08912v3’——arXiv实际只到v2,v3是模型捏造的版本号;第三处:’Table 3 in Wang et al. (ICML 2024)’——原文根本没有Table 3,只有Figure 3,且数据列完全对不上。这不是疏忽,是LLM对学术结构的系统性幻觉。

真正危险的不是ChatGPT,而是它和citation插件的耦合

我用的是2026年最火的ScholarGPT v3.2(Chrome插件,ID: gpkcflbogdmlmehklnpahhjkgjgjdpfj),它能自动抓取Semantic Scholar API + arXiv metadata + CCF-A类会议DB快照(截至2026Q4),但它的’citation synthesis’模式默认启用’contextual interpolation’——当训练数据中某篇论文缺失实验细节时,它会基于相似论文结构补全,且不加任何标注。我调过它的config.json:"interpolation_mode": "aggressive", "confidence_threshold": 0.72,低于这个阈值就静默丢弃警告。结果就是,它把ICLR 2026一篇关于稀疏微调的附录B内容,错绑到了我引用的EMNLP 2024论文上。

比造假更难察觉的是‘半真半假’

最坑的一次是’Li et al. (ACL 2026, long paper)’——ACL 2026确实有这篇,作者、标题、DOI全对,但模型把他们在demo session里口头提到的未发布baseline数值(acc=82.3)当成了正式论文Table 2数据写进我的related work。我查ACL Anthology PDF,Table 2只有81.7;再翻他们的GitHub issue #42,才发现82.3是他们三天后才push的hotfix结果。担心错过2026年的截稿日期?用本站的 CCF/EI/Scopus会议查询 查看最新时间表。

我现在怎么写Related Work:三层校验流水线

  1. 所有引用先过Zotero 7.0 + ‘Integrity Check’插件(勾选’Cross-ref DOI validation’和’arXiv version consistency’);2. 关键句必须粘贴到Semantic Scholar高级搜索框,限定’cited by ≥ 5 papers since 2026’,排除幽灵论文;3. 每段Related Work初稿完成后,用本地运行的LitSearch v2.1(开源地址:github.com/ai-lit/litsearch-v2)做反向溯源:输入我的描述文本,它返回原始论文段落及相似度分值,<0.85的全部重写。这多花47分钟,但比被拒稿重投省三个月。

总结:别让LLM替你‘理解’文献,只让它帮你‘定位’文献。下次写Related Work前,先把Zotero里那篇你最想对比的论文PDF拖进本地,手动高亮三处核心claim——这才是你真正需要回应的靶子。

返回博客列表Back to Blog