无题
科研人员怎么正确使用 AI:哪些能用,哪些不能碰
真正的问题不是“能不能用”,而是“放在哪个位置用”
现在高校和科研环境对 AI 的态度,已经越来越少是简单的“全面禁止”或“全面放开”。更常见的真实口径是:
允许辅助,但不能替代;允许提效,但不能逃避责任。
如果把这个边界讲得再直白一点:
- 你可以让 AI 帮你查资料、做初步整理、润色语言;
- 但不能让它代写核心学术内容,不能让它替你做本应由人负责的判断;
- 更不能把它产出的未经核验内容直接当成事实、数据或引用交出去。
这篇文章不打算泛泛地说“大家要谨慎”,而是直接点名几个已经公开可核验的学校和规范,看看今天比较稳妥的边界到底在哪里。
一、当前公开规则的共同趋势:允许辅助,严禁代写和伪造
1. 清华大学:AI 是辅助工具,不能替代学术训练
清华大学公开发布了《清华大学人工智能教育应用指导原则》。从公开解读能提炼出几个非常清晰的方向:
- AI 可以作为辅助工具使用;
- 不能代写、不能伪造、不能剽窃;
- 不能用 AI 去替代本应由学生或研究者本人完成的学术训练;
- 涉及实质性使用时,需要披露;
- 敏感、涉密、未授权数据不能随便送入外部模型。
这意味着一个很重要的判断:
AI 可以进入科研流程,但不能拿走人的责任。
2. 上海交通大学:强调以人为本、透明、隐私与安全
上海交通大学教学发展中心公开提供了 AI 教学应用指南页面,以及教师版、学生版两份指南 PDF。它的基调不是“完全不让用”,而是把使用前提说得更系统:
- 以人为本
- 数字公平
- 数据隐私与安全
- 伦理保障
- 透明度
换到科研语境里看,这套逻辑非常有代表性:
你可以用 AI 提高效率,但必须知道它用了什么数据、产出了什么、哪里可能错、最后谁负责。
3. 厦门理工学院:允许辅助,但明确划出论文写作红线
厦门理工学院教务处发布了《2025届本科毕业设计(论文)规范使用 AI 工具(试行)的通知》。这份规则非常适合拿来说明“允许区”和“禁区”的区别。
它允许的包括:
- 文献检索与整理
- 格式整理
- 非创新性辅助工作
它禁止的包括:
- 直接生成论文主体内容
- 替代研究设计
- 替代数据分析
- 替代结果解释
- 生成或篡改原始数据
同时,它还要求填写 AI 工具使用申明书,并设置 AIGC 检测阈值。
这已经非常接近很多科研场景最实用的边界线了:
AI 可以做“查、搬、整、润”,不能替你完成“设计、判断、论证、担责”。
二、哪些事情一般可以用 AI 做
结合上述学校规则和当前主流公开口径,科研人员在相对安全的范围内,通常可以把 AI 放在这些位置上:
1. 文献检索与线索扩展
- 帮你想检索词
- 帮你按主题分支展开
- 帮你把 PubMed / PMC / Europe PMC / bioRxiv 等来源中的结果做初步归类
2. 语言处理与格式支持
- 中英文润色
- 结构梳理
- 标题候选
- 表格整理
- 会议纪要归纳
3. 公开资料的信息提取
- 从网页、公告、平台说明页里提取关键信息
- 对多个版本页面做差异对比
- 把零散资料整成笔记
4. 非最终性的初稿辅助
这里的关键是“非最终性”。
你可以让 AI 帮你:
- 先起一个框架
- 先出一版提示性草稿
- 帮你做待核问题清单
但你不能把这版未核验内容直接当正式学术产出提交。
三、哪些事情是明确高风险甚至不该碰的
1. 让 AI 直接编参考文献
这是最典型、也最容易出事的用法。
很多人图快,直接问模型“给我列 20 篇相关参考文献”。问题在于,模型非常可能给出:
- 看起来很像真的标题
- 看起来很像真的作者
- 看起来很像真的期刊
但 DOI、年份、页码、卷期、甚至整篇文献本身都可能是错的,或者根本不存在。
所以更稳妥的做法应该是:
先去真实论文站点里检索,再让 AI 帮你整理。
2. 让 AI 替你完成研究设计、数据分析和结果解释
这也是厦门理工学院的公开规则里明确点出来的红线。因为这些环节不只是“机械执行”,而是学术判断的核心部分。
如果这些判断环节被外包出去,你最后其实无法真正对结果负责。
3. 上传敏感、涉密、未授权数据
清华的公开原则里也明确强调了数据合规问题。科研里这点尤其重要,因为你手里可能有:
- 未发表数据
- 涉及合作协议的数据
- 涉及受试者隐私的信息
- 实验室内部文档
这些内容不能因为“想省事”就直接丢给外部模型或不透明的平台。
4. 用 AI 代写后不披露
现在很多规则并不是简单地说“用了就违规”,而是强调:
- 你用了什么
- 用到什么程度
- 最终由谁负责
如果已经实质性地借助 AI 参与了写作、整理或分析,却完全不披露,这本身就是风险点。
四、一个更接近真实情况的“合规使用”例子
假设你要写一段项目申请背景,比较稳妥的做法是:
- 先自己确定研究问题和核心论点;
- 用 AI 帮你列检索词、拉补充线索;
- 通过论文站点和原始资料拿到 DOI、链接、PDF;
- 让 AI 帮你整理成笔记或对比表;
- 由你自己重写成正式表述,并核一遍引用和事实;
- 按单位或期刊要求说明 AI 的辅助使用情况。
这里 AI 的角色是:
助手、检索员、整理员、语言助理。
而不是:
署名作者、数据负责人、结论裁判。
五、为什么我建议科研人把 AI 放在“查、搬、整、润”这一层
因为这是目前风险最可控、收益最明显的一层。
1. 这层最容易保留证据链
你能看见它查了哪些网页、保存了哪些 DOI、下载了哪些 PDF、做了哪些摘录。
2. 这层最容易人工复核
检索结果、链接、引用、表格、摘要都可以被人类逐项检查。
3. 这层能显著提效,又不必让渡核心责任
真正耗时间的很多步骤,其实正是:
- 找资料
- 归档
- 摘要
- 排版
- 反复整理
把这部分交给 AI,往往既省时间,也更容易守住边界。
六、如果你现在就要开始用,最简单的自检清单
正式把 AI 放进科研流程之前,可以先问自己 6 个问题:
- 这一步是检索/整理,还是核心判断?
- 这份内容是否涉及敏感、未授权或涉密数据?
- 我有没有保留 DOI、原文链接、PDF 或原始网页证据?
- 我是否还能独立复核这一步的结果?
- 如果今天就要提交,我是否愿意对这段内容签字负责?
- 单位、课程、期刊是否要求披露 AI 使用情况?
如果前 4 个问题里有两个以上答不上来,就不要直接往正式产出里放。
真正安全的用法,不是“不用 AI”,而是“不把责任让出去”
从清华、上海交通大学、厦门理工学院这些公开材料里,你大致能看到一个共同方向:
- AI 不是绝对禁区;
- 但它也绝不是责任替代器。
科研人员更稳妥的用法,不是让 AI “替你完成”,而是让它:
- 帮你找
- 帮你搬
- 帮你整
- 帮你润
最后的判断、引用、解释和责任,仍然必须回到人身上。
如果只记一句话:
你可以把 AI 放进科研流程,但不要把学术责任交给 AI。