科研人员怎么正确使用 AI:哪些能用,哪些不能碰

真正的问题不是“能不能用”,而是“放在哪个位置用”

现在高校和科研环境对 AI 的态度,已经越来越少是简单的“全面禁止”或“全面放开”。更常见的真实口径是:

允许辅助,但不能替代;允许提效,但不能逃避责任。

如果把这个边界讲得再直白一点:

  • 你可以让 AI 帮你查资料、做初步整理、润色语言;
  • 但不能让它代写核心学术内容,不能让它替你做本应由人负责的判断;
  • 更不能把它产出的未经核验内容直接当成事实、数据或引用交出去。

这篇文章不打算泛泛地说“大家要谨慎”,而是直接点名几个已经公开可核验的学校和规范,看看今天比较稳妥的边界到底在哪里。


一、当前公开规则的共同趋势:允许辅助,严禁代写和伪造

1. 清华大学:AI 是辅助工具,不能替代学术训练

清华大学公开发布了《清华大学人工智能教育应用指导原则》。从公开解读能提炼出几个非常清晰的方向:

  • AI 可以作为辅助工具使用;
  • 不能代写、不能伪造、不能剽窃;
  • 不能用 AI 去替代本应由学生或研究者本人完成的学术训练;
  • 涉及实质性使用时,需要披露;
  • 敏感、涉密、未授权数据不能随便送入外部模型。

这意味着一个很重要的判断:

AI 可以进入科研流程,但不能拿走人的责任。

2. 上海交通大学:强调以人为本、透明、隐私与安全

上海交通大学教学发展中心公开提供了 AI 教学应用指南页面,以及教师版、学生版两份指南 PDF。它的基调不是“完全不让用”,而是把使用前提说得更系统:

  • 以人为本
  • 数字公平
  • 数据隐私与安全
  • 伦理保障
  • 透明度

换到科研语境里看,这套逻辑非常有代表性:

你可以用 AI 提高效率,但必须知道它用了什么数据、产出了什么、哪里可能错、最后谁负责。

3. 厦门理工学院:允许辅助,但明确划出论文写作红线

厦门理工学院教务处发布了《2025届本科毕业设计(论文)规范使用 AI 工具(试行)的通知》。这份规则非常适合拿来说明“允许区”和“禁区”的区别。

它允许的包括:

  • 文献检索与整理
  • 格式整理
  • 非创新性辅助工作

它禁止的包括:

  • 直接生成论文主体内容
  • 替代研究设计
  • 替代数据分析
  • 替代结果解释
  • 生成或篡改原始数据

同时,它还要求填写 AI 工具使用申明书,并设置 AIGC 检测阈值。

这已经非常接近很多科研场景最实用的边界线了:

AI 可以做“查、搬、整、润”,不能替你完成“设计、判断、论证、担责”。


二、哪些事情一般可以用 AI 做

结合上述学校规则和当前主流公开口径,科研人员在相对安全的范围内,通常可以把 AI 放在这些位置上:

1. 文献检索与线索扩展

  • 帮你想检索词
  • 帮你按主题分支展开
  • 帮你把 PubMed / PMC / Europe PMC / bioRxiv 等来源中的结果做初步归类

2. 语言处理与格式支持

  • 中英文润色
  • 结构梳理
  • 标题候选
  • 表格整理
  • 会议纪要归纳

3. 公开资料的信息提取

  • 从网页、公告、平台说明页里提取关键信息
  • 对多个版本页面做差异对比
  • 把零散资料整成笔记

4. 非最终性的初稿辅助

这里的关键是“非最终性”。

你可以让 AI 帮你:

  • 先起一个框架
  • 先出一版提示性草稿
  • 帮你做待核问题清单

但你不能把这版未核验内容直接当正式学术产出提交。


三、哪些事情是明确高风险甚至不该碰的

1. 让 AI 直接编参考文献

这是最典型、也最容易出事的用法。

很多人图快,直接问模型“给我列 20 篇相关参考文献”。问题在于,模型非常可能给出:

  • 看起来很像真的标题
  • 看起来很像真的作者
  • 看起来很像真的期刊

但 DOI、年份、页码、卷期、甚至整篇文献本身都可能是错的,或者根本不存在。

所以更稳妥的做法应该是:

先去真实论文站点里检索,再让 AI 帮你整理。

2. 让 AI 替你完成研究设计、数据分析和结果解释

这也是厦门理工学院的公开规则里明确点出来的红线。因为这些环节不只是“机械执行”,而是学术判断的核心部分。

如果这些判断环节被外包出去,你最后其实无法真正对结果负责。

3. 上传敏感、涉密、未授权数据

清华的公开原则里也明确强调了数据合规问题。科研里这点尤其重要,因为你手里可能有:

  • 未发表数据
  • 涉及合作协议的数据
  • 涉及受试者隐私的信息
  • 实验室内部文档

这些内容不能因为“想省事”就直接丢给外部模型或不透明的平台。

4. 用 AI 代写后不披露

现在很多规则并不是简单地说“用了就违规”,而是强调:

  • 你用了什么
  • 用到什么程度
  • 最终由谁负责

如果已经实质性地借助 AI 参与了写作、整理或分析,却完全不披露,这本身就是风险点。


四、一个更接近真实情况的“合规使用”例子

假设你要写一段项目申请背景,比较稳妥的做法是:

  1. 先自己确定研究问题和核心论点;
  2. 用 AI 帮你列检索词、拉补充线索;
  3. 通过论文站点和原始资料拿到 DOI、链接、PDF;
  4. 让 AI 帮你整理成笔记或对比表;
  5. 由你自己重写成正式表述,并核一遍引用和事实;
  6. 按单位或期刊要求说明 AI 的辅助使用情况。

这里 AI 的角色是:

助手、检索员、整理员、语言助理。

而不是:

署名作者、数据负责人、结论裁判。


五、为什么我建议科研人把 AI 放在“查、搬、整、润”这一层

因为这是目前风险最可控、收益最明显的一层。

1. 这层最容易保留证据链

你能看见它查了哪些网页、保存了哪些 DOI、下载了哪些 PDF、做了哪些摘录。

2. 这层最容易人工复核

检索结果、链接、引用、表格、摘要都可以被人类逐项检查。

3. 这层能显著提效,又不必让渡核心责任

真正耗时间的很多步骤,其实正是:

  • 找资料
  • 归档
  • 摘要
  • 排版
  • 反复整理

把这部分交给 AI,往往既省时间,也更容易守住边界。


六、如果你现在就要开始用,最简单的自检清单

正式把 AI 放进科研流程之前,可以先问自己 6 个问题:

  1. 这一步是检索/整理,还是核心判断?
  2. 这份内容是否涉及敏感、未授权或涉密数据?
  3. 我有没有保留 DOI、原文链接、PDF 或原始网页证据?
  4. 我是否还能独立复核这一步的结果?
  5. 如果今天就要提交,我是否愿意对这段内容签字负责?
  6. 单位、课程、期刊是否要求披露 AI 使用情况?

如果前 4 个问题里有两个以上答不上来,就不要直接往正式产出里放。


真正安全的用法,不是“不用 AI”,而是“不把责任让出去”

从清华、上海交通大学、厦门理工学院这些公开材料里,你大致能看到一个共同方向:

  • AI 不是绝对禁区;
  • 但它也绝不是责任替代器。

科研人员更稳妥的用法,不是让 AI “替你完成”,而是让它:

  • 帮你找
  • 帮你搬
  • 帮你整
  • 帮你润

最后的判断、引用、解释和责任,仍然必须回到人身上。

如果只记一句话:

你可以把 AI 放进科研流程,但不要把学术责任交给 AI。