当前位置:首页 >评论专栏 >《高教观察》>正文

应让教师成为人工智能首批合规使用者

 2025/10/28 10:05:16 《高教观察》 作者: 中国科学报 郭英剑 我有话说(0人评论) 字体大小:+

■郭英剑 中国人民大学全民阅读教育研究院院长郭英剑教授

近日,美国《高等教育纪事》刊登了夏洛特皇后大学历史学教授凯文·甘农的一篇评论文章《有时我们拒绝人工智能是有充分理由的》,其副标题为“高等教育机构在制定ChatGPT等工具的教师使用政策时,为何需要倾听反对者的声音”。甘农在文章中指出,当高校制定生成式人工智能(AI)政策时,必须把最具批判性的教师请到桌边,否则一些真正棘手的风险会被忽视。在此基础上,他还梳理了若干“需要直面的问题”。

这篇文章倒是让我想到了另外一个非常重要的问题:

在关于“是否该约束学生使用AI”的争论里,我们常把目光盯在学生身上,却忽视了一个更为关键的事实,即大多数教师及校园管理者,应该是最早的AI使用者。正是由于他们对AI的恐惧,才制定了许多看似为学生的学术诚信负责的“一刀切”禁令。但大家却忘记了,其实教师群体才应该是校园里首批也是最需要被要求合规使用AI的人。现实情况是,这些制定AI使用规则的人,却很少为自己的使用设定同等严格的要求并增加透明度。

对此,我想说,与其盯住学生,不如先从教师开始,让AI成为教学能力的一部分,而不是让制度变成一纸“禁用条款”。

AI使用的普遍性:不仅学生在用,教师也在用

目前来看,在世界范围内,师生使用AI的情况非常普遍。

美国坎贝尔大学的学术技术服务部今年3月6日发布了题为《高等教育中的人工智能:近期师生调查的元综述》的报告。该报告调查了全球师生使用AI的情况,结果如下:

学生的AI使用率高且呈上升趋势。全球86%的学生在学习中使用AI,其中54%每周均使用,近1/4每天都用。其中,面向15国的调查称,80%的本科生用过生成式AI。英国高等教育政策研究所的研究显示,92%的本科生在使用AI,较上年的66%相比,出现激增现象。

学生使用的AI工具以ChatGPT最为常见,其次为Grammarly、Copilot;用于检索、语法与写作改进、摘要和改写、起草初稿、解释难点、启发选题等。

学生使用AI的主要顾虑,包括AI幻觉,有53%的人担忧AI会出错;也有部分人担心暴露隐私并导致过度依赖;另有55%的人担心对学术诚信会有不利影响。

另外,教师的AI使用意向强烈,有93%的人预计在两年内会扩大使用,但实际使用深度不足。全球教师中约有61%用过,但88%仅“轻度”使用过。

多数高校领导认为,不到半数教师把AI纳入日常工作。

教师主要将AI用于课程设计支持、行政自动化、个性化教学与反馈等。他们对AI的担忧通常集中在偏见与公平、数据安全与隐私、学术诚信与批判性思维。

由上述调查数据可见,“完全不用AI”的学生已是少数甚至是极少数,而课堂教学早已进入了“人机共写、共学”的新常态。这些发现一方面解释了为何教师在核验与评估上感到“工作量上升”,另一方面也说明仅以“禁学生”为核心的政策与真实教学场景脱节。

请允许我直言,在AI使用的过程中,“只管学生”的政策实际上已经天然失衡。当教师本身已在不同环节中广泛使用AI,而制度只对学生“裁判”,不对教师“执法与示范”,课堂就会陷入“多头政策、个别课堂以个人好恶为据”的碎片化治理。比如,有些教师对学生使用AI听之任之,有些教师则坚决拒绝并“严格执法”,从而导致师生间的信任减弱,或者政策执行不到位。

AI使用的必然性:从学习现场到职场入口的“基础素养”

从2022年11月30日ChatGPT诞生到现在,3年过去了,AI的发展早已突飞猛进,与3年前的情形也早已不可同日而语。就运用而言,无论在世界各地还是校园内外,企图用各种方法禁止在校学生使用AI的努力均已宣告失败,在现实中完全行不通。

现在的问题是,从各种研究及其相关报告中可以看出,未来若“不教会学生使用AI”同样行不通。因为AI不仅是学习的工具,而且是未来能力结构的系统性更新。

世界经济论坛《2025年就业未来报告》显示,未来5年,技术类技能的重要性上升最快,其中“AI与大数据”位居榜首;与此同时,创造性思维、韧性、好奇心与终身学习等“人类核心能力”与AI素养呈现互补关系。也就是说,不会使用、评估与解释AI,正在像“不会用电子表格”一样成为显性短板。

因此,从教育使命来看,高校若以“禁止替代训练”,等于把训练责任外包给社会与用人单位:学生一出校门就会在真实任务中被迫学习“如何与AI共事”,却缺乏学术场景中的规范、实证与批判性方法。

政策难点与矛盾之处

甘农在文章中提醒我们:抵触并不全是“落伍”,很多担忧指向真实代价与价值冲突。他概括出几类问题,恰恰是未来政策制定绕不开的“硬骨头”。

第一,“省时神话”与幻觉,效率叙事背后的核验成本。

在各种宣传里,AI像一把“时间剪刀”,可以为人们节约大量时间。然而,在真实课堂里,凡涉及事实与引用的文本,师生都要付出核验成本,否则“省下的时间”会以“错误的后果”加倍偿还。因此,把AI当“草稿机”而非“成品机”,并将证据链与外部来源作为作业常规要求,才是将效率与可靠性“串起来”的唯一方式。

第二,学术诚信与版权/引用,检测焦虑之外的制度博弈。

若沿用“期末一次性交付”的作业形式,只盯着学生“是否作弊”,必然把矛盾推向类似于“检测器军备竞赛”。事实上,对使用AI的引用与标注,不仅是学术礼仪,也是合规实践。

第三,法律与合规,从“个体使用”到“机构责任”的传导。

当AI被嵌入校内平台与流程,日志留存、数据出境、第三方共享等问题会从“个人工具”迅速升级为“机构合规”。一旦发生纠纷,学校可能被要求保存交互日志并履行通知义务。政策不该只对学生说“不许”,更要对学校自身说“必须”:必须明确数据治理边界,必须评估工具供应商的安全与可追溯能力,必须为教师与学生提供“安全默认值”。

面向未来之“道”:让教师成为首批合规使用者

在我看来,与其把管控压在学生身上,不如把责任压回制度与教师端。为此,我尝试着提出一套“教师先用—透明披露—对称治理—过程评估”的实施框架。

其一,对称原则:约束学生前,先约束教师。

凡对学生的限制,教师在同类工作中应遵守同等或更严格的规范。例如,如果课程禁止在文献综述中使用生成式总结,教师在讲义与评语撰写时也应披露自身是否、如何使用AI;相应的,学校应提供替代方案与训练,如实例库、核验清单、引用模板,防止“只罚不教”。这一“对称原则”能把“禁令感”转变为“示范感”,提高学生对政策的信任度与遵从性。

其二,公开披露:把“是否用AI”写进大纲与流程。

在课程大纲与评分矩阵中,教师须列明:哪些任务允许/禁止/需标注AI协助;如允许,需说明可接受的用途、证据与核验方式。例如,要求附上关键提示、主要来源链接与人工修订痕迹。在备课与评分环节,教师也应形成对本学院或教务部门的内部披露,为教研改进提供真实样本。这种“全链条披露”正呼应了甘农的主张:让持保留态度者看到制度的防线,而不是口号。

其三,作业重构:把“可解释的过程”作为学习目标。

将“终稿真伪”之争,转为“过程可解释”的训练。提交生成过程包,包括关键提示、主要中间版本、外部资料、事实核验记录,让学生为自己的每一次自动化决策“作证”;现场与口试与“带回家作业”配套,考查个人理解与迁移;以本地语料、时效性案例、开放数据快照为题材,降低“一键代写”的可移植性;将AI协助的引用与标注常态化,明确不当标注或虚构来源的后果。

这样,AI不再是“捷径”,而成为研究方法与写作能力的一部分。

把“先让教师规范使用AI”写进制度

我以为,甘农的提醒很朴素:反对的声音未必落伍,很多是对代价与价值的诚实计算。若顺着这个思路想下去,我们还会发现,真正稳健的路径不是“先禁学生”,而是先要求教师成为合规、透明、可解释的AI使用示范者——当教师“会用、敢用、说得清楚怎么用”,学生自然就能在规则与示范中学会“如何正确使用”。

当然,先让教师用,不是只把使用AI的权利给教师,而是把责任与能力还给教学;教师要以此重申学术训练的本质——学会用、学会证、学会辨。这才是把AI从“禁令”变成“能力”的制度转向。

《中国科学报》 (2025-10-28 第3版 大学观察)

版权声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。