必读视频专题飞象趣谈光通信人工智能低空经济5G手机智能汽车智慧城市会展特约记者

智能体冲进校园,该怕AI还是该换活法?专访港科大副校长

2026年4月16日 08:35南方都市报

2026年初,以OpenClaw为代表的智能体(Agent)技术突飞猛进,AI不再只是充当 “聊天机器人”,而是开始替人发邮件、做规划、甚至代行决策。人工智能正从辅助工具升级为学习伙伴,这一变革正猛烈冲击着传统的教育体系。面对这场技术浪潮,很多人第一反应是:学生会不会过度依赖上AI?当学生都用AI自学了,老师还能做什么?

教育界该以何种姿态拥抱 AI?教师的角色应如何重塑?怎样避免技术加剧教育不公?4月14日,在世界互联网大会亚太峰会期间,针对这些教育界普遍焦虑的话题,南都记者对话了香港科技大学首席副校长,香港生成式人工智能研发中心主任郭毅可院士。在他看来,今天讨论 AI + 教育,关注的核心点不是 “在多大程度上使用AI” 的问题,而在于怎么把旧的应试框架拆掉,用新技术把教育拉回育人本质。

郭毅可直言,AI的到来不是颠覆教育的,恰恰相反,AI打破了工业化标准化框架下、传统的知识传递型的应试桎梏,让教育回归因材施教、启发思考、塑造人格的育人本质。对于现在业界隐隐出现的 “AI 学伴刷题内卷”,他一针见血:内卷不是 AI 造成的,是旧的教育理念和应试框架造成的。如果教育体系依然执着于刷题和正确率,那么任何工具都会被用来内卷。“换成别的多元评价方式不行吗?归根结底还是要回到教育理念变革上来。”

对于人机协同的未来,郭毅可认为,“AI 越来越像人,是好事”,但要防止上瘾沉迷,就必须保持自己更高的人性,不被 工具所支配。“人要不断进化,不能把自己交给机器,自身不进化总骂AI,这是没道理的。”

禁止学生用AI?

拦不住,也不该拦

“新技术出来以后,不太可能说不让年轻人用。第一行不通,第二也不是正确的态度。”

郭毅可的态度很明确:AI 智能体具备行动能力,是必然趋势。事实上,辅助学习这件事早就有了。国内高校早就有个人助教、学习助手等工具,只是以前不能语音驱动、不能查邮件、不能整理文件而已。他直言,大学要做的不是限制 AI agent的使用,而是教会学生信任但不盲从、使用但不依赖,明确智能体的角色、责任与边界,建立健康的主人 — 代理人关系。

他指出,真正值得警惕的不是 AI 本身,而是因依赖AI导致的“茧房效应”—— 学生只看 AI 给的信息,慢慢丧失自己搜索、判断、查证的能力。

但他不认为这是 AI 的原罪。解决办法也不是禁用,而是改变规则。他相信,一个新技术出来了,那做事情的方法就要因势而变。“你有了 AI 助理以后,那种写论文的考试,不可避免会用 AI 帮忙。它确实能帮助学生搜索资料润色文本,那你不许学生用,这不太可能,也不正常。”

港科大的做法也很直接:改考试。

不考死记硬背,不考纯文字输出,转而考学生和 AI 的交互过程、考对学科问题的批判与提问、考用 AI 深入思考问题的能力。

“我们考的是,在用 AI 工具以后,对学科的理解是不是更深刻。这才是关键。”郭毅可建议,可以将学生人机交互对话过程纳入考核内容,以此来评估学生在AI辅助下对学科本质和知识点的理解程度。

面对 AI 对传统教育框架的冲击,香港和内地高校的姿态并不一样。郭毅可坦言,内地高校体系更规整,像清华大学推出学堂在线、向学生免费开放算力,步子稳、覆盖面广。

而香港的优势则在自由度。“香港各个学校自己管自己,没有非常严格统一的教育规范。好处就是,可以试验很多新东西。课程设计自由、考试体系可以灵活调整,能做的实验更多。”在他眼里,两地是非常好的互补促进关系,香港大胆试点,内地规模化落地,合在一起,才是中国 AI 教育的完整路径。

用AI平权打破知识灌输

教育本应回到对话与思辨

AI 能写教案、批改作业、个性化答疑,一个最尖锐的问题来了:老师还有用吗?不少一线教育工作者在担忧,自己未来会否变成 “开机员”“PPT 播放员”。

郭毅可直接把话题拉回教育的起点:“中国教师的祖师爷是孔子。孔子带 72 个弟子,干什么?讨论问题。最后带出了一批大思想家。有教无类,因材施教,这就是教育的本质。”

他引用孔子的教育理念,指出教育的过程原本就是师生之间通过讨论、辩论建立共识的过程。AI的出现,让教育从工业时代的“标准化灌输”回归到了“个性化对话”,恰恰把师生从传统的知识传递型应试桎梏中解放了。

“有了AI加持,学生就有了在知识信源层面与教师快速平权的能力,教育就回归了:老师和学生讨论、争论、辩论,最后达成共识,知识本来就是共识。”

与此同时他也强调,AI 能去掉信息差,但去不掉为师者的经验判断,温度与价值观。“学生给出一个 AI 答案,教师来去掉它的幻觉,一起探讨到底对不对。这种真实场景中人与人的碰撞交流,AI 替代不了。”

而针对AI存在的“幻觉”问题,郭毅可亦持有独特的见解。很多人忧心AI 的 “幻觉”,让学生一用就容易出错、犯学术不端的错误。郭毅可的回答却有点 “反直觉”:“我从来不把幻觉当成问题。”

“人没有幻觉吗?你能保证老师讲的话百分之百准确、颠覆不破?”郭毅可指出,正因为AI基于概率生成的答案,天生带着不确定性,反而逼着学生必须做一件事:怀疑、查证、打分、比较。“正因为 AI 大家都知道它可能不准确,所以你要判别对它的信任程度。我们叫贝叶斯概率,对每一个答案都要打信用分。这比听老师讲课就不许打信任分,要强多了。”

他认为,与其将AI幻觉视为洪水猛兽,不如将其视为培养学生批判性思维的绝佳契机。“几十年教育都在强调批判性思维,AI 一来,终于不得不做了。”有鉴于此,郭毅可鼓励学生用好几个系统交叉验证,在对比中学会判断。至于学术诚信,核心不在堵,而在明规则:哪些是 AI 给的,哪些是自己写的,必须说清楚。考核重心从 “写了什么” 转向 “你怎么想、怎么辨、怎么创造”。

算力不是鸿沟,观念才是

算力向头部集中、优质模型集中在少数机构,业界始终有一种担忧的声音:AI 是否会加剧教育不公平?对此,郭毅可却很乐观,他用石油作比喻娓娓道来:“炼油厂只有少数几家,用油的人却是大多数;算力集中在少数人手上训练模型,但运用模型是所有人的。只要能普遍访问 AI,就不存在不平权的问题。”他认为,解决教育不公的关键在于提升全民的AI素养,而非担忧算力的物理分布。

公众一直谈论AI或将带来“技术鸿沟”,但在郭毅可眼中,真正的鸿沟不是算力物理分布,而是代沟。“老一代因为自己不适应,拒绝变化,这才是鸿沟。年轻人是 AI 原住民,他们没有这个问题。”他相信,全民的AI素养普遍提高必然强化教育的平权,而算力也终将像水电一样成为公共基础设施。他特别提到了清华大学向学生免费提供算力资源的做法,认为这是看到了社会发展趋势的明智之举。

对于AI深度介入青少年成长带来的隐私泄露和情感依赖问题,郭毅可认为这是所有新技术普及过程中的必经阶段和正常现象。“任何能和人产生信息交换的工具物体,都可能让人依赖。电视、电影、游戏,无一例外。”他将AI陪伴比作电影《Her》中的场景,认为只要人类能保持自身主体性,维系“不沉迷”的理性,技术就能成为情感的补充而非替代。

谈到最后他总结道,人机共生时代的教育,最终目的是帮助学生建立自我身份。AI时代教育的任务,就应引导学生在人机协同的未来,不断自我更新,进化出更高尚的人性,而不是成为技术的附庸。

采写:南都N视频记者吕虹 程姝雯 黄莉玲

编 辑:魏德龄
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
推荐阅读
  • 2026十大科技趋势

    2026 十大科技趋势,定义新一年的每一次突破。祝大家马年大吉,马到成功!初八启新程,万事皆顺遂!

    [详细]

精彩视频

精彩专题

关于我们广告报价联系我们隐私声明本站地图

CCTIME飞象网 CopyRight © 2007-2026 By CCTIME.COM

京ICP备08004280号-1 电信与信息服务业务经营许可证080234号 京公网安备110105000771号

公司名称: 北京飞象互动文化传媒有限公司

未经书面许可,禁止转载、摘编、复制、镜像