![]()
AI生成的海报|搜狐科技撰稿人|郑松毅编辑常博硕|杨进 近日,某教学平台上的一道物理题以“学生跳楼自由落体”作为案例场景,引发广泛关注和热议。题目是“人生可以重来一次,高考就一次。很多学生受到地球引力的影响,会不自觉地进行自由落体动作。一名普通高中生,质量为60公斤,从11楼自由落体,不考虑空气阻力,求其下落的平均速度。”为什么平台上会出现这样不合理的话题呢?有些人认为问题很可能是由人工智能生成的,而另一些人则认为——由用户上传到平台(例如手动输入、照片上传等)。 “主体本身具有教育品质,应该是积极健康的。当课文中出现不道德的主体时有家长表示担心,利用AI出题是否已成为教育培训行业的普遍现象?业内人士向搜狐科技表示,将AI融入内容创作流程已成为行业趋势,尤其是在教学、语言学习等领域。传统手工出题往往需要数小时甚至数天的打磨,而AI可以在短时间内批量出题,满足学生多场景、大批量的需求。教育生成和培训行业的效率提高了,但AI生成的问题可靠吗?许多实际教育和培训给出的答案都是一样的:“虽然可以使用,但仍然不如人。”业内普遍认为,AI问题往往存在“看似合理,实则错误”的缺陷,也隐藏着伦理道德风险。从例子来看,人工智能问题的“假设想法”确实很难让人信服。某平台AI生成的一道中文试题,曾将《纤夫之恋》误写成“万妻之恋”,让学生一头雾水。 “汉武帝参加南京青奥会”的荒唐说法,出现在杭州一所中学历史提问中。某教育培训平台机器学习系统负责人李明(化名)也强调,人工审核很重要。 “人工智能融入到教育内容创作过程中,大大提高了生产效率,但必须配合严格的人工质检。一些关键环节还会建设三轮评估,投入的人力和精力成本非常高。”除了AI的产生之外,另一个解释是问题被上传由用户自行定义——例如,当用户手动输入或拍照阅读图片时,相关内容会被纳入题库进行存储。大模型并不是立即拒绝回答不合规的问题,而是将其存储在题库中,本质上暴露了AI在伦理推理能力和价值对齐机制方面的缺陷。这个问题不是一个孤立的问题,而是主流大型架构模型和实践范式的固有特征。这是技术路径限制、训练数据偏差、文化价值观差异等因素交叉引发的系统性挑战。正如Meta首席AI科学家杨立坤所说,“目前主流模型通过强化学习从人类反馈中优化行为,但这种机制只能捕捉表面行为模式,很大程度上无法理解深层原理。”这也是需要突破的主要瓶颈在大模型的下一阶段,近期的多项研究也证实了这一点:如果是黑暗的AI在复杂的伦理情境下很容易产生偏见。事件发生后,多家平台均进行了调查和系统优化。搜狐科技对多款热门机型的实际测试表明,目前这些产品能够准确识别违反道德标准的问题并拒绝回答,或者推荐以下研究相关问题。豆袋实战、学而思九章爱学实战作业实战、多家市场研究机构分析,全球人工智能教育市场正处于关键节点,行业正从实验走向大规模落地。预计2025年全球人工智能教育市场将达到70亿美元以上,年复合增长率预计将超过70亿美元。2030年至2034年增长35%。只有变革与规范障碍齐头并进,才能成为教育创新的热门之路。返回搜狐查看更多