分享:
 OR 新媒oror.vip跨平台阅读首选
在移动设备生成「OR新媒体」

app

访问「OR新媒体」官网( oror.vip ,点击共享按钮,选择“添加到主屏幕”即可。
2025-12-24 19:11
科技

中国担心AI可能破坏社会稳定,试图加以严格管控

尽管中国政府认为AI对国家的经济和军事未来至关重要,但相关法规和最近对网络内容的清理行动表明,政府也担心AI可能破坏社会稳定。
中国ai担心AI可能破坏社会稳定,试图加以严格管控
Stu Woo

由于担心人工智能(AI)可能破坏社会稳定,北京方面正采取非同寻常的举措来加以控制。

尽管中国政府认为AI对国家的经济和军事未来至关重要,但相关法规和最近对网络内容的清理行动表明,政府也担心AI可能破坏社会稳定。

11月,中国正式敲定了其一直在与AI公司共同制定的规则,以确保这些公司的聊天机器人使用过滤掉政治敏感内容的数据进行训练,并且在向公众推出前能通过意识形态测试。所有AI生成的文本、视频和图像都必须明确标注并可追溯,从而更容易追踪和惩罚任何传播不良内容的人。

有关部门最近表示,在为期三个月的专项整治行动中,清除了96万条被其视为非法或有害的AI生成内容。有关部门已正式将AI列为重大潜在威胁,并将其与地震和流行病一同纳入《国家突发事件总体应急预案》。

熟悉中国政府想法的人士称,中国有关部门不想监管过度。他们表示,这样做可能会扼杀创新,使中国在全球AI竞赛中落后于美国,沦为第二梯队。美国在监管AI方面采取了少加干预的做法。

但北京方面也无法承受让AI失控的代价。据官方媒体报道,中国领导人习近平今年早些时候表示,AI带来了前所未有的风险。一位高级官员称,没有安全保障的AI就像在高速公路上无刹车驾驶。

有迹象表明,目前中国正试图在二者之间寻求一种微妙的平衡。

中国的AI模型在国际排名中表现良好,无论是在总体排名还是在计算机编码等特定领域。大多数主要的美国AI模型在中国基本上无法使用。

随着AI系统变得日益精密复杂,DeepSeek等中国AI模型可能会越来越难以跟上美国模型的步伐。

评估过中美两国模型的中国境外的研究人员表示,中国的监管做法也有一些好处:按某些指标衡量,中国的聊天机器人通常更安全,暴力和色情内容更少,引导人们自我伤害的可能性也更低。

“中央的首要任务一直是监管政治内容,但体制内有人非常关心AI的其他社会影响,尤其是对儿童的影响,”在卡内基国际和平研究院(Carnegie Endowment for International Peace)研究中国AI的迈特·希恩(Matt Sheehan)说。“这或许会促使模型在某些方面生成危险性较低的内容。”

但他补充说,最近的测试表明,与美国的聊天机器人相比,在用英语查询时,中国的聊天机器人也可能更容易被“越狱”——即用户通过一些技巧绕过过滤器,比如询问AI如何为动作电影场景组装炸弹。

“一个有动机的用户仍然可以利用技巧从它们那里获取危险信息,”他说。

数据节食

要理解中国控制聊天机器人和AI生成内容的机制,可以把AI想象成一个餐厅厨房。输入是食材:来自互联网和其他来源的训练数据。输出是菜肴:聊天机器人的回答。

中国正试图规定有哪些食材可以放入碗中,然后在上菜前先品尝菜肴。

上月正式实施的一份里程碑式的文件阐明了AI标准,该文件由网络空间监管机构、网络安全审查机构、国家实验室以及包括阿里巴巴(Alibaba)和DeepSeek在内的中国领先AI公司共同起草。虽然这些标准从技术上讲是建议,但希恩表示,它们实际上就是规则。

该文件称,对于自家AI可处理的文本、视频和图像等每种内容格式,AI公司的人工测试员应随机评估4,000条训练数据。

除非材料中至少有96%被认定为安全,否则公司不得使用某个来源。

为了界定何为不安全,相关规定明确了31种风险。第一种是包含任何涉及煽动颠覆国家政权、推翻社会主义制度的内容。

其他风险包括包含宣扬暴力的内容、传播虚假有害信息或包含歧视性内容,以及侵犯他人肖像权。

当AI系统使用中国互联网上的内容进行训练时,这些数据已然经过“防火长城”的过滤,“防火长城”是中国政府多年前建立的用于封锁违规内容的系统。但为了保持全球竞争力,中国公司也会采用来自维基百科(Wikipedia)等外国网站的材料,其中可能涉及禁忌话题。

中国顶尖模型之一ChatGLM的开发者在一篇研究论文中表示,为了应对这种问题,公司有时会通过一个预先设定的黑名单来过滤敏感关键词和网页。

但当美国研究人员在美国用自己的电脑下载并运行中国的模型时,审查在很大程度上消失了。他们的结论是:虽然部分审查功能被植入了中国AI模型的“大脑”中,但很大一部分审查发生在模型训练完成之后。

政治测试

在公开发布前,中国企业必须对其模型进行密集的提问轰炸。当提示词旨在诱发涉及颠覆国家政权或歧视的回答时,面对此类提问,聊天机器人的拒绝回答率不得低于95%。

相关规定要求用2,000道题目来测试聊天机器人,且测试题库每月至少更新一次。知情人士称,备考工作相当艰巨,甚至由此衍生出了一个配套产业,一批专业的机构专门帮助AI公司应试,很像备战SAT考试。

负责监管AI的中国政府机构未回应置评请求。

卡内基国际和平研究院的AI专家希恩称,在通过发布前的测试后,聊天机器人会面临来自中国国家互联网信息办公室地方分支机构的突击测验。

政府可以立即关停违反规则的程序。有关部门报告称,在4月至6月期间下架了3,500款非法AI产品,包括那些缺少AI内容标签的产品。

还有一层安全保障:监管规定要求AI用户使用手机号或身份证件注册,从而消除了匿名性。如果有人试图生成非法内容,AI公司应记录对话、暂停服务并通报给有关部门。

更进一步

诚然,美国AI公司也对内容进行监管,试图限制暴力或其他不当材料的传播,某种程度上是为了规避法律诉讼和防范负面舆论。

但研究人员表示,中国政府的努力——至少对在中国境内运行的模型而言——通常要深入得多。这反映出中国长期以来控制公众言论的努力,包括在21世纪初建立“防火墙”。

有关部门似乎日益确信,他们的AI监管路线将卓有成效。

持审慎态度多年后,中国政府在8月份以更热情的态度拥抱AI,推出了一项人工智能+行动,要求到2027年,AI在一些重点领域的应用普及率达到70%。9月份,中国政府发布了一份AI路线图,其制定采纳了阿里巴巴、华为(Huawei)等科技巨头的意见,这表明国家对与产业界合作充满信心。

由于“防火墙”的存在,中共知道,即便聊天机器人生成了对政府构成威胁的内容,也难以掀起波澜,因为国家审查将限制此类内容在社交媒体上的传播。

本文仅代表作者个人观点。



中国担心AI可能破坏社会稳定,试图加以严格管控

2025-12-24 19:11
科技
中国ai担心AI可能破坏社会稳定,试图加以严格管控
尽管中国政府认为AI对国家的经济和军事未来至关重要,但相关法规和最近对网络内容的清理行动表明,政府也担心AI可能破坏社会稳定。

Stu Woo

由于担心人工智能(AI)可能破坏社会稳定,北京方面正采取非同寻常的举措来加以控制。

尽管中国政府认为AI对国家的经济和军事未来至关重要,但相关法规和最近对网络内容的清理行动表明,政府也担心AI可能破坏社会稳定。

11月,中国正式敲定了其一直在与AI公司共同制定的规则,以确保这些公司的聊天机器人使用过滤掉政治敏感内容的数据进行训练,并且在向公众推出前能通过意识形态测试。所有AI生成的文本、视频和图像都必须明确标注并可追溯,从而更容易追踪和惩罚任何传播不良内容的人。

有关部门最近表示,在为期三个月的专项整治行动中,清除了96万条被其视为非法或有害的AI生成内容。有关部门已正式将AI列为重大潜在威胁,并将其与地震和流行病一同纳入《国家突发事件总体应急预案》。

熟悉中国政府想法的人士称,中国有关部门不想监管过度。他们表示,这样做可能会扼杀创新,使中国在全球AI竞赛中落后于美国,沦为第二梯队。美国在监管AI方面采取了少加干预的做法。

但北京方面也无法承受让AI失控的代价。据官方媒体报道,中国领导人习近平今年早些时候表示,AI带来了前所未有的风险。一位高级官员称,没有安全保障的AI就像在高速公路上无刹车驾驶。

有迹象表明,目前中国正试图在二者之间寻求一种微妙的平衡。

中国的AI模型在国际排名中表现良好,无论是在总体排名还是在计算机编码等特定领域。大多数主要的美国AI模型在中国基本上无法使用。

随着AI系统变得日益精密复杂,DeepSeek等中国AI模型可能会越来越难以跟上美国模型的步伐。

评估过中美两国模型的中国境外的研究人员表示,中国的监管做法也有一些好处:按某些指标衡量,中国的聊天机器人通常更安全,暴力和色情内容更少,引导人们自我伤害的可能性也更低。

“中央的首要任务一直是监管政治内容,但体制内有人非常关心AI的其他社会影响,尤其是对儿童的影响,”在卡内基国际和平研究院(Carnegie Endowment for International Peace)研究中国AI的迈特·希恩(Matt Sheehan)说。“这或许会促使模型在某些方面生成危险性较低的内容。”

但他补充说,最近的测试表明,与美国的聊天机器人相比,在用英语查询时,中国的聊天机器人也可能更容易被“越狱”——即用户通过一些技巧绕过过滤器,比如询问AI如何为动作电影场景组装炸弹。

“一个有动机的用户仍然可以利用技巧从它们那里获取危险信息,”他说。

数据节食

要理解中国控制聊天机器人和AI生成内容的机制,可以把AI想象成一个餐厅厨房。输入是食材:来自互联网和其他来源的训练数据。输出是菜肴:聊天机器人的回答。

中国正试图规定有哪些食材可以放入碗中,然后在上菜前先品尝菜肴。

上月正式实施的一份里程碑式的文件阐明了AI标准,该文件由网络空间监管机构、网络安全审查机构、国家实验室以及包括阿里巴巴(Alibaba)和DeepSeek在内的中国领先AI公司共同起草。虽然这些标准从技术上讲是建议,但希恩表示,它们实际上就是规则。

该文件称,对于自家AI可处理的文本、视频和图像等每种内容格式,AI公司的人工测试员应随机评估4,000条训练数据。

除非材料中至少有96%被认定为安全,否则公司不得使用某个来源。

为了界定何为不安全,相关规定明确了31种风险。第一种是包含任何涉及煽动颠覆国家政权、推翻社会主义制度的内容。

其他风险包括包含宣扬暴力的内容、传播虚假有害信息或包含歧视性内容,以及侵犯他人肖像权。

当AI系统使用中国互联网上的内容进行训练时,这些数据已然经过“防火长城”的过滤,“防火长城”是中国政府多年前建立的用于封锁违规内容的系统。但为了保持全球竞争力,中国公司也会采用来自维基百科(Wikipedia)等外国网站的材料,其中可能涉及禁忌话题。

中国顶尖模型之一ChatGLM的开发者在一篇研究论文中表示,为了应对这种问题,公司有时会通过一个预先设定的黑名单来过滤敏感关键词和网页。

但当美国研究人员在美国用自己的电脑下载并运行中国的模型时,审查在很大程度上消失了。他们的结论是:虽然部分审查功能被植入了中国AI模型的“大脑”中,但很大一部分审查发生在模型训练完成之后。

政治测试

在公开发布前,中国企业必须对其模型进行密集的提问轰炸。当提示词旨在诱发涉及颠覆国家政权或歧视的回答时,面对此类提问,聊天机器人的拒绝回答率不得低于95%。

相关规定要求用2,000道题目来测试聊天机器人,且测试题库每月至少更新一次。知情人士称,备考工作相当艰巨,甚至由此衍生出了一个配套产业,一批专业的机构专门帮助AI公司应试,很像备战SAT考试。

负责监管AI的中国政府机构未回应置评请求。

卡内基国际和平研究院的AI专家希恩称,在通过发布前的测试后,聊天机器人会面临来自中国国家互联网信息办公室地方分支机构的突击测验。

政府可以立即关停违反规则的程序。有关部门报告称,在4月至6月期间下架了3,500款非法AI产品,包括那些缺少AI内容标签的产品。

还有一层安全保障:监管规定要求AI用户使用手机号或身份证件注册,从而消除了匿名性。如果有人试图生成非法内容,AI公司应记录对话、暂停服务并通报给有关部门。

更进一步

诚然,美国AI公司也对内容进行监管,试图限制暴力或其他不当材料的传播,某种程度上是为了规避法律诉讼和防范负面舆论。

但研究人员表示,中国政府的努力——至少对在中国境内运行的模型而言——通常要深入得多。这反映出中国长期以来控制公众言论的努力,包括在21世纪初建立“防火墙”。

有关部门似乎日益确信,他们的AI监管路线将卓有成效。

持审慎态度多年后,中国政府在8月份以更热情的态度拥抱AI,推出了一项人工智能+行动,要求到2027年,AI在一些重点领域的应用普及率达到70%。9月份,中国政府发布了一份AI路线图,其制定采纳了阿里巴巴、华为(Huawei)等科技巨头的意见,这表明国家对与产业界合作充满信心。

由于“防火墙”的存在,中共知道,即便聊天机器人生成了对政府构成威胁的内容,也难以掀起波澜,因为国家审查将限制此类内容在社交媒体上的传播。

本文仅代表作者个人观点。



 

读者评论
OR

在移动设备生成「OR新媒体」

app

访问「OR新媒体」官网( oror.vip ,点击共享按钮,选择“添加到主屏幕”即可。

特别报道

最受欢迎
OR
+

分享:
最新资讯
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR新媒体是聚焦政经、商业、金融与科技等领域的权威数字媒体。我们以深度内容和专业洞察系统解读全球趋势,提供高价值资讯,打造财经领域“必读”平台。
■ 平台官网 oror.vip 支持全终端访问,无论您使用台式机、笔记本、平板或手机,我们均可提供流畅优质的无缝阅读体验。



读者评论
+