OR 新媒|oror.vip跨平台阅读首选
2023-12-14 07:19
科技

AI安全风险挑战全球治理

叶胜舟:AI成为新的大规模杀伤性武器只是一个时间问题。一个更危险的潘多拉魔盒已经打开,人类能否主宰自身命运,取决于现在的觉醒和协作。
智能向善:利用人工智能加速社会影响进程
叶胜舟

■地球会有第三次世界大战吗?会在本世纪爆发吗?还是人类之间的战争吗?人类战败后会被机器奴役吗?

笔者喜欢看科幻片,尤其偏爱上世纪末、本世纪初《黑客帝国》三部曲,其中第一部标志性的“子弹时间”已风靡全球。影片的背景就是人类欺压机器人,机器人反抗并在人机大战中完胜,成为真实世界与虚拟世界的绝对霸主,人类被圈养,只为机器发电。这个场景未来某天会成真吗?

AI“心智”迭代迅速

区块链、元宇宙的概念先后被资本热炒,不久就冷场。扎克伯格提出野心勃勃的元宇宙计划,甚至将Facebook改名为Meta,结果严重亏损,300多亿美元投资打水漂。2023年能否开启人工智能(AI)新纪元有待未来复盘考证,但近一年的大事接二连三。

广告
一、去年11月30日,ChatGPT-3.5公布,可生成编程代码、电子邮件、论文、小说、诗歌等各类文本,随即出圈风靡世界,今年1月就迅速拥有1亿用户。OpenAI华丽转身全球最顶尖、最有实力、最有前途的AI创业公司,成为无数资本的宠儿。

二、今年3月15日,ChatGPT-4.0发行,迭代很快,不仅能阅读文本,还能识别图像。GPT-3.5模型司法考试排名倒数10%、SAT数学考试590分、生物奥林匹克竞赛排名前69%,但GPT-4.0模型司法考试排名前10%、SAT数学考试700分、生物奥林匹克竞赛排名前1%。表明短短四个月,它迅速“聪明”与“成熟”了。

三、11月17日,OpenAI董事会宣布,罢免CEO奥尔特曼和董事长布罗克曼,这两位都是公司的联合创始人。11月21日,OpenAI宣布达成新协议,奥尔特曼回炉担任CEO,罢免他的董事会彻底改组,首席科学家苏茨克维离开董事会。

斯坦福大学商学院副教授科辛斯基2月发布论文,声称原本认为是人类独有的心智,竟出现在了AI模型上,GPT-3.0模型相当于7岁儿童,GPT-3.5模型相当于9岁的儿童。还好只是“相当”,未必“自主”。按照这种速度迭代,GPT-4.0模型相当于10岁+儿童,正在研究的GPT-5.0模型或许相当于13-14岁青少年。总有一天AI自主心智会达到并超过人类,越来越多的有识之士为AI安全风险捏把汗。

奥尔特曼突然解职与复职的原因

奥尔特曼号称“ChatGPT之父”,一直是OpenAI首席代言人,今年更进一步成为AI行业的首席代言人,竟然被董事会解职,理由是“沟通中不坦诚,阻碍了董事会履行职责的能力”。真实原因并非如此含糊和简单。

2015年OpenAI成立时,就定位于非营利,使命是“确保通用人工智能(AGI)造福全人类”。董事会对人类负责,并非对股东(投资者)负责,所以中文翻译为“理事会”更准确。

11月13日,OpenAI几位研究人员致信董事会警告,构建AGI的Q*模型取得了突破性进展,能够计算某些数学问题,虽然数学能力仅达到小学生的水平,但意味着AI即将或已经拥有类似人类的推理能力,具备创造新知识的能力,恐怕威胁全人类。

11月22日,路透社引用两个消息来源报道,这封信成为奥尔特曼17日被开除的关键导火索之一。同日,微软CEO纳德拉、OpenAI CTO穆拉蒂分别证实了这个项目、这封信件以及导致董事会行动的因果关系。特斯拉CEO、OpenAI联合创始人马斯克在X平台(前推特)对路透社的相关报道评论为“极度令人担忧”。

Q*模型由苏茨克维牵头研究,他当然清楚其潜力和杀伤力。去年2月10日就在推特上感慨:“当今最大的神经网络,可能已拥有轻微的意识。”今年7月称已在公司内部创建“超级对齐”团队,研究与控制AI安全风险。在与奥尔特曼就公司的前景和路线发生不可调和的矛盾后,他快刀斩乱麻,履行董事会的职责,说服董事会其他成员以4:2的表决结果解除奥尔特曼、布罗克曼职务。

奥尔特曼解职的戏剧性和对科技行业的震动,不亚于“苹果之父”乔布斯被苹果公司董事会解职。区别在于乔布斯回归苹果用了12年,奥尔特曼回归OpenAI仅用了4天。

复职如此顺利还是归功于强大的资本力量,董事会基于尽责和良心解雇,资本基于利润和回报复职。从内因而言,公司所有员工约770人,至7月20日有743人联署,要求奥尔特曼复职、改组董事会。OpenAI正在计划以860亿美元的估值,将公司股票卖给员工,奥尔特曼被解职后,估值迅速缩小甚至搁置,员工发财梦想成为泡影。

从外因而言,为OpenAI投资130亿美元、在营利的子公司占49%股权的微软发挥关键作用,迅速伸出橄榄枝,宣布为奥尔特曼、OpenAI离职科研人员提供新岗位、新投资。实质承诺重组一个实力相当的新公司,OpenAI董事会不妥协就必然成为空壳,一样垮台。

中美欧迅速应对AI风险外溢

ChatGPT-4.0拥有的潜力,已经对人类多个行业和岗位构成冲击或重组威胁,例如教育、医生、理财、会计、写作、记者、律师、艺术等。AI普及后,劳动力将大量过剩,微软联合创始人盖茨预测人类每周工作三天成为可能。这只是基础风险。

中等风险是威胁个人隐私和社会秩序,例如可以“深度伪造”数据、文字、声音、图片、视频、身份、场景等。美国总统拜登透露看到自己讲话的深伪产品,对图像的逼真程度感到吃惊,反问自己:“我什么时候说过这些话?”

最大风险是AI不可控、不可逆,可能毁灭人类和地球。AI软件AlphaZero已经实现自我训练,无需人工数据,即可快速迭代和进步,击败人类顶尖棋手,Q*模型也已自主选择、创造、合成数据并实现自我训练。AI成为新的大规模杀伤性武器只是一个时间问题,如果拥有自主意识并顺利控制核武器、生物武器、化学武器等现有大规模杀伤性武器或所有电子产品、信息基础设施,将是最可怕的大杀器。

2023年,AI技术和能力迅猛突破,AI风险警报随即提升,AI风险监管也明显加速。10月30日,美国总统拜登签署《关于安全、可靠和可信地开发和使用人工智能的行政命令》,要求开发人员对AI新模型进行安全测试,并将测试结果提交政府。同日,七国集团发布《开发先进人工智能系统组织的国际行为准则》。

欧洲向来对个人隐私和知识产权保护最严,对IT产业监管最严,此次对AI风险的反应也不例外,再次走在国际前沿。6月14日,欧洲议会通过《人工智能法案》,尽管还需成员国、欧洲议会和欧盟委员会三方谈判后才能生效,也已为其他国家提供了一个全面的监管样板。11月1日至2日,英国举办首届全球人工智能安全峰会。12月6日至8日,欧盟国家和欧洲议会历经22小时、15小时两个马拉松式谈判后,就AI使用规则达成临时协议,为《人工智能法案》实施扫除最后一个重大障碍。

5月23日,中国政府迅速发布《生成式人工智能服务管理暂行办法》。11月15日,中美元首在旧金山峰会达成“三大共识”,次日美国白宫新闻稿将AI安全共识单列一段,在打击毒品、恢复军事沟通之后排序第三。两国元首重申,有必要通过美中政府会谈处理先进人工智能的风险并改进人工智能的安全。

AI安全成为国际社会共忧

目前对AI的态度有两大派系。一个是乐观派,称为兴起主义、“有效加速”,主张技术优先,通过加速技术创新颠覆社会结构,迫使人类不断适应,代表人物有奥尔特曼、布罗克曼、纳德拉等;另一个是忧虑派,称为末日主义、“人机对齐”,主张谨慎控制AI的发展速度,确保人类安全,并与人类意图和价值观对齐,代表人物有苏茨克维、马斯克等。笔者支持忧虑派。

AI技术是双刃剑,未来很难预测,但人类不能过于冒险。AI安全风险给全球治理和人类生存带来严峻的挑战,气候变化需要数百年、数千年累积,AI突破和失控大概率就在本世纪,所以威胁更大、更迫切。人类真应该比气候变化更重视AI风险。

AI风险治理须坚持发展与安全同步、技术与伦理同步、资本与监管同步、本国与国际同步,充分运用联合国平台进行协同治理是最佳选项。7月18日,联合国安理会首次就人工智能与安全问题举行高级别公开会,呼吁管控AI技术风险。笔者支持联合国效仿国际原子能机构(IAEA)设立“国际人工智能机构”(IAIA),向安全理事会负责,统一制定全球AI治理规则、管控AI风险、协调各国行动。

1939年8月2日,爱因斯坦致信美国总统罗斯福,建议美国务必抢在纳粹德国之前研制出原子弹,催生了“曼哈顿计划”。日本广岛遭原子弹轰炸后,他在震惊之余,后悔写信给罗斯福。但潘多拉魔盒已经打开,万幸的是核大国实现了“恐惧平衡”,所以未再使用核武器袭击人类。

放眼全球与未来,确实是百年未有之大变局,不仅全球单极霸权可能终结,而且人类科技革命性突破可能处于前夜。如今一个更危险的潘多拉魔盒已经打开,人类能否战胜更大的威胁,能否主宰自己的命运,取决于现在的觉醒和协作。■ 
                                                                                           
相关内容
+
读者评论
MORE +

热门排行榜
OR
+
2023-12-14 07:19
科技

AI安全风险挑战全球治理

叶胜舟:AI成为新的大规模杀伤性武器只是一个时间问题。一个更危险的潘多拉魔盒已经打开,人类能否主宰自身命运,取决于现在的觉醒和协作。
智能向善:利用人工智能加速社会影响进程
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ 在台式电脑、笔记本电脑中,「OR」能给您创造优越的阅读体验。只要您在浏览器中输入我们的网址:
oror.vip
即可畅享我们为您提供的优质资讯。

■ 您也可通过手机而或平板电脑从浏览器输入我们的网址:
oror.vip

访问我们的网站,获得一样的精彩!

叶胜舟

■地球会有第三次世界大战吗?会在本世纪爆发吗?还是人类之间的战争吗?人类战败后会被机器奴役吗?

笔者喜欢看科幻片,尤其偏爱上世纪末、本世纪初《黑客帝国》三部曲,其中第一部标志性的“子弹时间”已风靡全球。影片的背景就是人类欺压机器人,机器人反抗并在人机大战中完胜,成为真实世界与虚拟世界的绝对霸主,人类被圈养,只为机器发电。这个场景未来某天会成真吗?

AI“心智”迭代迅速

区块链、元宇宙的概念先后被资本热炒,不久就冷场。扎克伯格提出野心勃勃的元宇宙计划,甚至将Facebook改名为Meta,结果严重亏损,300多亿美元投资打水漂。2023年能否开启人工智能(AI)新纪元有待未来复盘考证,但近一年的大事接二连三。

广告
一、去年11月30日,ChatGPT-3.5公布,可生成编程代码、电子邮件、论文、小说、诗歌等各类文本,随即出圈风靡世界,今年1月就迅速拥有1亿用户。OpenAI华丽转身全球最顶尖、最有实力、最有前途的AI创业公司,成为无数资本的宠儿。

二、今年3月15日,ChatGPT-4.0发行,迭代很快,不仅能阅读文本,还能识别图像。GPT-3.5模型司法考试排名倒数10%、SAT数学考试590分、生物奥林匹克竞赛排名前69%,但GPT-4.0模型司法考试排名前10%、SAT数学考试700分、生物奥林匹克竞赛排名前1%。表明短短四个月,它迅速“聪明”与“成熟”了。

三、11月17日,OpenAI董事会宣布,罢免CEO奥尔特曼和董事长布罗克曼,这两位都是公司的联合创始人。11月21日,OpenAI宣布达成新协议,奥尔特曼回炉担任CEO,罢免他的董事会彻底改组,首席科学家苏茨克维离开董事会。

斯坦福大学商学院副教授科辛斯基2月发布论文,声称原本认为是人类独有的心智,竟出现在了AI模型上,GPT-3.0模型相当于7岁儿童,GPT-3.5模型相当于9岁的儿童。还好只是“相当”,未必“自主”。按照这种速度迭代,GPT-4.0模型相当于10岁+儿童,正在研究的GPT-5.0模型或许相当于13-14岁青少年。总有一天AI自主心智会达到并超过人类,越来越多的有识之士为AI安全风险捏把汗。

奥尔特曼突然解职与复职的原因

奥尔特曼号称“ChatGPT之父”,一直是OpenAI首席代言人,今年更进一步成为AI行业的首席代言人,竟然被董事会解职,理由是“沟通中不坦诚,阻碍了董事会履行职责的能力”。真实原因并非如此含糊和简单。

2015年OpenAI成立时,就定位于非营利,使命是“确保通用人工智能(AGI)造福全人类”。董事会对人类负责,并非对股东(投资者)负责,所以中文翻译为“理事会”更准确。

11月13日,OpenAI几位研究人员致信董事会警告,构建AGI的Q*模型取得了突破性进展,能够计算某些数学问题,虽然数学能力仅达到小学生的水平,但意味着AI即将或已经拥有类似人类的推理能力,具备创造新知识的能力,恐怕威胁全人类。

11月22日,路透社引用两个消息来源报道,这封信成为奥尔特曼17日被开除的关键导火索之一。同日,微软CEO纳德拉、OpenAI CTO穆拉蒂分别证实了这个项目、这封信件以及导致董事会行动的因果关系。特斯拉CEO、OpenAI联合创始人马斯克在X平台(前推特)对路透社的相关报道评论为“极度令人担忧”。

Q*模型由苏茨克维牵头研究,他当然清楚其潜力和杀伤力。去年2月10日就在推特上感慨:“当今最大的神经网络,可能已拥有轻微的意识。”今年7月称已在公司内部创建“超级对齐”团队,研究与控制AI安全风险。在与奥尔特曼就公司的前景和路线发生不可调和的矛盾后,他快刀斩乱麻,履行董事会的职责,说服董事会其他成员以4:2的表决结果解除奥尔特曼、布罗克曼职务。

奥尔特曼解职的戏剧性和对科技行业的震动,不亚于“苹果之父”乔布斯被苹果公司董事会解职。区别在于乔布斯回归苹果用了12年,奥尔特曼回归OpenAI仅用了4天。

复职如此顺利还是归功于强大的资本力量,董事会基于尽责和良心解雇,资本基于利润和回报复职。从内因而言,公司所有员工约770人,至7月20日有743人联署,要求奥尔特曼复职、改组董事会。OpenAI正在计划以860亿美元的估值,将公司股票卖给员工,奥尔特曼被解职后,估值迅速缩小甚至搁置,员工发财梦想成为泡影。

从外因而言,为OpenAI投资130亿美元、在营利的子公司占49%股权的微软发挥关键作用,迅速伸出橄榄枝,宣布为奥尔特曼、OpenAI离职科研人员提供新岗位、新投资。实质承诺重组一个实力相当的新公司,OpenAI董事会不妥协就必然成为空壳,一样垮台。

中美欧迅速应对AI风险外溢

ChatGPT-4.0拥有的潜力,已经对人类多个行业和岗位构成冲击或重组威胁,例如教育、医生、理财、会计、写作、记者、律师、艺术等。AI普及后,劳动力将大量过剩,微软联合创始人盖茨预测人类每周工作三天成为可能。这只是基础风险。

中等风险是威胁个人隐私和社会秩序,例如可以“深度伪造”数据、文字、声音、图片、视频、身份、场景等。美国总统拜登透露看到自己讲话的深伪产品,对图像的逼真程度感到吃惊,反问自己:“我什么时候说过这些话?”

最大风险是AI不可控、不可逆,可能毁灭人类和地球。AI软件AlphaZero已经实现自我训练,无需人工数据,即可快速迭代和进步,击败人类顶尖棋手,Q*模型也已自主选择、创造、合成数据并实现自我训练。AI成为新的大规模杀伤性武器只是一个时间问题,如果拥有自主意识并顺利控制核武器、生物武器、化学武器等现有大规模杀伤性武器或所有电子产品、信息基础设施,将是最可怕的大杀器。

2023年,AI技术和能力迅猛突破,AI风险警报随即提升,AI风险监管也明显加速。10月30日,美国总统拜登签署《关于安全、可靠和可信地开发和使用人工智能的行政命令》,要求开发人员对AI新模型进行安全测试,并将测试结果提交政府。同日,七国集团发布《开发先进人工智能系统组织的国际行为准则》。

欧洲向来对个人隐私和知识产权保护最严,对IT产业监管最严,此次对AI风险的反应也不例外,再次走在国际前沿。6月14日,欧洲议会通过《人工智能法案》,尽管还需成员国、欧洲议会和欧盟委员会三方谈判后才能生效,也已为其他国家提供了一个全面的监管样板。11月1日至2日,英国举办首届全球人工智能安全峰会。12月6日至8日,欧盟国家和欧洲议会历经22小时、15小时两个马拉松式谈判后,就AI使用规则达成临时协议,为《人工智能法案》实施扫除最后一个重大障碍。

5月23日,中国政府迅速发布《生成式人工智能服务管理暂行办法》。11月15日,中美元首在旧金山峰会达成“三大共识”,次日美国白宫新闻稿将AI安全共识单列一段,在打击毒品、恢复军事沟通之后排序第三。两国元首重申,有必要通过美中政府会谈处理先进人工智能的风险并改进人工智能的安全。

AI安全成为国际社会共忧

目前对AI的态度有两大派系。一个是乐观派,称为兴起主义、“有效加速”,主张技术优先,通过加速技术创新颠覆社会结构,迫使人类不断适应,代表人物有奥尔特曼、布罗克曼、纳德拉等;另一个是忧虑派,称为末日主义、“人机对齐”,主张谨慎控制AI的发展速度,确保人类安全,并与人类意图和价值观对齐,代表人物有苏茨克维、马斯克等。笔者支持忧虑派。

AI技术是双刃剑,未来很难预测,但人类不能过于冒险。AI安全风险给全球治理和人类生存带来严峻的挑战,气候变化需要数百年、数千年累积,AI突破和失控大概率就在本世纪,所以威胁更大、更迫切。人类真应该比气候变化更重视AI风险。

AI风险治理须坚持发展与安全同步、技术与伦理同步、资本与监管同步、本国与国际同步,充分运用联合国平台进行协同治理是最佳选项。7月18日,联合国安理会首次就人工智能与安全问题举行高级别公开会,呼吁管控AI技术风险。笔者支持联合国效仿国际原子能机构(IAEA)设立“国际人工智能机构”(IAIA),向安全理事会负责,统一制定全球AI治理规则、管控AI风险、协调各国行动。

1939年8月2日,爱因斯坦致信美国总统罗斯福,建议美国务必抢在纳粹德国之前研制出原子弹,催生了“曼哈顿计划”。日本广岛遭原子弹轰炸后,他在震惊之余,后悔写信给罗斯福。但潘多拉魔盒已经打开,万幸的是核大国实现了“恐惧平衡”,所以未再使用核武器袭击人类。

放眼全球与未来,确实是百年未有之大变局,不仅全球单极霸权可能终结,而且人类科技革命性突破可能处于前夜。如今一个更危险的潘多拉魔盒已经打开,人类能否战胜更大的威胁,能否主宰自己的命运,取决于现在的觉醒和协作。■ 
                                                                                           
相关内容
+
 
 读者评论:

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+