OR新媒体 | AI对人类有多大威胁?连科技领袖也莫衷一是
  •  86 18982085896
  •  service@oror.vip

台式电脑,笔记本电脑,手机,平板无限畅享。

OR新媒体
OR新媒体
跨平台阅读首选
oror.vip
oror.vip
 登录  注册
  • 首页
  • 政经
  • 商业
  • 金融
  • 科技
  • 社会与生活
  • 艺术风尚
  • 视频
  • 每日倾听
  • About us
OR新媒体
登录
注册
AI对人类有多大威胁?连科技领袖也莫衷一是 关闭 返回上一级  
关注我们:    
OR 新媒体|oror.vip|跨平台阅读首选
2023-09-05 19:02
科技

AI对人类有多大威胁?连科技领袖也莫衷一是
+ 查看更多

AI专家就该技术可能带来的威胁展开辩论,焦点是应该关注避免一场AI引发的大灾难,还是如何防止由该技术造成的偏见和虚假信息等问题。
人工智能AI对人类有多大威胁?连科技领袖也莫衷一是
Sam Schechner,Deepa Seetharaman

■人工智能(AI)的先驱们正在为这项技术的哪种危险最可怕而争论不休。

由一些建造先进AI系统的高层管理人员组成的阵营认为,AI的产物可能导致巨大灾难。 而由科学家组成的另一个阵营则认为,人们应该主要关注AI现在是如何实施的,以及它在我们日常生活中会造成怎样的危害。

AI开发公司Anthropic的首席执行官兼联合创始人Dario Amodei属于就人类的生死存亡危险发出警告的一派。今年夏天,他在美国国会作证时说,AI可能会给人类带来这种风险。ChatGPT的开发公司OpenAI的首席执行官Sam Altman今年春天在全球巡回演讲时表示,AI有一天可能会造成严重危害,甚至更糟的后果。马斯克(Elon Musk)在今年5月出席《华尔街日报》(The Wall Street Journal)举办的一次活动时说,“AI毁灭人类的可能性并非为零”。他在那不久之后创立了自己的AI公司。

预计Altman、马斯克等一些AI公司高管将于下周参加美国参议院多数党领袖、纽约州民主党参议员舒默(Chuck Schumer)召开的一系列AI闭门会议中的首次会议,会议将讨论包括“末日场景”在内的话题。

另一个AI科学家阵营则称,这些警告是科幻小说引发的干扰信息,甚至是一种有违常规的营销策略。他们说,AI公司和监管机构应该把有限的资源集中在该技术现有的和迫在眉睫的威胁上,比如那些生成影响力很大的有关选举的错误信息的工具,或者那些放大人类偏见影响的系统。

这场争论愈演愈烈,世界各地的公司和政府都在试图决定将资源和注意力集中于何处,以最大程度地从这项被广泛认为可能改变世界的技术中获益,并尽可能地减少不利方面。

“这种分化非常现实,而且不断加剧,”Future Society联合创始人Nicolas Miailhe表示。“就好比有人觉得不过是到了月底,而有人觉得是世界末日。”Future Society是一家致力于AI治理的智库,正努力弥合这一分歧。

尽管AI一直备受关注,但直到不久之前,关于AI引发的人类生存风险(最忧心忡忡的人称之为“X风险”)的严肃公开讨论仍然只局限在一小部分哲学家和AI研究人员当中。

OpenAI去年年底推出ChatGPT并进行了一系列的后续改进,使其能作出类似人类的反应,从而引发了关于此类系统可能获得超人智能的警告。在那之后,上述局面发生了变化。包括被视为AI教父之一的Geoffrey Hinton在内,一些知名研究人员都认为AI技术有一点类人推理能力。Hinton今年从Alphabet (GOOG)旗下的谷歌(Google)离职,以更不受约束地讨论AI风险。

剑桥大学(University of Cambridge)机器学习教授David Krueger说,关于生死存亡风险的警告一直有种忌讳,人们害怕这么做会被嘲笑,被当成疯子,影响自己的职业前景。Krueger在今年5月份帮助组织了一份声明,称AI带来的灭绝风险与大流行病和核战争的危险不相上下。数以百计AI专家签署了这份声明,其中包括谷歌、OpenAI和Anthropic的高管和研究员等。

Krueger说:“我想让研究人员知道,持同样看法的大有人在。”

该领域的一些人认为,AI公司强调AI系统的“X风险”虽然自相矛盾但有一个好处,因为这给人一种他们的技术异常复杂的感觉。

前谷歌律师Daniel Schoenberger表示:“很明显,这些人受益于仍在升温的炒作。”他表示,政策制定者应该更多地关注近期风险,比如AI使发起传播虚假和误导性信息的活动变得成本更低,或者将更多权力集中在硅谷。Schoenberger曾参与谷歌2018年AI原则清单的制定,目前在Web3 Foundation工作。

Schoenberger称:“存在主导风险,即科技巨头成为AI巨头。”

担心生存风险的AI领导者表示,他们的担忧是真实的,而不是一种策略。OpenAI的Altman在6月份表示:“说‘哦,政府是指望不上了,所以呼吁监管是徒劳’——这不是我们的想法。这是一种生存风险。”

所谓的末日论者并没有说AI一定会像《终结者》(Terminator)电影中的“天网”那样崛起,毁灭人类。一些人担心,被训练来寻求奖励的AI系统最终可能会有隐藏的追求权力的冲动,在执行我们的愿望时无意中伤害人类,或者干脆超越人类,掌握我们的命运。这一领域的研究主要集中在所谓的一致性上,即如何确保未来的计算机头脑与我们的目标本质上是一致的。

相比之下,AI伦理与公平领域的专家们担心的是这些工具如何无意或有意地剥削工人、加深数以百万计人的不平等。他们希望科技公司和监管机构执行培训标准和技术,以减少这种威胁。

多样性是一个引爆点。AI伦理学家已展示了经过历史数据训练的AI系统可能如何将过去的歧视纳入未来的重要决策中,如居住、招聘或刑事判决。研究还表明,生成式AI系统可能生成带有偏见色彩的图像。他们还认为,AI研究人员缺乏多样性会导致他们看不到AI可能对有色人种和女性产生的影响。

这场辩论可能会变得非常激烈。“你有什么计划来确保AI不会带来生存风险?”在今年6月举行的一个关于生存风险的公开论坛上,生命未来研究所(Future of Life Institute)所长Max Tegmark向知名AI研究员、圣达菲研究所(Santa Fe Institute)教授Melanie Mitchell发问。“你没有回答我的问题。”

“我不认为存在生存风险,”Mitchell反驳道,她还称人们正努力“降低更直接的、现实世界中的风险”。Tegmark听到这番话时瞪大了眼睛。

Mitchell在一次采访中说,关于生存风险的讨论“完全基于猜测,根本没有科学依据”。

在麻省理工学院(Massachusetts Institute of Technology)担任教授的Tegmark表示,他认为一些公司有意在关注公平问题和生存风险的人们之间挑起分歧,以逃避监管。Tegmark创办的非营利组织未来生命研究所旨在防范技术带来极端的大规模风险。

Tegmark在接受采访时表示,如果双方在这个问题上都各持己见,则将两败俱伤。

多年来,这场争论已经擦出火花。2015年,在谷歌园区内举办的一次会议间隙,一些学者和科学家聚在一起讨论AI的风险。一方与担忧生存风险的人士针锋相对,认为重点应放在当下的危害上,包括各种偏见。

与会的加州大学伯克利分校(University of California, Berkeley)教授Steven Weber回忆称,担忧X风险的人士当时反驳说,人类的未来岌岌可危,应该没人会担心AI可能导致房贷利率出现0.25个百分点的差异。

Weber表示:“我几乎以为这场学术会议将发生一起斗殴事件。”

那些担心世界末日的人士远远没有达成共识,一些末日论者认为,即使是那些表示担忧的大公司高管也没有采取足够的措施来避免世界末日。

AI公司Conjecture的首席执行官Connor Leahy表示:“我们正在目睹一场荒谬的死亡竞赛,主要参与者都在争相推出神通广大的AI。”Leahy说,他对大型科技公司关于人类生死存亡风险担忧的看法持谨慎态度。他表示:“要观其行,而不是听其言。”该公司致力于解决如何让AI与人类价值观和利益保持一致的问题。

人们也在努力弥合两个阵营的分歧。一些伦理学研究者表示,他们并不完全否定有关人类生死存亡的风险,只是认为应该把这作为有更明确定义的现有问题的一部分来解决。一些末日论者认为,通向灾难的道路很可能来自伦理学界所强调的问题,比如大量炮制的虚假信息导致政府被推翻或引发战争的后果。双方都希望能够揭开AI思考方式的黑箱,即所谓的可解释性问题。

曾在Google DeepMind工作过的爱丁堡大学(University of Edinburgh) AI伦理学助理教授Atoosa Kasirzadeh说:“一些人确实在试图弥合这两个阵营的分歧。”Kasirzadeh表示:“希望这些群体能够相信,他们在内心深处关注的都是同一类事情。”■ 

注:本文仅代表作者个人观点                                                                                              
相关内容
OR
+
  • AI模型与24名大学生一起参加创造力考试,成绩如何?
  • AI热潮中的低调大赢家:英伟达供应商SK海力士
  • 失语近20年后,她在AI帮助下再次说话
  • 英伟达的AI狂飙才刚开头
  • 比尔·盖茨:人工智能对教育来说是一种双赢
  • 马斯克谈xAI愿景:将成为另类人工智能
  • 马斯克成立新人工智能公司xAI
  • 人工智能改变微软估值,市值或将突破3万亿
  • 马斯克,胡厚崑分别在世界人工智能大会的演讲(全文)
读者评论
MORE +
点击这里取消回复。

Submit
热门排行榜
OR
+
  • 习近平与欧盟高官在北京峰会上寻求缓解经济紧张局势
  • 原子能再度兴起,中国占据先机
  • 我发起“中国不是美国的敌人”倡议,因为同样的谎言见过太多次了
  • 基辛格对中国的认知是正确的,至今如是
  • 从国家能力看中西大分流(一)
  • 周庭“弃保潜逃”,暴露了香港维护国安的几点不足
  • 中国财经媒体报道汇总:国务院:大力发展新能源和清洁能源,到2025年电能占终端能源消费比重达30%
  • 曾经势不可挡的阿里巴巴如今步履蹒跚
  • 台湾大选的白热化阶段
  • 每周时事分析:中欧矛盾难解,但峰会也能有所交代
最新资讯
OR
MORE +
  • 巴以冲突巴以战争的五个外溢效应
    遭美国投票否决,加沙地带人道主义停火决议草案未获安理会通过
    发布日期:2023-12-09 12:08
  • 高群书:野一点
    高群书:野一点
    发布日期:2023-12-09 11:25
  • 中概股简报:腾讯混元助手小程序上线,并将公布大模型和AI聊天机器人
    中概股简报:大股东Prosus再减持51.35万股腾讯股份
    发布日期:2023-12-09 10:47
  • 消费超市中国是“世界工厂”,但中国超市为何这么贵?
    中国11月CPI同比下降0.5%,连降两月且降幅高于预期
    发布日期:2023-12-09 10:36
OR品牌理念

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

OR 跨平台阅读首选
+
■ 在台式电脑、笔记本电脑中,「OR」能给您创造优越的阅读体验。只要您在浏览器中输入我们的网址:
oror.vip
即可畅享我们为您提供的优质资讯。

■ 您也可通过手机而或平板电脑从浏览器输入我们的网址:
oror.vip

访问我们的网站,获得一样的精彩!

2023-09-05 19:02
科技

AI对人类有多大威胁?连科技领袖也莫衷一是
+ 查看更多

AI专家就该技术可能带来的威胁展开辩论,焦点是应该关注避免一场AI引发的大灾难,还是如何防止由该技术造成的偏见和虚假信息等问题。
人工智能AI对人类有多大威胁?连科技领袖也莫衷一是
Sam Schechner,Deepa Seetharaman

■人工智能(AI)的先驱们正在为这项技术的哪种危险最可怕而争论不休。

由一些建造先进AI系统的高层管理人员组成的阵营认为,AI的产物可能导致巨大灾难。 而由科学家组成的另一个阵营则认为,人们应该主要关注AI现在是如何实施的,以及它在我们日常生活中会造成怎样的危害。

AI开发公司Anthropic的首席执行官兼联合创始人Dario Amodei属于就人类的生死存亡危险发出警告的一派。今年夏天,他在美国国会作证时说,AI可能会给人类带来这种风险。ChatGPT的开发公司OpenAI的首席执行官Sam Altman今年春天在全球巡回演讲时表示,AI有一天可能会造成严重危害,甚至更糟的后果。马斯克(Elon Musk)在今年5月出席《华尔街日报》(The Wall Street Journal)举办的一次活动时说,“AI毁灭人类的可能性并非为零”。他在那不久之后创立了自己的AI公司。

预计Altman、马斯克等一些AI公司高管将于下周参加美国参议院多数党领袖、纽约州民主党参议员舒默(Chuck Schumer)召开的一系列AI闭门会议中的首次会议,会议将讨论包括“末日场景”在内的话题。

另一个AI科学家阵营则称,这些警告是科幻小说引发的干扰信息,甚至是一种有违常规的营销策略。他们说,AI公司和监管机构应该把有限的资源集中在该技术现有的和迫在眉睫的威胁上,比如那些生成影响力很大的有关选举的错误信息的工具,或者那些放大人类偏见影响的系统。

这场争论愈演愈烈,世界各地的公司和政府都在试图决定将资源和注意力集中于何处,以最大程度地从这项被广泛认为可能改变世界的技术中获益,并尽可能地减少不利方面。

“这种分化非常现实,而且不断加剧,”Future Society联合创始人Nicolas Miailhe表示。“就好比有人觉得不过是到了月底,而有人觉得是世界末日。”Future Society是一家致力于AI治理的智库,正努力弥合这一分歧。

尽管AI一直备受关注,但直到不久之前,关于AI引发的人类生存风险(最忧心忡忡的人称之为“X风险”)的严肃公开讨论仍然只局限在一小部分哲学家和AI研究人员当中。

OpenAI去年年底推出ChatGPT并进行了一系列的后续改进,使其能作出类似人类的反应,从而引发了关于此类系统可能获得超人智能的警告。在那之后,上述局面发生了变化。包括被视为AI教父之一的Geoffrey Hinton在内,一些知名研究人员都认为AI技术有一点类人推理能力。Hinton今年从Alphabet (GOOG)旗下的谷歌(Google)离职,以更不受约束地讨论AI风险。

剑桥大学(University of Cambridge)机器学习教授David Krueger说,关于生死存亡风险的警告一直有种忌讳,人们害怕这么做会被嘲笑,被当成疯子,影响自己的职业前景。Krueger在今年5月份帮助组织了一份声明,称AI带来的灭绝风险与大流行病和核战争的危险不相上下。数以百计AI专家签署了这份声明,其中包括谷歌、OpenAI和Anthropic的高管和研究员等。

Krueger说:“我想让研究人员知道,持同样看法的大有人在。”

该领域的一些人认为,AI公司强调AI系统的“X风险”虽然自相矛盾但有一个好处,因为这给人一种他们的技术异常复杂的感觉。

前谷歌律师Daniel Schoenberger表示:“很明显,这些人受益于仍在升温的炒作。”他表示,政策制定者应该更多地关注近期风险,比如AI使发起传播虚假和误导性信息的活动变得成本更低,或者将更多权力集中在硅谷。Schoenberger曾参与谷歌2018年AI原则清单的制定,目前在Web3 Foundation工作。

Schoenberger称:“存在主导风险,即科技巨头成为AI巨头。”

担心生存风险的AI领导者表示,他们的担忧是真实的,而不是一种策略。OpenAI的Altman在6月份表示:“说‘哦,政府是指望不上了,所以呼吁监管是徒劳’——这不是我们的想法。这是一种生存风险。”

所谓的末日论者并没有说AI一定会像《终结者》(Terminator)电影中的“天网”那样崛起,毁灭人类。一些人担心,被训练来寻求奖励的AI系统最终可能会有隐藏的追求权力的冲动,在执行我们的愿望时无意中伤害人类,或者干脆超越人类,掌握我们的命运。这一领域的研究主要集中在所谓的一致性上,即如何确保未来的计算机头脑与我们的目标本质上是一致的。

相比之下,AI伦理与公平领域的专家们担心的是这些工具如何无意或有意地剥削工人、加深数以百万计人的不平等。他们希望科技公司和监管机构执行培训标准和技术,以减少这种威胁。

多样性是一个引爆点。AI伦理学家已展示了经过历史数据训练的AI系统可能如何将过去的歧视纳入未来的重要决策中,如居住、招聘或刑事判决。研究还表明,生成式AI系统可能生成带有偏见色彩的图像。他们还认为,AI研究人员缺乏多样性会导致他们看不到AI可能对有色人种和女性产生的影响。

这场辩论可能会变得非常激烈。“你有什么计划来确保AI不会带来生存风险?”在今年6月举行的一个关于生存风险的公开论坛上,生命未来研究所(Future of Life Institute)所长Max Tegmark向知名AI研究员、圣达菲研究所(Santa Fe Institute)教授Melanie Mitchell发问。“你没有回答我的问题。”

“我不认为存在生存风险,”Mitchell反驳道,她还称人们正努力“降低更直接的、现实世界中的风险”。Tegmark听到这番话时瞪大了眼睛。

Mitchell在一次采访中说,关于生存风险的讨论“完全基于猜测,根本没有科学依据”。

在麻省理工学院(Massachusetts Institute of Technology)担任教授的Tegmark表示,他认为一些公司有意在关注公平问题和生存风险的人们之间挑起分歧,以逃避监管。Tegmark创办的非营利组织未来生命研究所旨在防范技术带来极端的大规模风险。

Tegmark在接受采访时表示,如果双方在这个问题上都各持己见,则将两败俱伤。

多年来,这场争论已经擦出火花。2015年,在谷歌园区内举办的一次会议间隙,一些学者和科学家聚在一起讨论AI的风险。一方与担忧生存风险的人士针锋相对,认为重点应放在当下的危害上,包括各种偏见。

与会的加州大学伯克利分校(University of California, Berkeley)教授Steven Weber回忆称,担忧X风险的人士当时反驳说,人类的未来岌岌可危,应该没人会担心AI可能导致房贷利率出现0.25个百分点的差异。

Weber表示:“我几乎以为这场学术会议将发生一起斗殴事件。”

那些担心世界末日的人士远远没有达成共识,一些末日论者认为,即使是那些表示担忧的大公司高管也没有采取足够的措施来避免世界末日。

AI公司Conjecture的首席执行官Connor Leahy表示:“我们正在目睹一场荒谬的死亡竞赛,主要参与者都在争相推出神通广大的AI。”Leahy说,他对大型科技公司关于人类生死存亡风险担忧的看法持谨慎态度。他表示:“要观其行,而不是听其言。”该公司致力于解决如何让AI与人类价值观和利益保持一致的问题。

人们也在努力弥合两个阵营的分歧。一些伦理学研究者表示,他们并不完全否定有关人类生死存亡的风险,只是认为应该把这作为有更明确定义的现有问题的一部分来解决。一些末日论者认为,通向灾难的道路很可能来自伦理学界所强调的问题,比如大量炮制的虚假信息导致政府被推翻或引发战争的后果。双方都希望能够揭开AI思考方式的黑箱,即所谓的可解释性问题。

曾在Google DeepMind工作过的爱丁堡大学(University of Edinburgh) AI伦理学助理教授Atoosa Kasirzadeh说:“一些人确实在试图弥合这两个阵营的分歧。”Kasirzadeh表示:“希望这些群体能够相信,他们在内心深处关注的都是同一类事情。”■ 

注:本文仅代表作者个人观点                                                                                              
相关内容
OR
+
  • AI模型与24名大学生一起参加创造力考试,成绩如何?
  • AI热潮中的低调大赢家:英伟达供应商SK海力士
  • 失语近20年后,她在AI帮助下再次说话
  • 英伟达的AI狂飙才刚开头
  • 比尔·盖茨:人工智能对教育来说是一种双赢
  • 马斯克谈xAI愿景:将成为另类人工智能
  • 马斯克成立新人工智能公司xAI
  • 人工智能改变微软估值,市值或将突破3万亿
  • 马斯克,胡厚崑分别在世界人工智能大会的演讲(全文)
 
 读者评论:
点击这里取消回复。

Submit
每日头条
OR
+
  • 每周时事分析:中欧矛盾难解,但峰会也能有所交代
    习近平与欧盟高官在北京峰会上寻求缓解经济紧张局势
关注:    
分享:
最新资讯
OR
+
  • 遭美国投票否决,加沙地带人道主义停火决议草案未获安理会通过
  • 高群书:野一点
  • 中概股简报:大股东Prosus再减持51.35万股腾讯股份
  • 中国11月CPI同比下降0.5%,连降两月且降幅高于预期
  • 靠拼多多赚最多钱的投资人
视频
OR
MORE +
  • 美的大裁员:方洪波的温情与“冷酷”
    视频:为什么所有老板,都想有个方洪波?
热门排行榜
OR
+
  • 习近平与欧盟高官在北京峰会上寻求缓解经济紧张局势
  • 原子能再度兴起,中国占据先机
  • 我发起“中国不是美国的敌人”倡议,因为同样的谎言见过太多次了
  • 基辛格对中国的认知是正确的,至今如是
  • 从国家能力看中西大分流(一)
  • 周庭“弃保潜逃”,暴露了香港维护国安的几点不足
  • 中国财经媒体报道汇总:国务院:大力发展新能源和清洁能源,到2025年电能占终端能源消费比重达30%
  • 曾经势不可挡的阿里巴巴如今步履蹒跚
  • 台湾大选的白热化阶段
  • 每周时事分析:中欧矛盾难解,但峰会也能有所交代
每日倾听
OR
MORE +
  • 每日倾听:黄家驹海阔天空
    每日倾听:黄家驹《海阔天空》
分享:

 © 2022 OR 版权所有
jm