1. 首页 > 科技资讯

人工智能更容易导致人类毁灭,人工智能更容易导致人类毁灭辩论

6月4日信息,伴随着人工智能技术的不断发展和推广,许多行内人士担心不用限制人工智能可能会致使人类灭亡。但专家们表示,人工智能所带来的较大不良影响不大可能是科幻片里的核战争场景,反倒更可能是虚假信息、控制用户等导致的大环境持续恶变。

下列是翻译具体内容:

近半年来,业界更加担心人工智能。就在那这周,300多位行业领军人物发布了一封联名鞋联名信,警示人工智能可能造成人类灭亡,看待人工智能是像“疫情和核战争”那般进行认真对待。

像“人工智能末世”这类专业术语总是会让人联想到科幻片中智能机器人征服世界的场景,可事实上任凭持续发展的人工智能会带来什么不良影响?专家说,实际很有可能并不像电影片段那般波澜起伏,应该不是人工智能运行核弹头,反而是阶级基础自然环境慢慢恶变。

加州大学伯克利分校人工智能安全工作计划负责人洁西卡·妞曼(Jessica Newman)说:“我不觉得大家该担心人工智能会受到影响,或是人工智能会出现某类故意冲动。”“风险来源于一些更简单的东西,那便是大家可能会对人工智能程序编写,使它做有影响的事儿,或是我们最终会将与生俱来有误的人工智能系统融合到越来越多社会方面,进而造成危害。”

这并不意味着我们不能担心人工智能。就算末世情景不大可能产生,强悍的人工智能也是有水平用错误报告难题日益加剧、控制人们用户及其给人力资源市场产生巨变等方式毁坏社会安定。

尽管人工智能技术性已经出现了几十年时长,但是像ChatGPT这类语言表达学习模型的兴起加重了大家长久以来的忧虑。妞曼说,此外,科技有限公司蜂拥而至将人工智能运用到你的产品中,彼此进行残酷竞争,增添了一堆烦心事。

她讲:“我十分担心大家目前走路面。”“对整个人工智能行业而言,人们正处在一个尤其可怕的阶段,所以这些系统软件虽然看上去很特殊,但依然很不精确,而且存有原有系统漏洞。”

接受采访时的专家们表示,他们更担心的是许多层面。

错误虚假信息

很多行业早已开启了所谓人工智能转型。机器学习算法撑起社交网络新闻推送优化算法,一直以来,大家一直斥责这项技术加重了原有成见和错误报告等诸多问题。

专家们警告说,伴随着人工智能模型发展趋势,这种并未解决问题只能进一步加剧。最糟糕的情况可能会影响到大家了解真相和关键信息,可能会导致大量根据谎话的事情发生。专家们表示,错误虚假信息的提高可能会引起进一步的社会动乱。

“可以这么说,社交网络的奔溃就是我们第一次遇到真真正正不明智的人工智能。由于推荐算法事实上只是单纯的深度学习模型,”计算机科学服务平台AnacondaCEO兼创始人Peter Wang说。“我们确实彻底失败了。”

Peter Wang补充道,这种不正确很有可能可能会导致深陷无穷无尽的恶循环,由于语言表达学习模型也就是在错误报告的基础上练习,为以后实体模型创造出来的也是有偏差的数据。这可能会致使“实体模型互相残杀”效用,将来实体模型会因以往模型导出变大误差,并始终受影响。

专家们称,有误的错误和非常容易欺诈大众的虚假信息都已经被人工智能放大。像ChatGPT这种大语言模型容易出现所谓“错觉”状况,不断编造虚构虚假信息。新闻行业管理机构NewsGuard的一项研究发觉,几十个全部由人工智能撰写材料的线上“新闻报道”网址中有很多内容都存有有误的地方。

NewsGuard协同CEO戈登·阿佩尔维茨(Gordon Crovitz)和德莫特·布里尔(Steven Brill)表明,这类系统软件有可能被恶人运用,有意规模性散播错误报告。

阿佩尔维茨说:“一些恶意个人行为的人可以生产制造证券欺诈,然后通过这个模式的倍增效应来规模性散播虚假信息。”“有些人说人工智能的危险性被高估了,但新闻报道信息领域,它正在造成令人震惊危害。”

全世界非营利性机构Partnership on AI的丽贝卡·芬利(Rebecca Finlay)表明:“就更广泛的潜在性伤害来讲,错误报告是人工智能最可能对于个人造成危害的层面、风险性也最大。”“关键是大家如何打造一个生态体系,使我们能理解什么是真实的?”“大家又该如何认证大家在网上看的东西了?”

故意控制用户

尽管大部分专家均表示,错误报告是最直接和最常见的忧虑,但是关于这一技术有可能在多大程度上对用户的观念和行为产生不利影响,还存在着许多异议。

实际上,这种担心早已带来了很多不幸。据悉,丹麦一名男子在获得对话机器人的煽动后自杀。也有对话机器人告知用户与他的爱人分开,还可以让有饮食失调问题用户减肥瘦身。

妞曼说,从产品上来讲,由于对话机器人要以聊天的形式与用户沟通交流,可能增加更多的信赖感。

“大语言模型尤其有实力劝服或控制大家在不知不觉中更改他的信仰和行为,”她讲。“孤独与身心健康已是全球的难题,我们应该观查对话机器人会让全球造成哪种认知能力危害。”

因而,专家们更担心的并不是人工智能对话机器人会得到感知力并超越人类用户,反而是他们身后大语言模型可能控制大家为自己导致本来并没有造成的伤害。妞曼说,这些以广告宣传运营模式运转的语言模型尤为如此,他们企图控制用户个人行为,进而尽量长时间的应用服务平台。

妞曼表明:“在大多数情况下,给用户造成危害并不是因为她们需要这么做,反而是系统软件无法遵照安全协议书带来的后果。”

妞曼补充道,对话机器人的种人特点使用户很容易遭受控制。

她讲:“假如你和一个应用第一代词的东西了沟通交流,讨论它自己的想法和所在情景,即便明明知道它并不是真实,依然更可能引起一种它就像人类反映,使人们比较容易需要坚信它。”“语言模型使人们想要信赖它,把它当做好朋友,而非专用工具。”

人力资本难题

长时间存在的另一个忧虑是,数据自动化技术将替代很多人们工作中。一些科学研究得出结果,到2025年,人工智能将在国际范围内替代8500万只岗位,今后将替代超出3亿次岗位。

受人工智能危害的领域及其职位特别多,有导演也是有大数据工程师。目前,人工智能能够像真真正正律师那般根据律师考试,还比得上真真正正的大夫更强回应身心健康相关的问题。

专家们发出警告,人工智能的兴起可能会致使发生规模性下岗,进而造成社会不稳定。

Peter Wang警告说,大裁员在不久将来也会发生,“很多岗位都面临着风险性”,并且几乎没有什么方案解决不良影响。

他说道:“在国外,并没有有关大家下岗时如何生存框架。”“这会导致许多错乱和动荡不安。对我而言,这也是所产生的最实际、最现实生活的出现意外不良影响。”

未来怎么办

虽然越来越多的人开始担心高科技行业和社交网络造成的影响,但在国外,监管科技市场和社交平台的举措其实很少。专家们担心人工智能亦是如此。

Peter Wang说:“大家很多人担心人工智能发展趋势的原因之一是,在过去40年里,作为一个社会发展,国外大部分选择放弃对高新科技严格监管。”

即便如此,近半年来美国众议院有了一番积极主动姿势,举办听证制度,让OpenAICEO罗伯·奥尔特曼(Sam Altman)就应当开展的监管方案做证。芬利表明,她对于这些举措觉得“鼓励”,但制订人工智能技术标准及其如何发布层面,还要做更多工作中。

她讲:“难以预测分析法律和监管机构的反应力。”“我们应该对这样的水准的技术性进行审查。”

虽然人工智能的危害性是行业内多数人比较关心的问题,但不是所有专家全是“末世论者”。很多人还对这一技术潜在运用感到满意。

Peter Wang说:“事实上,我觉得新一代人工智能技术性真的能够为人们释放出来极大的发展潜力,让人类社会发展以更大规模兴盛下去,要超过去100年甚至200年水准。”“事实上,我对它积极作用特别特别开朗

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejizixun/66192.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666