1. 首页 > 科技资讯

人工智能丧失控制风险,研究人员研发出一种人造皮肤

人工智能存不存在好似核战和疫情对人类生活威慑力?一份由人工智能科学家和别的知名人物签定的全新声明称,应当这样对待它。

声明中写到:“降低人工智能可能造成的灭亡风险应当是全世界优先选择的事宜,与其它社会认知风险同样,如疫情和核战。”这篇文章22字的英语声明由坐落于美国旧金山的非营利性组织人工智能安全管家(CAIS)公布,该机构表明,该声明致力于就人工智能的应急风险进行全世界探讨。

排到签名者名册第一位的是人工智能科学研究先行者杰弗里·辛顿(Geoffrey Hinton),最近刚离去谷歌搜索,拥有更多的随意就是他所讲的人工智能产生显著且现实生活的风险触发警报,他说道:“这个东西比我比较聪明了。”

Hinton是GPT-4等大型语言模型所使用的深度学习方法的创始人之一,还有他的拥护者Yoshua Bengio。特别注意的是,图灵奖得奖科研团队的第三位组员——Meta顶尖人工智能专家Yann LeCun没有看到在支持名单上。

该声明还由几个关键人工智能企业的CEO签定,包含OpenAI的Sam Altman、谷歌搜索DeepMind的Demis Hassabis和Anthropic的Dario Amodei。

CAIS页面的一部分列出隐性的人工智能风险:包含武器化、错误报告、蒙骗、权利追寻和行为。有关人工智能可能性的篡权试着,此网站表明:“假如得到实际性权力人工智能和人类价值观念不一致,他们可能变的很风险。权利追寻个人行为还会鼓励系统和别的人工智能串通,碾过视频监控系统等。从某种意义上来说,创造发明比我更强的设备要在作死。”

该组织还宣称,创建这类期盼权力人工智能很容易受到见到其战略优势政治领导人鼓励,并引入弗雷德里希·普京大帝的话来说,“不管是谁变成人工智能的管理者,都会成为世界的统治者。”

CAIS的声明意味着一系列关心人工智能安全高姿态措施里的全新一项。在今年的稍早,一封有争议联名信获得了一些适用现阶段警示的人的大力支持,督促人工智能开发设计终断六个月,但学术界对于此事反映不一。批评者觉得,这个消息要不高估了人工智能所带来的风险,要不她们认可隐性的风险,但不愿意拟议解决方案。

生活将来研究室(FLI)撰写了以前的联名信,并且对CAIS的声明发布了这种观点:“虽然FLI并没有参加制订这一声明,但是我们强烈支持它,并坚信在监管核技术和合成生物学层面的推进对减少人工智能风险具有现实意义。”

FLI提议采用一系列行为来减少这一风险,包含制定和制订国际性协议书,以限定非常高风险的人工智能蔓延并减少优秀人工智能的风险,及其创立类似国际原子能机构(IAEA)的政府间机构,推动人工智能的和平利用,从而减少风险以确保安全防范措施获得实行。

一些专家表示这种联名信被误导,AGI(通用性人工智能)以及具有通用性智能化的自主系统并非最急迫问题。南加州大学计算语言学专家教授、2020年被谷歌辞退的人工智能伦理道德团队人员Emily Bender在推文中表明,该声明是“大家自行加上自身姓名的屈辱墙”。

她写到:“我们要关心(公司)和构成他们的人以‘人工智能’名义所作的真真正正损害,而非’网’。”

其中一个伤害能从一条饮食失调求助热线的事例中看得出,这一条求助热线早已开通20年,由中国饮食失调研究会经营。该热线电话近期辞退了该人们精英团队,聘请了一个名为Tessa的对话机器人。研究会公布将以Tessa替代协助热线电话,变成该组织的重要终端软件。Tessa在接手几天后被该组织退出,主要原因是对话机器人激励具备破坏性个人行为,这种行为可能会让饮食失调恶变,比如严格控制卡路里摄入和每日秤重。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejizixun/67013.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666