1. 首页 > 科技资讯

人工智能领域国际会议,人工智能顶级国际会议

人工智能的高速发展十分迅速,其潜在性风险也是越来越显著,因此,OpenAI的管理层以为,全球需要一个类似核技术监管机构国际人工智能监管机构--要尽早创建,但是也不能急于求成。

在这家公司的一篇帖子中(https://openai.com/blog/governance-of-superintelligence#SamAltman),OpenAI 创始人 Sam Altman、首席总裁 Greg Brockman 和首席科学家 Ilya Sutskever 解释道,人工智能的突破越来越快,我们不应该寄希望于已有的机构能充分操纵这一技术。

尽管之上描述有某类自我表扬成分,但一切公平公正的观测者都很清楚,现在最有吸引力的理论是 OpenAI 备受青睐的 ChatGPT 对话系统,它不仅具有一种与众不同危胁,但也是一项珍贵的财产。

这篇文章贴子出不来意想不到的在细节服务承诺上比较一笑了之,但是认可人工智能不容易自我约束:

我们应该在当前领先的开发设计勤奋中间进行一些融洽,以保证超级智能的高速发展在保证产品安全性与此同时,可以有利于这种系统和整个社会成功结合。

我们最终可能还需要类似国际原子能机构(IAEA)国际机构来监管超级智能的研发;一切超过一定水平(或测算等优质)门槛勤奋都要接纳国际性权威性机构的监管。该机构能够进行全面检查,标准进行财务审计,检测是否满足检测标准,对布署度与安全等级增加限定等。

IAEA 是联合国在核技术这个问题上开展国际交流官方机构,而根据这一模式创建的人工智能监管机构很有可能不能直接劝阻各种不良行为,但是它可以形成并跟踪国家标准和协议书,这起码是一个起始点。

OpenAI 的文章强调,跟踪用以人工智能探索的计算水平能源应用情况,是相对而言应当会被文件和跟踪的极少数客观性对策之一。尽管我们无法明确人工智能应当用以哪种目地,但是能够认为并对专用型网络资源进行监管和财务审计,如同别的行业要做的一样。OpenAI 对公司的建议,小型企业可以获得免除,以防止抹杀创新性的嫩芽。

领袖级的人工智能研究者和点评家 Timnit Gebru 接受《卫报》访谈的时候也讲了类似的话:"除非你有外界工作压力规定采用不同的作法,不然企业不容易进行适当的监管。我们应该监管,我们应该比单一的盈利动因更加好的物品"。

OpenAI 早已显著地接受监管的态势,这让不少期待 OpenAI 当之无愧、真真正正开放的人觉得诧异,但是至少做为市场领导者,OpenAI 还在号召在整治层面采用具体的行为 -- 不会像近期的听证制度那般,议员们排长队发布全篇疑问而无济于事的续任演说。

尽管 OpenAI 的意见等同于 "或许我们要做些什么",但是它起码是正式启动了这一行的会话,并说明世界最大的单一人工智能知名品牌与供应商适用做这些事。人工智能急切地必须公共性监管,但 "还不知道该如何设计方案那样一个机制"。

虽然 OpenAI 的领导人员说她们适用对 AI 踩刹车,但该企业现在还没有这么做的方案,因为她们不愿放弃 "改进我们的社会"(更别提并且也不愿放弃 “改进其财务报告道德底线”)的无限潜力,也由于存在坏家伙们正踩住油门踏板风险。(译员按:手足无措或者无从下手的进退两难局势)

创作者丨Devin Coldewey

译员丨刘文栋 Ted

翻译校对丨LsssY

编写丨罗蕊艳

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejizixun/68207.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666