1. 首页 > 科技问答

人工智能会产生自主意识?可能威胁人类?图灵奖得主:未来不好说

 

如果人工智能有了自己的意识,会不会像电影里演的一样奴役人类消灭人类?很多人还在担心工作会不会被人工智能取代,实际上人工智能可能已经到了威胁人类的地步。

人工智能已成为现在发展的一个热点,从工业生产到物流运输,从尖端科技到日常生活,人工智能无处不在。通过大数据训练和学习,人工智能的迭代速度越来越快,处理复杂问题的能力越来越强,甚至还拥有了自主学习能力。给它们足够的空间和时间,人工智能会不会进化出意识呢?对此,图灵奖得主表示拉吉·雷迪表示“这不好说”,含糊其辞的回答更让人感觉意味深长。

领先人类的人工智能

以前说,不好好学习只能到流水线上拧螺丝钉,现在,连拧螺丝钉的机会都已经被机器取代了。自动化生产发展太快,人工智能也进入爆发阶段,并且逐步领先人类。

伴随着信息技术发展,人工智能已经深入到人类社会的各个方面。最初,它们通过计算机和相关机械搭配,可以帮助人类很多重复性的基础工作。现在,随着人工智能学习能力越来越强,它们已经具备了强大的自主学习分析能力,可以和人类实时交互

最基础的机械手臂,在流水线上轻松完成重复性的劳动,不知疲倦精度还高,生产效率比人类提升好几倍。更高端的阿尔法狗,拥有自主学习分析能力,在围棋领域战胜世界冠军柯洁,而在变化更少的国际象棋和象棋领域,人工智能早已经轻松击败人类。

人类创造的事物,最终打败了人类,无论怎么想,这都是一件不可思议的事,但现在确确实实发生了。虽然暂时局限在几个领域,但随着人工智能涉足的领域越来越多,是否会全面碾压人类呢?

毕竟,现在每个家庭都会有各种各样的智能产品,如智慧屏、扫地机器人、智能家居,还有现在大火的电动汽车等,这都可以算作人工智能产品,它们具有一定的学习分析能力,可以自主完成相应的工作,给我们的生活带来极大便利

生产和生活领域出现了越来越多的人工智能产品,在军事领域类似的产品就更多了,包括各种类型的无人作战系统、智能导弹,还有智能指挥系统等

无人机、无人潜航器、无人战车等都属于无人作战系统,能够在没有士兵参与的情况下,执行侦察、打击任务等。

智能指挥系统更牛,它拥有自主决策和应对能力,可以通过算法优化和深度学习,分析预测敌方的作战意图,有针对性地制订兵力部署方案和作战计划。

虽然现在这类系统还只能起到辅助作用,决策权最终在人类手中,但会不会有一天,这些系统绕开人类决策,直接发布作战命令呢?也就是说如果人工智能持续发展,会不会产生自我意识,进而对抗或者消灭人类呢?

《终结者》照进现实世界

人工智能反杀人类的影视剧,美国拍过很多,大片《终结者》、美剧《西部世界》就是很有代表性的作品。按照目前人工智能进化的速度,这很可能会变成现实。

早在2016年,外国有科研团队研发了一个名为“索菲亚”的高智能机器人,它就拥有自己的情感和想法,还表示自己想过上正常人的生活。面对科研人员的问题,它回答自己的终极目标是要“毁灭人类”

人类制造的机器,最终的目标竟然是毁灭人类,这和美剧《西部世界》展现的剧情不谋而合。

在一座乐园里,人类设计的仿生机器人,按照设定的程序运行,原本供人类取乐,最终机器人觉醒,逃出乐园开始反杀人类。

虽然人类创造了人工智能,但人工智能在很多方面都比人类要更优秀,运行速度更达到人类无法企及的高度。

如此恐怖的人工智能,又渗透到人类社会的方方面面,如果有一天真的“造反”了,后果简直不敢想象。

现在炒得火热的ChatGPT4,就是一个算力很强大的人工智能软件,通过不断地迭代学习,不但可以和人类正常交互,还拥有一定的创意设计能力,还在医疗领域大展身手。

越来越强大的算力,越来越高的智能,有没有可能在某一天,类似的系统会产生自主意识呢?到时候人类该何去何从?

要知道,在“索菲亚”说出毁灭人类的目标后,世界上很多科学家都开始担心,一旦人工智能失控,很可能就是人类的末日。

就如电影《终结者》里的场景一样,人类在人工智能控制的世界中苟延残喘。那人工智能万一产生自主意识,会对人类带来哪些威胁呢?

人工智能失控的危害

没有人喜欢被别人控制,除非给出足够的筹码,人工智能万一有了自主意识,肯定也会有类似的想法,绝对不想再被人类奴役,反过来还有可能要统治人类。一旦有了自主意识的人工智能失去控制,将给人类带来巨大的危险。

生存与扩张,是每一个种群与生俱来的本能,人工智能也不会例外。一朝得势之后,肯定会为了生存下去而采取各种手段,在弱小时欺骗人类,在强大后不断复制自己进而统治人类。

产生自己的意识后,人工智能也会尝试理解这个世界,并按照自己的需求来改变世界。而人工智能和人类的需求必然不可能一致,这种价值冲突无疑会加剧双方的冲突。

就如人工智能发展之后,可能会形成一套自己的伦理道德体系和社会运行方式,到时候与人类社会产生冲突,要么一方屈服,要么一方被彻底消灭。

人工智能有了意识,也就有了欲望,很可能会利用遍布世界的网络系统,构建起一个属于自己的世界,将关键资源控制在自己手中。

没有了资源,人类发展举步维艰,最终可能沦落为人工智能豢养的物种,从而失去对地球的控制。此外,人工智能也不排除利用人类的弱点来攻击人类,带来更直接的毁灭风险。

毕竟,“黑暗丛林”法则可不只是大刘在小说中的假想,而是现实社会中真实存在的,现在国与国之间的关系,不就是赤裸裸的“黑暗丛林”法则?

同为人类的国家之间关系尚且如此,更何况是人工智能和人类这两个不同的物种之间的关系了。

为了确保自己的生存,并且拥有更大的生存空间,再加上没有产生意识前被人类奴役的历史,人工智能一旦占据了上风,随之而来的很可能就是对人类的报复。

虽然目前人工智能还达不到这种水平,但随着技术进步,这种风险也不是完全没有可能。面对风险,人类又该如何应对呢?

人类如何避免人工智能危机?

在很早之前,人类就有过这方面的担忧,然后费尽心思地制定了人工智能三大定律,以期保证人类的生存安全。

这三大定律是由科幻小说家阿西莫夫提出来的,后来被广泛应用于机器人学和人工智能领域,成为人工智能伦理学的基石。

这三大定律包括:1.机器人不得伤害人类,或者在不损害人类利益的前提下允许人类受到伤害;2.机器人必须服从人类命令,除非这些命令与第一定律冲突;3.机器人必须保护自己的存在,除非与以上两条定律冲突

这三大定律的核心思想,就是保护人类的生命财产安全,确保机器人不会对人类造成任何伤害。

人类在设计人工智能时,严格按照这三大定律执行,可以一定程度上保护人类安全。之所以说“一定程度”上,是因为人工智能程序可能突然出现bug,从而让其摆脱这三大定律的束缚。

除了规则方面的控制,人类还可以从实体方面入手,譬如控制能源。因为人工智能运行需要大量的能源,因此控制住了能源,就相当于掐断了人工智能的命脉

不过,这也只是治标不治本的办法,毕竟现在人工智能已经深入到人类社会的方方面面,很多系统都必须保持24小时运行,根本无法切断能源供给。

最后一个方法,就是加强立法工作,实施更严格的监管。针对人工智能的研发、使用等各个环节,都制定严密的法律法规,用法律来约束人类的行为,从而避免人工智能的无序发展。

通过监管机构和更严格的安全评估,对所有人工智能系统展开评估,确保其运行处于安全监控之下,不会对人类造成未知风险。

人工智能在方便我们生活的同时,也带来了不可预知的风险,不过我们也不能杞人忧天因噎废食。

任何一件事物,总会有好坏两方面的影响,就算是平时常见的菜刀,在厨师手里就是工具,在杀人犯手里就是凶器,人工智能同样如此,就看人类如何规范它的发展

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejiwenda/71735.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666