1. 首页 > 科技问答

攻击自动驾驶汽车违法吗,攻击自动驾驶汽车的技术

前所未有强劲的人人工智能Chatgpt在出现以后可谓风光无二,短短的3个月时间内就揽获上百万注册者,大家争相与这名“谈话”,并提问问题希望它可以答出来“人生箴言”。可事实上,AI的高速发展水平仍然比较低,多么低呢?一张纸就能骗得它!

研究表明,只需一张直接打印的贴纸图片,就能“蒙骗”AI系统软件,让监测系统也难以见到面前硬生生的人。这项研究也有可能用以现实生活的安防监控系统,也包括相对高度智能的自动驾驶汽车。

手里拿着一张纸AI就看不清了

来源于比利时鲁汶高校的几位研究人员发现,仅需一张简单的图案纸,就能绕开AI视频监控系统。科研人员表明,她们定制的图像能将整个人都隐藏,也不会让AI视觉识别系统发觉。

AI系统软件取得成功检测出左侧的人,而右侧的人被忽略了。右侧的人的身上挂在一块五颜六色硬纸板,在文章中被称作 “竞技性补丁包”,恰好是这方面补丁包 “蒙骗” 了AI系统软件,让操作系统没法发觉画面里还有一个人。

这类蒙骗运用了一种称之为竞技性人工智能的方式。大部分机器视觉系统软件依靠训练神经网络来识别不一样的东西了,方法是什么给他提供各种样版,调节它主要参数,直至它能够准确地归类目标。可以将样版键入一个练习好一点的神经网络算法并监管导出,能够推测什么类别的图像让系统软件困惑不已。

近年来,机器视觉有了很大改进,但依然有可能会犯比较严重错误。犯错误如此多,以致于有一个研究方向专注于科学研究AI常常错认的图片,能把他们当作计算机电子光学假象,当你发现树枝有一只猫时,人工智能技术看见了一只松鼠。

这种图像更令人堪忧,所以这些图片并不是刻意制作出来的,视觉识别系统却还会犯错误。有研究人员发现,她们在各种图片上尝试了很多视觉检测系统,发觉它们准确度下降90%,某些情况下,手机软件只有识别2%-3%的图像。

学者解释道,这种图像运用了“深层次缺点”,这种缺点来源于此软件“过分依赖色调,纹路背景案件线索”来识别其所看的东西。尽管我们一直在练习AI系统软件,但是我们一般不清楚图片里的什么准确原素是AI用以作出判断的。

一束光就能造成车祸事故

在AI识别的实践应用上,一旦遇到这种问题不良影响并不是致歉就能解决问题了。

在某牌自动驾驶汽车的交通出行路上,经过某立交桥下,恰好一束自然光从立交桥正中间通过,照射到地面上神似车道标线,而汽车的自动驾驶也把它误以为车道标线,最终车子出现了撞击,大幸车子没有出现进一步无法控制。

接着的有关试验也印证了此次事件并不是偶发性。云安全的专业人士就发布过一项对于此地科学研究,发现只需简单用激光灯,就能让AI实体模型不会再合理。当不一样频带的光线打到同一个物体表面,AI很有可能将这个物件识别不正确,比如把停车标识识别成成功行驶。

也有,自动驾驶汽车的监控摄像头遭受激光影响时,会把“无轨电车”识别为“两栖类”,将“指路牌”识别为“皂液调节器”。假定一个人就坐在一辆自动驾驶汽车上入睡,奔向一辆无轨电车,或直接没法识别正前方路人,那就会造成如何残酷的不良影响。

因而,这种能够搅乱AI识别的图像,能够运用在衣服裤子、包或其它物体表面,“配戴”这类图像的人将会成为透明人——针对AI而言。这便是人工智能技术领域专家需要解决的问题,要不然不久的将来无人驾驶等AI将绝不很有可能商业。由此可见,人工智能完善还需时日啊。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.miyuegong.com/kejiwenda/66418.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666