操纵匹敌性数据“”主动驾驶 误读泊车标记_www.5163.com|www.6163.com|www.7163.com|www.8163.com 

移动版

www.5163.com > www.8163.com >

操纵匹敌性数据“”主动驾驶 误读泊车标记

  正如乔代沙尔特正在一篇颁发于“基因工程及生物手艺旧事”的文章中所注释的那样,很多这些人工智能东西曾经可以或许正在计较机收集上寻找可疑的勾当,阐发时间凡是为几毫秒,并可以或许正在其形成任何损害之前消弭祸根,这些凡是来自文件或法式。

  这些非鲁棒性特征做为一种“干扰噪声”,导致算法的成果存正在缺陷。因而,黑客要想干扰人工智能,往往只需要引入一些非鲁棒特征,这些特征不容易被人眼识别,但能够较着地改变人工智能的输出成果。

  正如平安谍报局的穆阿扎姆汗所指出的,依赖于匹敌性数据的次要有两品种型:“中毒”和“闪躲”。正在中毒中,者供给了一些输入示例,这些输入示例使得决策鸿沟转移向对者有益的标的目的;正在闪躲中,者会使得法式模子对样本进行错误分类。

  特别,机械进修可以或许绕过不平安的物联网设备,让黑客更容易窃取秘密数据、违法公司数据库等等。素质上,一个的人工智能东西能够通过匹敌性数据来“传染”或其他人工智能法式。中小型企业往往面对更高的风险,由于他们没有先辈的收集平安目标。

  当然,机械进修算法本身的改良也能够削减匹敌性数据带来的一些风险。然而,最主要的是,这些系统并不是完全的。人工输入和人工监视仍然是识别鲁棒特征和非鲁棒特征之间差别的环节,以确保错误的识别不会导致错误的成果。操纵实正在相关性的额外锻炼能够进一步降低人工智能的易受特征。

  这种性质的恶意很容易导致致命的变乱。同样地,受损的算法数据可能导致错误的生物医学研究,沉则危及生命或影响医学事业的立异成长。

  做为一名生物医学工程师,笔者认为匹敌数据是一个值得关心的主要话题。比来,大学伯克利分校(UC Berkeley)传授唐恩宋(Dawn Song)“”了一辆从动驾驶汽车,让它认为泊车标记上的限速是每小时45英里。

  风趣的是,即便不带任何恶意,也可能发生匹敌性数据的输出。这正在很大程度上是由于算法可以或许“察看”到我们人类无法识此外数据中的工具。因为这种可见性,麻省理工学院比来的一个案例研究将匹敌性描述为一种特征,而不是毛病。

  虽然存正在这些问题,匹敌性数据也能够被用于积极的方面。现实上,很多开辟人员曾经起头利用匹敌性数据来检测本人的系统缝隙,从而使他们可以或许正在黑客操纵缝隙之前实现平安升级。其他开辟人员正正在利用机械进修来建立另一种人工智能系统,确保其能更擅长识别和消弭潜正在的数据。

  明显,正在不久的未来,匹敌性数据将继续对人类世界形成挑和。但正在如许一个时代,人工智能能够被用来帮帮我们更好地舆解人类大脑、处理各类世界问题。我们不克不及低估这种数据驱动的紧迫性。处置匹敌性数据并采纳办法匹敌人工智能该当成为科技界的首要使命之一。

  匹敌性数据描述了如许一种环境,人类用户居心向算法供给已损坏的消息,损坏的数据打乱了机械进修过程,从而算法得出虚假的结论或不准确的预测。

  错误识别发生的缘由是,人工智能看到的是一组无法较着的像素,使得它无法准确识别照片。这导致正在识别算法的过程中,系统正在无意中被锻炼成利用模式。

  近年来,人工智能曾经取得了长脚的前进,但正如很多人工智能利用者所表白的那样,人工智能仍然容易呈现一些人类并不会犯的惊人错误。虽然这些错误有时可能是人工智能进行进修时不成避免的后果,但越来越较着的是,一个比我们意想中严沉得多的问题正带来越来越大的风险:匹敌性数据。

  他弥补说,这种方式取保守的消息手艺平安分歧,保守的消息手艺平安更关心于识别已知的特定文件和法式,而不是研究这些文件和法式的行为。

  正在这项研究中,研究人员将人工智能进修过程中的“鲁棒性”和“非鲁棒性”特征进行了分手。鲁棒特征凡是能够被人类到,而非鲁棒特征只能被人工智能检测到。研究人员测验考试用一种算法让人工智能识别猫的图片,成果显示,系统通过察看图像中的实正在模式,却得犯错误的结论。

  让人工智能进修算法也能够被用来驱动特地为帮帮黑客而设想的恶意人工智能法式。正如《恶意人工智能演讲》所指出的,黑客能够操纵人工智能为他们的各项勾当供给便当,从而实现更普遍的收集。

  每日头条、业界资讯、热点资讯、爆料,全天微博播报。各类爆料、黑幕、花边、资讯一扫而光。百万互联网粉丝互动参取,TechWeb微博等候您的关心。

  例如,正在笔者所熟悉的生物医学中,匹敌性数据的可能会导致算法错误地将无害或受污染的样本标识表记标帜为良性且洁净,这就可能导致错误的研究成果或不准确的医疗诊断。

(责任编辑:admin)