米兰·(milan)中国官方网站-IEEE Spectrum调查:AI 的 6 种最坏情况

编译丨辛西娅
审核丨维克多对于在人类社会,人工智能(AI)带来的最年夜威逼是甚么?好莱坞科幻影戏的“想象”提供了谜底:它逐渐进化,得到人类思索能力,然后酿成霸主,奴役或者扑灭人类。也有些不雅点认为:于AI不知不觉杀死所有人以前,会存于很多伤害景象。2022年1月份,IEEE Spectrum访谈了多位技能专家,枚举出了当前6种AI伤害事例,这些伤害比科幻影戏的描写“海不扬波”,却一样具备威逼性,假如放任自由会成心想不到的后果。它们别离是:虚拟界说实际、AI武备竞赛、隐私透明、斯金纳箱征象、AI成见以和过分担心AI影响。
1当虚拟界说实际……当人类没法区别数字世界中的真实与虚伪时,会发生甚么?
假想如许一个场景:AI已经经拥有完善天生的能力,使用进步前辈的呆板进修东西天生的图象、视频、音频及文本已经经“以假乱真”。但若决议计划者堕入假信息漩涡,并做出定夺,不成防止会致使危机。当上升到国度高度,甚至会策动战役。乔治敦年夜学的研究员安德鲁•罗恩(Andrew Lohn)认为:AI已经经可以或许孕育发生年夜量以假乱真的信息。并且AI的特色是“跟着年夜量信息的天生,体系会不停与真实信息举行对于比,而且进级天生能力”。
AI信息天生技能也被称为“DeepFake”,其带来的开玩笑已经经造成为了某些影响。例如去年5月份,一些欧洲高级议员收到了一些“俄罗斯否决派人物”的视频集会约请,还有煞有其事地会商了克里米亚问题之类的政治事件,成果发明于这些所谓的“俄罗斯否决派人物”都是他人用Deepfake换脸假冒的。这些被骗者包括拉脱维亚议会交际事件委员会主席Rihards Kols,以和来自爱沙尼亚及立陶宛的议员……
2一场伤害的逐底竞赛当谈到AI及国度安全时,开发速率既是重点也是问题地点。因为AI体系能为用户带来速率上风,以是开始开发军事运用的国度将得到战略上风。可是,一味寻求速率可能会捐躯哪些设计原则呢?
起首,是“质量”问题。例如黑客会使用体系中微小的缺陷。乔治敦年夜学的海伦·托纳(Helen Toner)注解:“从一个无伤风雅单点妨碍最先,然后所有通讯掉灵,人们发急,经济勾当堕入阻滞;随后连续的信息缺少,再加之其他过错计较,可能致使场面地步掉控。”
另外一方面,瑞典的斯德哥尔摩国际及平研究所高级研究员文森特•布拉南正告可能发生庞大灾害:“年夜国为了博得先发制人的上风而‘偷工减料’,假如一个国度将开发速率置在安全、测试某人为监视之上,那末这将是一场伤害的竞逐。”例如,为了得到速率上风,国度安全带领人可能会偏向在授权批示及节制决议计划,取缔黑盒呆板进修模子的报酬监视。想象一下,假如主动发射导弹防备体系处在无人监视的情况下会发生甚么?
3隐私及自由意志的闭幕利用数字技能的历程中孕育发生了年夜量的电子数据,例如发送电子邮件,浏览文本,下载,采办,发帖等等。当答应公司及当局拜候这些数据时,也象征着付与东西监督及节制咱们的权限。
跟着脸部辨认、生物辨认、基因组数据阐发等技能鼓起。安德鲁•罗恩担忧:“咱们有时辰并无意想到年夜数据跟踪及监督技能的不停成长,会使咱们进入了未知的伤害范畴。”数据一旦被网络及阐发,其作用就会远远凌驾跟踪及监督的功效,例如AI的猜测性节制功效。今天,AI体系可以猜测咱们将采办哪些产物,咱们将不雅看哪些文娱节目,以和咱们将点击哪些链接。当这些平台比咱们本身更相识咱们时,咱们可能不会留意到这类微小的变化,但它褫夺了咱们的自由意志并使咱们遭到外部气力的节制。

曾经经于20世纪70年月,有位叫做Walter Mischel的研究专家,于美国斯坦福年夜学从属幼儿园基地内举行了闻名的“棉花糖”试验,又称——“延迟满意”试验。
而这个试验的不雅察数据,以和后期对于这些孩子的追踪不雅察申明:
那些延迟满意能力强的孩子,自我节制能力也就越强,可以于没有外界监视的环境下,自立性的节制调治自身举动,于某一个使命完成水平上,要更胜一筹。
当前,具有延迟满意能力孩子也会屈就在AI算法给出的诱惑。
进一步,社交媒体用户已经经成为试验室中的老鼠,糊口于斯金纳盒子里。这些用户着迷在手机,被迫捐躯更多名贵的时间及留意力于数字平台上。
海伦·托纳认为:“算法颠末优化,可以使用户尽可能永劫间地‘留’于平台上。”闻名作家马尔科姆·默多克注释道:“经由过程以喜欢,评论及存眷的情势提供奖励,算法会缩短咱们年夜脑的事情方式,让咱们不自发地去介入下一个。”
为了最年夜化告白利润,公司把咱们的留意力从事情、家人、伴侣,责任甚至喜好上转移。更糟糕糕的是,假如推送内容质量降落,用户会疾苦及急躁。海伦·托纳正告:“咱们于平台上破费的时间越多,花于寻求踊跃、高效及充分糊口上的时间就越少。”
5人工智能设计的“虐政”把更多的一样平常糊口交给人工智能呆板是有问题的。纵然出在最佳的用意,AI体系的设计,包括练习数据及数学模子,也反应了编程职员的“局促”经验及兴致。
当前,很多AI体系没有思量到差别人的差别履历及特性,AI模子的练习往往基在有成见的不雅点及数据,没法足够思量每一个人的怪异需求来解决问题,是以此类体系于人类社会中缺少一致性。甚至于AI年夜范围运用以前,对于一样平常糊口中常见物品的设计往往也是迎合了特定类型的人。例如,研究注解,汽车、包括手机于内的手持东西,甚至办公室情况中的温度设置都是为合适中等身段的男性而设置的,这使患上包括女性于内的各类身段及体型的人处在劣势,有时甚至会对于他们糊口造成风险。
当不属在有成见规范的小我私家被轻忽、边沿化及排斥时,AI就会酿成卡夫卡式的守门人:拒绝提供客户办事、事情、医疗等办事,这些设计决议计划的目的约束人们,而不是将他们从一样平常事件中解放出来。此外,这些选择还有可以将一些最卑劣的成见转化为种族主义及性别歧视,造成严峻缺陷及有成见的讯断成果。
6对于人工智能的惧怕褫夺了人类的好处构建呆板智能的历程终极以数学为中央,正如默多克所言:“假如咱们不留意的话,线性代数会做很是疯狂而强盛的工作。”可是,假如人们变患上极端畏惧AI,而且督促当局经由过程褫夺“AI便当”方式对于其举行羁系,那会如何呢?
究竟AI已经经帮忙人类实现了庞大科学进展,例如DeepMind的AlphaFold模子经由过程氨基酸序列切确猜测卵白质折叠布局方面取患了庞大冲破,使科学家可以或许辨认98.5%的人类卵白质的布局,这一里程碑将为生命科学的快速成长提供坚实的基础。思量到这些AI利益,当局为提防“AI作歹”而采纳的下意识羁系步履也可能拔苗助长,并孕育发生它们本身意想不到的负面后果,于这些后果中,咱们对于这项巨年夜技能的威力感应云云惧怕,以至在咱们拒绝使用它为全球带来现实利益。
参考链接
Via https://spectrum.ieee.org/ai-worst-case-scenarios
雷峰网(公家号:雷峰网)雷峰网版权文章,未经授权禁止转载。详情见转载须知。





