广告

有点太像人类...又不够有人性的AI

2020-01-09 13:01:22 David Benjamin 阅读:
因为AI是如此被动吸收被馈入的数据,因此只能反映出存在于人类开发者心中的偏见──无论是有意识或无意识的…

目前使用于脸部辨识的人工智能(AI)算法似乎有着维多利亚时代优生学庸医的科学严谨度与社会敏感性,不过这种评判对于那些从1890年代活跃到1930年代的优生学庸医──他们通常最擅长的就是输卵管结扎(tying tubes)或动脑白质切除术(lobotomies)──大军来说并不公平,因为他们是被根深蒂固的种族主义偏见所驱使。EWPednc

美国国家标准暨技术研究院(The National Institute of Standards and Technology)最近完成了一项大规模调查,发现目前最先进的脸部辨识系统对于辨识非裔美国人与亚洲人脸孔的错误率,是辨识白种人脸孔的10到100倍。一篇《纽约时报》(New York Times)的报导指出:「这种技术在女性脸孔辨识上的困难度也高于男性脸孔;」而且事实证明,该类系统对年长民众特别有敌意,辨识老年人的错误率是辨识中年人的10倍以上。EWPednc

稍早之前美国麻省理工学院(MIT)的一项研究发现,亚马逊(Amazon)开发的脸部辨识软件将较深肤色女性错误辨识为男性的比例是31%,甚至认为美国前第一夫人米歇尔˙欧巴马(Michelle Obama)是男人。(而从那时候起,Amazon还有Apple、Facebook与Google,都拒绝让任何人测试它们的脸部辨识技术。)EWPednc

不同于古时候的优生学者或是颅相学者(phrenologists),脸部辨识算法是没有先入为主观念或偏执的种族主义者;你或者能将它们与德国纳粹时代集中营的守卫相提并论──他们在成为战犯受审时曾提出,他们并非受种族主义驱使,他们只是简单、忠实、无意识地执行命令,他们没有别的选择。EWPednc

因为那些守卫说谎,所以这样的模拟也不对。算法不会说谎,也不会思考,你不能与之对话,它们也没有选择;在这一点上,算法还不如一只狗。我曾与狗狗有过对话──大部份是单向的,但很奇妙地颇具意义──且清楚表达了我的想法;而狗狗也是有意见的,牠们喜欢某些人、不喜欢某些人,牠们对于那些偏好的理由通常很明显。EWPednc

也许有一天算法、机器与机器人能追上一只聪明的狗狗,也会形成自己的观点;但如同科幻小说作家C. Clarke与Philip K. Dick等先知曾暗示过的,这可能并非值得庆幸的突破。你可能记得,在根据Dick的小说《仿生人会梦见电子羊吗?》(Do Androids Dream of Electric Sheep)改编之电影《银翼杀手》(Blade Runner)中,演男主角的哈里逊˙福特(Harrison Ford)试图说服一对固执己见的人造人Roy与Pris应该乐意接受自我毁灭,但它们还是要杀掉他。EWPednc

幸好我们现在的科技还没办法打造出像是科幻小说/电影里那些固执不通的AI;我所想的这些更适合拿来模拟的,或许是1983年的老电影《战争游戏》(War Games)中的WOPR电子大脑Joshua。Joshua拥有能在1分钟左右的时间之内模拟出百万颗氢弹爆炸场景的运算力与速度,但是不受支配,因为有充分的理由与证据指出全球核战的观念是无益的──而且基本上是邪恶的。Joshua是在处理了好几个YB (yottabytes)的数据以及几乎炸毁所有北美防空司令部(NORAD)的保险丝之后,才得出如此纯粹务实的结论。EWPednc

需要的是数据而非说服力

Joshua决定不毁灭世界,是被数据而非说服力所说服。但反过来说,有很多聪明的人类无论提供他多么大量的数据,都很难被说服。今日有些狂热份子仍固执地相信,核子战争能赢得胜利,而数十亿人类的生命都是为了如此甜美胜利可忍受付出的代价。EWPednc

在可见的算法演进中,这种顽固而彻底的人类观点是无法实现的;当它成为可能,是我们并不想要的。而或许实现核子战大屠杀要比脸部辨识大屠杀来得容易?EWPednc

人脸可说千变万化,会随着人生阶段持续改变,比战争的面貌更多样化,没有现存算法能掌握其所有细微差别、表情与多变性,似乎也没有魔法公式很快出现。在此同时,脸部辨识技术只会跟创造它的人类一样客观与精准,这意味着今日的脸部辨识AI会像是3K党那样的种族主义者,也会像新生儿那般无种族偏见,但我们不知道它何时会是前者、何时是后者。EWPednc

因为AI是如此费解的中立、如此被动吸收所有馈入的数据,它不得不反映所有人类开发者内心与思想上的偏见──无论是有意识或无意识的。它会在不知道它如何形成意见的情况下拥有意见,其结果是如此不祥且令人熟悉。EWPednc

纵观人类的历史,偏执者一直在影响──通常是支配──大众的生活,做了太多独裁的决定、毒害整个社会。现在,我们天真地聘请了知名的技术专家来打造无法分不清男生或女生、亚洲大妈或碰撞测试假人、罪犯或圣徒的保全装置。EWPednc

这些「脱窗」机器人的不负责任供货商──包括Amazon、Apple、Facebook还有Google──让它们落入有权搜集个人档案、发出传票、敲开民众家门、拒绝保释、把人们送进监狱,甚至把孩子们踢出国门的机构。EWPednc

有人争论,评估脸部辨识AI的那些研究是有缺陷的,因为样本数太小;但美国国家标准暨技术研究院的研究是大规模的,测试了来自99个开发商者的189种脸部辨识算法,而且该研究发现,就像每一个过去的研究,像是男性在短时间内冒出的胡渣、遮秃发型、肤色以及化妆等等特征,都会让算法混淆。EWPednc

警察与检调人员逐渐意识到,目击者指认是并不可靠的打击犯罪工具,因为充满了仓促、近视、恐惧、偏袒等等人类的缺陷。我们现在则正了解到,希望能以数字化方法纠正这种致命错误而开发的算法,与任何不知所措的目击者一样会有情绪、偏执与恶意──之所以如此,是因为我们忍不住会用自己温顺且难以捉摸的形象来打造机器。EWPednc

 (原文发表于ASPENCORE旗下EDN姐妹媒体EETimes,参考链接: AI: A Little Too Human, But Not Human Enough,编译:Judith Cheng)EWPednc

本文为电子技术设计原创文章,未经授权禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
David Benjamin
EETimes特邀记者。David Benjamin是一位小说家和记者,他大部分时间在巴黎和威斯康星州的麦迪逊度过。他的小说,一部被称为为“黑色喜剧”的《Three's Crowd》刚刚被Event Horizon Press发行。 他以前写的书包括《The Life and Times of the Last Kid Picked》和《SUMO: A Thinking Fan's Guide to Japan's National Sport》。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了