您当前的位置是:  首页 > 新闻 > 文章精选 >
 首页 > 新闻 > 文章精选 >

数千款隐含性别歧视的AI机器人将诞生,如何阻止它们

2018-05-18 11:27:38   作者:   来源:财富中文网   评论:0  点击:


  近来,我无意中听到自己两岁的女儿与亚马逊(Amazon)的语音助手Alexa对话。期间有两件事震惊了我:第一,女儿无法分辨机械音与人声的区别;第二,无论从哪种社会习俗的角度来看,她给Alexa发布指令的方式都很无礼。
  我突然意识到,Alexa给我女儿树立了一个糟糕的榜样——女性应该卑顺、忍受无礼的行为并待在家里,这让我感到十分困扰。
  四大家居人工智能(AI)助手——Alexa、苹果(Apple)的Siri、谷歌(Google)的Google Assistant和微软(Microsoft)的Cortana——默认使用的全都是女声。在最近一次抵制之前,它们设定的温柔顺从的人格也存在着过分的性别歧视。我女儿的经历引发了我对这种微妙的AI性别歧视的关注,我担心情况会很快变得更糟。
  全球最大的那些技术平台今年推出的新服务,将很快与消费者之间进行交流并形成标准。为了高效率地处理数百万条信息,这些公司必须推出自己的AI助手。因此,助手机器人的类型很快就会增加到几千种,并在网页、应用和社交网络上与数十亿用户进行交流。
  随着这种“交流型AI”的用途迅速增加,它隐含的性别歧视会在我们、包括我们孩子的世界中迅速发酵。微妙的暗示通过不断重复,会产生累加的效果,随着时间的推移,形成一种病态的心理状况。如今,它正在悄悄影响我们,因为我们使用助手机器人的时间还相对较短,可能每天只有几分钟。不过,随着它们开始完全取代网页和应用,AI很快就会变得普遍许多。
  如果我们不做出改变,编写现有的性别歧视算法和脚本的这批人将会创造出下一代对话型AI,而它们的规模则会以指数形式增长。随着对话型AI在全球推广,那些让AI系统把女性定位为厨娘和秘书,把男性定位为高管的工程师,将会把他们的偏见成倍放大。
  一切的问题在于男性。如今的AI主要由白人男性工程师开发,他们工作过于匆忙,无暇拷问自己的大男子主义或思考自己的工作可能带来什么危害。我从1995年起担任科技公司的首席执行官,过去这20多年来,在网页、搜索和社交革命中,这样的情况我曾有所目睹。AI革命才起步不久,但全球却有一半的人口已经遭到了边缘化。这真是我们的耻辱。
  或者我应该说,这又一次成为了我们的耻辱。科技界不断发生着连环犯罪。收入排行前20的美国科技公司中,有18家的首席执行官都是男性。Facebook、谷歌和微软的工程师中只有五分之一是女性。而在AI领域,2017年业内专家的重要年度会议——会议神经信息处理系统大会(Neural Information Processing Systems,NIPS)上,83%的出席者是男性,同年NIPS论文的作者中则有90%是男性。(由于AI领域相对较新,我们还无法获取有关性别多样性的更宏观的数据。)
  如果女性无法参与,我们怎么能够开发出持久且影响深远的AI技术?我们尚处于起步阶段,但迹象却已经令人担忧。放任下去,恐怕会产生灾难性的后果。
  为了避免对话型AI引发的灾难,我们公司正在积极采取措施,纠正技术人员的男性偏见,其中一种重要的方式就是在开发助手机器人时与核心员工和编码人员保持密切联系。根据美国劳工部(LaborDepartment)的数据,美国客户服务代表中有65%是女性,这个团队的多样性要优于撰写代码的程序员,女性占比也远高于大型科技公司中女性程序员的平均水平。
  研究AI的公司应该努力平衡员工的性别,与女性领袖合作,减少男性的偏见,并主持由女性领头的科研计划。我们需要在研发助手机器人上提出一套最好的方案,并在整个行业内推广。
  AI具有巨大的潜力,然而取得真正进步所需的洞察力和包容性,我们尚未具备,无法让该领域自己承担责任。要抵御隐含偏见的重复和增强,最好的方法就是保持团队性别的多样性。做不到这一点,AI很快就会孕育出科技界的下一个危机。
  作者罗伯特·洛卡西奥是Live Person的创始人和首席执行官。
  译者:严匡正
【免责声明】本文仅代表作者本人观点,与CTI论坛无关。CTI论坛对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。

专题