澳门新葡亰76500我们会向美国政府和军队提供我们

来源:http://www.zhlcard.com 作者:每日资讯 人气:85 发布时间:2019-11-27
摘要:“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!” 作者:梁东星              班级:1402019              学号:14020199040 人工智能时代,我们已初尝了AI的甜头,一

“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”

作者:梁东星              班级:1402019              学号:14020199040

人工智能时代,我们已初尝了AI的甜头,一切都是那么激动人心。但Facebook数据泄露事件以及现在层出不穷的人工智能歧视案例都说明,技术并不是一股中性的力量。AI对社会的影响越来越大,在司法、教育、招聘和医疗等重要领域做出正确、合理、公平的决策,是否有适当的防护措施来确保未来可靠的使用显得越发重要。

2016年3月23日,一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

【嵌牛导读】:人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让人工智能真正有益于人类社会,我们也不能忽视人工智能背后的伦理问题。现在的人工智能界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来跨学科的人工智能伦理测试需要加强研究。

澳门新葡亰76500 1

澳门新葡亰76500 2微软聊天机器人的极端言论。图片来源:推特

【嵌牛鼻子】:人工智能  伦理问题

避免机器引发的战争

这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,配上病毒式的meme,在 Facebook 上获取了相当大的传播量。这有赖于人工智能协助下的“精准铆定”。谁最容易相信阴谋论?谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,让这些机器判定为“类似”的人在极端言论的包围中渐渐被潜移默化。

【嵌牛提问】:人工智能的持续发展进步是否会给社会带来很多伦理问题?我们应该怎样来应对?

事实证明,人工智能的工程责任是一个棘手的问题。微软公司最近就其为美国政府工作的问题进行了处理。

因为设计缺陷而 “暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。

【嵌牛正文】:

近期,微软公司的一些员工请求公司高管终止另一份向军方提供增强现实技术的合同。微软首席执行官Satya Nadella拒绝了这一请求。“我们会向美国政府和军队提供我们的技术。”微软公司人工智能与研究小组执行副总裁Harry Shum在会议的问答环节中强调微软公司的立场时表示。

是智能在 “作恶”吗?

人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安:拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”,且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。

这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。14 年前,威尔·史密斯主演的电影《机械公敌》(I, Robot)里就有这样一个场景:2035 年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。

看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。然而将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。

南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。

而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?

近 10 年,人工智能领域迎来了爆发,这要得益于 “机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。

而最新趋势下进行“深度学习”的人工智能,则可以通过模拟多层级的神经网络,拥有感知、交流、决策和预测等能力。击败人类的围棋“Alpha Go”便是一例。当下最热门的自动驾驶,也堪称人工智能以独立姿态走入人类社会的“先驱”。更基本的是,人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。

今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”?机器是否也继承了我们既有的偏见、无常和贪婪? 

**人工智能时代加速到来,算法决策兴起
**

美国五角大楼采用人工智能产品

人工智能的“偏见”:过往数据的问题

人工智能在判断上失误的一个指责,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼(Latanya Sweeny)发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。

而这种危险并不仅仅是 “另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。

对每个毕业季都会收到数以万计简历的大公司人力部门而言,用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了 HR 的眼皮底下。筛简历的 AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR 就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR 或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。

最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。美国 IT 作家、数学家凯西·奥尼尔(Cathy O’Neil)曾经调查到,人力资源解决方案公司 Kronos 提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐(Xerox)在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。

金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest 开发了一个人工智能信用评估平台 ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。百度作为搜索引擎合作商,向他们提供了大量可以用于分析用户信用倾向的数据,比如搜索历史、页面访问记录、访问习惯等等,用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。

歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了 bug?机器所计算出的结果,能为歧视、不公、残酷提供理由吗?这些都是值得商榷的问题。

我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。《MIT 商业评论》的分析者认为,类似于 ZAML 的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。

机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣,此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。

第三次AI(人工智能,以下简称AI)浪潮已经开启。在技术层面,有算法的进步。当1956年人工智能开始起步的时候,人们更多是在说人工智能;在第二次浪潮期间,机器学习成为主流;这一次则是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,AI应用在不断加深、不断成熟,甚至已经开始超越人类,引发人们关于失业的担忧。同时也让人们开始期待具有通用智能的终极算法。在商业层面,面对可预期的好处和利益,国内外主流的互联网公司如腾讯、谷歌等都开始向AI看齐,AI领域的创业和投资在如火如荼地进行着。全球已经有超过1000家AI公司,市场规模增长空间是非常大的,未来八年内将超过350亿美元。

去年有消息称,谷歌公司正在向美国五角大楼提供其人工智能技术,用于分析无人飞机的录像资料,谷歌公司由于员工的压力做出了回应,表示不再续签军事合同。

人工智能的“黑箱”:无法理解的智能带来的危险

放眼望去,技术乐观派对于“机器/深度学习”的热情十分高涨,亚马逊就是其中之一:除了能够跟人“尬聊”的智能助手 Alexa,机器学习和深度学习的算法也被其用于“提高用户的购物体验”(比如最新投入应用的 Amazon Go)。与此同时,当这些人们摸不准的变量能够轻易决定一个人基础福利、工作晋升、人身保险的时候,相应的监管和约束却对此毫无办法——人工智能造成的歧视和不公,很大程度上是对监管、异议、上诉等“免疫”的,因为它非常不透明。

澳门新葡亰76500,这是人工智能在现在面临的重要挑战之一。“我们不了解一个人工智能的模型是如何做出决策的,很多时候情况和我们预想的不一样。”在谈到智能的“不透明”时,俞扬如是说。

目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为“当代炼金术”:输入各类数据训练 AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥(Yoshua Bengio)将其称为“人工直觉”(artificial intuition)。

我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?

 “我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。

俞扬所在的实验室做的研究之一,便是把模型放在开放环境中,让其学会“感知”未知的状况,并自动阻止机器做决策。“机器需要给自己‘划线’。”俞扬说。

但在实际操作中,要让人工智能的制造者给自己的智能“划线”,则要面临更重大的问题——资本。

在此背景下,各种互联网服务中越来越多地看到人工智能的影子,人们日益生活在算法之下,算法决策开始介入甚至主导越来越多的人类社会事务。比如,人们在互联网上获取的内容,诸如新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户的,而不是有人在背后决策。再比如,在金融领域,算法可以决定是否给某个用户发放贷款,以及具体的贷款额度。此外,一家美国投资公司早在几年前就开始研发管理公司的AI系统,招聘、投资、重大决策等公司事务都由这个AI系统来管理并决策。也许在未来,一家公司的成功不再主要依赖于拥有像乔布斯那样伟大的CEO,而是一个足够智能足够强大的AI系统。更有甚者,英国、欧盟等都在大力推动人工智能技术在政务和民生方面的更深应用,政府服务不仅是数字化,而且是智能化。

去年12月,谷歌公司发布了一个正式审查结构的细节,以围绕其认为“适当”使用人工智能方式做出决策。其项目负责人表示, “我们认为建立严格的内部审查很重要。”他引用了推出唇读技术但没有发布面部识别工具的决定,以此来说明该公司在人工智能辩论中的立场。他说,“这是我们每天进行各种讨论的一个例子。”

本文由澳门新葡亰76500发布于每日资讯,转载请注明出处:澳门新葡亰76500我们会向美国政府和军队提供我们

关键词:

最火资讯