快讯

次浏览 2018-07-09
2018年普遍被认为是公链元年,从年初至今已经有数不清的创业项目涌入这一赛道。7月4日李笑来的录音被爆出,尽管...
[详情]
次浏览 2018-07-09
7月8日加密货币普遍上涨 比特币挺近7000美元...
[详情]
次浏览 2018-07-09
近日,麻省理工学院媒体实验室出品了一个“暗黑版AI”,再次将人工智能的黑箱隐忧这个经久不衰的话题送上热门。...
[详情]
次浏览 2018-07-09
目前,研究人员已开始第二阶段临床疗效试验,以确定该疫苗是否能够预防人类艾滋病毒感染。根据临床1/2a期试验的...
[详情]
次浏览 2018-07-09
提升投资知识和风险意识 拒绝成为“韭菜“,p2p平台 网贷 e租宝...
[详情]
次浏览 2018-07-09
许小年:未来五年在中国最赚钱的不是股市、房地产,而是…-股票频道-和讯网...
[详情]
次浏览 2018-07-09
近日美国媒体报道称,深陷滥用个人隐私数据丑闻的英国“剑桥分析”公司原本计划推出个人隐私数据存储服务,并通过区块链技术以加密货币的形式出售。个人信息加密货币化的概...
[详情]
次浏览 2018-07-09
区块链信息已经逐渐成为了人们争相恐后去了解和尝试的区域和新知识、新经济模式。达人们为了成为经济话题的掌...
[详情]
次浏览 2018-07-09
7月5日,百度云区块链解决方案首次公开亮相百度AI开发者大会,同时,百度云还宣布与百度区块链实验室达成合作。...
[详情]
次浏览 2018-07-09
CEEK是一家主要致力于构建AR/VR耳机的公司,该耳机最近在2018年的ICO中筹集了22K ETH,以探索音乐家的标记化组件,以创建围绕其音乐的虚拟世界。 CEEK在亚马逊,Target和百思买上销售了...
[详情]

热点专题

区块链网络更有实际落地的场景

区块链网络更有实际落地的场景

2018年普遍被认为是公链元年,从年初至今已经有数不清的创业项目涌入这一赛道。7月4日李笑来的录音被爆出,尽管...... 更多>>

区块链应用研发7月8日加密货币普遍上涨 比特币挺近7000美元

区块链应用研发7月8日加密货币普遍上涨 比特币

7月8日加密货币普遍上涨 比特币挺近7000美元...... 更多>>

区块链ipfs有时人类可能束手无策

区块链ipfs有时人类可能束手无策

近日,麻省理工学院媒体实验室出品了一个“暗黑版AI”,再次将人工智能的黑箱隐忧这个经久不衰的话题送上热门。...... 更多>>

学习做区块链属于“马赛克”疫苗

学习做区块链属于“马赛克”疫苗

目前,研究人员已开始第二阶段临床疗效试验,以确定该疫苗是否能够预防人类艾滋病毒感染。根据临床1/2a期试验的...... 更多>>

区块链ipfs有时人类可能束手无策

币无名浏览()2018-07-09 11:21

区块链ipfs有时人类可能束手无策

  智能穿戴设备吸引观众。汤彦俊 摄

  近日,麻省理工学院媒体实验室出品了一个“暗黑版AI”,再次将人工智能的黑箱隐忧这个经久不衰的话题送上热门。据报道,实验室的三人团队联手创造了一个叫诺曼(Norman)的人工智能,与希区柯克经典电影《惊魂记》中的变态旅馆老板诺曼·贝兹同名。

  名如其人。诺曼会以负面想法来理解它看到的图片。例如,一张在一般AI看来只是“树枝上的一群鸟”的普通图片,在诺曼眼中却是“一名男子触电致死”。

  团队希望通过诺曼的表现提醒世人:用来教导或训练机器学习算法的数据,会对AI的行为造成显著影响。AI会成为什么样,有时人类可能束手无策。

  TA们的偏见就是人类的偏见

  诺曼们从哪来?答案首先藏在数据里。

  “人工智能识别出的结果不是凭空而来,是大量训练的结果。如果要训练AI某一方面的能力,比如下棋,就需要收集、清洗、标记大量数据供机器学习。如果用于训练的数据不够多,就会造成AI学习的不充分,导致其识别结果的失误。”中科院自动化研究所研究员王金桥对科技日报记者表示。数据本身的分布特性,如偏差甚至偏见,也会被机器“有样学样”。针对诺曼的表现,创造它的实验室也指出,“当人们谈论人工智能算法存在偏差和不公平时,罪魁祸首往往不是算法本身,而是带有偏差、偏见的数据。因为当前的深度学习方法依赖大量的训练样本,网络识别的特性是由样本本身的特性所决定。尽管在训练模型时使用同样的方法,但使用了错误或正确的数据集,就会在图像中看到非常不一样的东西”。

  另外是算法本身的影响。“这可能是无法完全避免的,由深度学习算法本身的缺陷决定,它存在内在对抗性。”王金桥表示,目前最流行的神经网络不同于人脑的生物计算,模型由数据驱动,和人类的认知不具有一致性。基于深度学习的框架,必须通过当前训练数据拟合到目标函数。在这个框架之下,如果机器要识别狗,它会通过狗的眼睛、鼻子、耳朵等局部特征进行可视化识别,而这些可视化特征却能给想利用深度学习漏洞的人机会,后者可以通过伪造数据来欺骗机器。

  除了人训练机器的数据本身有偏差以外,机器通过对抗性神经网络合成的数据也可能有问题。由于机器不可能“见过”所有东西(比如识别桌子,机器不可能学习所有长短宽窄各异的桌子),人也不可能标记所有数据。如果研究者输入一个随机的噪音,机器可以向任何方向学习。这是一把双刃剑,机器也可能合成一些有问题的数据,学习时间长了,机器就“跑偏”了。

  数据的均衡或可减少“跑偏”

  不少科学家以“garbage in, garbage out”来形容“数据和人工智能的关系”。中科视拓(北京)科技有限公司CEO刘昕说:“对机器学习而言,进什么就出什么。监督学习就是让模型拟合标签,比如训练者把帅哥都标记成‘渣男’,那么机器看到刘德华,就会认为他是……”谈到诺曼引发的讨论,刘昕表示:“不需要担心,人类本身就有各种歧视和偏见,用人类生产的数据训练AI,再批判AI不够正直良善,这么说有点危言耸听。”

  偏见、刻板印象、歧视都是人类社会的痼疾,有些流于表面,有些深入社会肌理,无法轻易剥离。在这样的语境中产生的数据,携带着大量复杂、难以界定、泥沙俱下的观点。如果研究者没有意识到或着手处理这一问题,机器学习的偏见几乎无解。真正的“公正算法”或许是不存在的。

  据有关媒体报道,在谷歌研究自然语言处理的科学家 Daphne Luong 表示,正确地校准标签对机器学习来说非常关键,有些数据集其实并不平衡,像维基百科上的数据,“他”(He)出现的次数远比“她”(She)要多。

  王金桥也着重强调了“数据的均衡”。就算对人来说,不同人秉持着不同的价值观,但多听多看多受教育可以让人向良好的方向改进。机器学习也是如此。“训练机器时,要注重数据的均衡,给它更多可靠的数据。研究团队成员具有多元的学术背景(如吸纳更多社会学、心理学等领域学者加入)、性别、年龄、价值观,也可以帮助机器学习更加均衡,减少机器出现偏见、谬误甚至失控的可能。”王金桥说。

  “机器学习的模型本身也要有一定的防攻击能力,从技术上防止本身结构设计的漏洞被攻击,研究者可以使用各种数据攻击机器,训练机器的反攻击能力。”王金桥说。

  作恶还是向善,是人类的选择