首页 > 技术 > 电力信息化 > 信息技术 > 正文

人工智能有可能取代人类吗?

2017-04-23 11:21:28 来源:网络

即使是对计算机科学家来说,机器学习技术的运作也是晦涩不明的,远不如人工编程易于理解。但这并不意味着未来所有的人工智能技术都是不可知的,只是从本质上来说,深度学习就好比一个看不见内部的黑盒子。

你无法直接探到神经网络内部,观察它是如何运作的。神经网络的推理基于数千个模拟神经元,分布于数十个或数百个复杂的互联层上。第一层的每个神经元负责接收数据输入,比如图片的像素强度,之后这些神经元会对数据进行计算,生成新的信号发送到下一层,逐次类推,直到得到最后的结果。此外,反向传播能够保证该神经网络生成期望结果。

深度网络的多层结构也让其能够从多个抽象层次识别物体。举例来说,在一个设计来识别小狗的系统中,低层神经元负责识别线条或颜色等简单目标,高层神经元负责识别毛发或眼睛等负责目标,而在最顶端的神经元则能认出这是一只狗。粗略地说,这种方法也能用于机器的自我学习,比如识别语言中的发音,文本中的字母、单词或驾驶中转动方向盘的动作。

几年以前,研究人员开始设计一些策略,试图了解这些系统内部都发生了什么。2015年,谷歌研究人员对一套以深度学习为基础的图像识别算法进行了修改,把物体识别功能变成了生成或修改功能。只要反向运行这一算法,他们就能知道这些程序是如何识别小鸟、大楼等物体的。很快,这项代号为Deep Dream的反向研究项目结果出炉,程序根据云朵和植物,绘制了一群荒诞恐怖、形似外星人的动物图片,在森林和山谷之间,还有在幻觉中才会出现的宝塔。

Deep Dream绘制的图片证明,深度学习或许不是完全不可理解的。虽然它们可以识别出鸟嘴、语言等熟悉的视觉特征,但和人类的认知能力相比还是有很大差距的。比如我们都知道忽略图片中的人工制品,但深度学习网络不懂这些。谷歌研究人员指出,当算法准备绘制一幅哑铃图片时,它会自动加上人的手臂,因为系统认为手臂是哑铃的一部分。

Deep Dream绘制的图片证明,深度学习或许不是完全不可理解的。虽然它们可以识别出鸟嘴、语言等熟悉的视觉特征,但和人类的认知能力相比还是有很大差距的。比如我们都知道忽略图片中的人工制品,但深度学习网络不懂这些。谷歌研究人员指出,当算法准备绘制一幅哑铃图片时,它会自动加上人的手臂,因为系统认为手臂是哑铃的一部分。

针对上述问题,科学家已经借用神经科学和认知科学的知识,进行了进一步改良。比方说怀俄明大学助理教授Jeff Clune带领了一支团队,用和上述图片类似的幻觉图像对深度神经网络进行了测试。2015年,Clune团队研究证明,某些图片会欺骗这一系统,让其识别出根本不存在的物体。这是因为这些图片抓住了系统搜索的模式特点。

我们需要的,不是一孔之见,而是对人工智能思维模式的全面探索,但这并不容易。深度神经网络计算的相互作用对高层模式识别和决策至关重要,但这些计算结果背后,是大量的数学函数和变量。“如果你的神经网络规模很小,那你可能还能理解它的运作。”Jaakkola说,“但是一旦规模扩大到上百层,每一层有上千个神经元单位时,你就很难理解了。”

在Jaakkola隔壁办公室的,是麻省理工教授Regina Barzilay,她决心要把机器学习技术运用到医药行业。43岁那年,Barzilay被诊断出乳腺癌,让她大为震惊。然而更让她惊愕的是,最前沿的统计和机器学习法居然没有运用到致癌研究或病患治疗上。Barzilay说,人工智能有巨大的潜力革新医药行业,但想要挖掘出这些潜力,必然得在病历分析的基础上再进一步。Barzilay希望将来能用上更多原始数据,比方说图像数据、病理学数据等等。

去年,在结束癌症治疗后,Barzilay开始带领学生,和马萨诸塞综合医院的医生共同研发一套系统,用于分析病理学报告,找出研究人员想要研究的特殊的临床特征。但是,Barzilay知道,这套系统是没法解释自己的推理过程的。于是,她和Kaakkola以及一名学生一起,给系统增加了一个步骤:选取、标注文本中代表某种病理模式的段落。与此同时,Barzilay还在和学生编写深度学习算法,试图在乳房X光照片中找到乳腺癌的早期症状,并呈现出分析结果背后的原因。

正如人类行为不能完全得到解释一样,人工智能或许也不知道自己为什么做这个决定。Clune说:“即使某个人言辞凿凿地告诉你他某个行为背后的原因,这个原因很可能也是片面的,人工智能同样适用这个道理。它可能有自己的直觉、潜意识,或者就是神神秘秘的。”

如果真的是这样,那么到将来某个时期,我们可能只能选择相信人工智能的判断,要么就彻底不用它。同样,人工智能的判断还要结合社会智能。人类社会建立在预期行为契约之上,我们需要人工智能系统尊重社会规范,融入社会规范。如果我们打算制造机器人坦克和其他杀人机器,那么它们的决策过程必须符合道德判断的标准。

对此,塔夫茨大学著名哲学家和认知科学家Daniel Denneyy说:“问题是,我们应当采纳什么样的标准来要求人工智能系统?或者说我们自己?如果人工智能系统在解释自身行为上不如人类,那就不要信任它们了。”

朋友圈热传垃圾分类列表 官方发声:错的!权威指南在这里朋友圈热传垃圾分类列表 官方发声:错的!

近期,一张包含103种垃圾的垃圾分类列表在网上热传,在湿垃圾干垃圾有害垃圾和可回收物这4个分类下,每一类都列出了20多种垃圾。因为内容详[详细]