1. 首页 > 人工智能应用 >

人工智能的现状究竟如何?

  全文3925字,预计学习时间8分钟。

  HackerNoonCEODavidSmooke将人工智能定义为科学技术领域,并预测未来将有很大的发展。他指出,人工智能的发展似乎是用来研究如何进一步减轻一些基本任务的负担,比如会议安排和协调。

  那么,人工智能的现状如何?

  人工智能的性能取决于它的训练集。最好的人工智能可能有最多的数据点用于比较和计算。席娜和巴甫洛夫的行为主义对人类学习的本质做出了类似的假设。

  也就是说,人类是基于数据集进行训练的,而大脑的内部运行机制略有不同。人们可以简单地把奖惩作为输出(或行为)条件,最终以这种方式实现目标行为。

  问题是,虽然心理学在很大程度上对人类学习做了深刻的研究,但是机器学习却没有。这个问题在人机交互的模拟中可能会越来越突出,在人工智能工程师试图模拟人类思维的过程中经常会出现。

  重要的是,人类似乎能够解释和理解他们生活的环境。相比之下,电脑只是一台从事匹配工作的机器。哲学家约翰·塞尔在很久以前通过他的中国空间思想实验指出了这种差异。在这个实验中,他把自己关在一个封闭的房间里。

  他既不会说中文,也不懂中文。但是这个房间里有一本很大的手册,里面有一系列假设的说法。通过门上的一个槽,他可以接收汉字,在手册里找到字符串,找到要通过槽发送的字符串。显然,塞尔可能会让房间外的人相信他真的懂中文,但实际上他不懂,他只是在匹配符号。所以他的能力受到中文手册内容的限制。

  一些人工智能的创始人可能会声称,创造人工智能的意义实际上只是人类巨大的记忆力和快速匹配能力的一个虚幻的副产品。这和行为主义者说的是一样的——大脑是一个黑匣子,学习可以自动完成,不需要机器中某种神秘的力量。

  作者并不认为思维一定要用神秘的方式去探索,而是指出这种还原论是对行为主义者的误导,因此可能成为人工智能发展的绊脚石。

  在讨论类似机器学习的人类学习模型的一些毁灭性实验之前,我们先回顾一些非常基本的概念:计算机“智能”是由一组二进制开关组成的。

  所以,一切都是独立的,与其他无关。比如“好”就是好,它没有任何语境意义;它存在于无意义的真空中(就像塞尔的汉字搜索)。因此,机器学习过程不能自动捕捉对象之间的关系。

  这是自然语言处理的难点之一。在自然语言处理中,单词的上下文一起构成了彼此的意思(见下图中的例子)。电脑没有这个能力。因此,程序员必须手动为机器编写代码,然后“自动”学习这些关系。

  人类的理性是不一样的。人类的理性不是二元的。因此,事物不是没有语境的独立单位,而是超越自身,存在于与其他事物的关系网络中。比如“好”也可以表示“不坏”。

  对于人类来说,这种对立赋予了他们与生俱来的区分不同类型人物的能力,比如“好坏”、“好鞋”。但是对于计算机来说,这些对立必须有目的的去研究,所以从概念上来说,“坏”与“好”的关系并不比“好”与“鞋”的关系更密切。

  乍一看好像没那么重要,但是试想一下如果一个人觉得好和坏和鞋子差不多?也就是说他不知道“好”是什么意思,也不知道“鞋”是什么意思。

  我非常尊敬的心理学家约瑟夫·施莱克在《人工智能与人类理性》中讨论了计算机与人类理性的这种区别。在书中,他回顾了对人类学习的行为主义模型的破坏性研究。作者在这里将对老人的评论做一个总结。感兴趣的人可以在他的“作为预测过程的学习”一章中找到完整的内容。

  1955年,心理学家JoelGreenspoon测试了后效强化能力,以研究人的一些特定行为。具体来说,格林斯平要求参与者说出任何突然出现在脑海中的单词,一次一个。

  在10分钟内,参与者列出没有任何语言增强的单词作为实验控制。之后,参与者继续列出单词。每当参与者说动名词时,格林斯平都会提供语言强化(比如说一些语气词)。75名参与者中有10人掌握了研究内容,因此他们被排除在分析之外。

  在剩下的65人中,格林斯平声称发现了自动的、无意识的行为,这些行为可以适应语言强化(即人们开始列举更多动名词,表现出无意识的“学习”)。

  这种类型的研究应该会让人工智能开发者兴奋不已,因为他们希望机器学习的原理和人类学习的原理本质上是一样的。参与者假设没有必要学习内在的精神世界,他们似乎是通过纯粹的联想来学习的。如果这是真的,那么机器学习的主要问题就变成了训练数据量。但是后续的研究远比这个复杂。

  1961年,杜拉尼重新考察了这些实验参与者的知识水平。他发现,虽然许多参与者不能正确地说这项研究是关于学习复数名词,但许多参与者提出了“相关假设”,使他们在不掌握正确方法的情况下说出“正确”的单词,如“长颈鹿”。再举一个例子,参与者可能假设他们在研究动物,所以他们列出了一些动物,“长颈鹿、河马、鹦鹉、狮子”。

  实验者在听到这些词时,会说出一些语气词,并标记出被试不知不觉中就知道了(不能准确识别出本次研究的内容是复数名词)。但这些相关假设清楚地表明,参与者有意识的假设引导着他们的反应,他们的思维过程导致了假设性的“认知”。

  其他类似的研究,如佩奇在1969年和1972年进行的研究,强调参与者之间的合作是这种研究的另一个重要因素。佩奇发现,一些参与者的行为实际上是相反的。

  当佩奇进行格林斯平的实验(他用“好”代替语气词)时,他发现一些参与者在研究的第二阶段(应用强化的阶段)不太可能说复数名词(低于他们自己的基本比率)。比如第一阶段,没有强化的参与者有20%的机会列出动名词,而强化后只有2%的机会列出动名词。

  随着研究的深入,Page更加直接。一旦参与者意识到这些规则并更加合作,佩奇就开始建议不太合作的人可以说“让我说‘好’”,而更合作的人可以要求参与者说“让我不说‘好’”。这些参与者很快改变了他们说话的方向,让佩奇开始说“好”或不说“好”。

  如果合作不佳的参与者仍然表现不佳,这意味着参与者试图避免他们认为是研究人员的不道德行为(他们认为研究人员试图以某种假设的方式影响数据,不想参与操纵结果)。

  显然,这些研究以及类似的后续研究让人工智能爱好者感到困惑。在人类世界中,似乎正在发生着某种预测过程——人们对世界做出假设,以了解世界,指导行为。

  此外,这些假设还与其他可能性有关,即机器不具备思维的灵活性。佩奇只需要说“让我不说‘好’”,就可以彻底扭转参与者的行为。对于人工智能来说,这样一个简单的语句需要一个新的训练过程,但不能马上重新理解过去的数据来推导算法推理。这是由于上面提到的人类理解的对立。

  机器在本质上并不理解“让我说‘好’”和“让我不说‘好’”之间有一种特殊的对立,但人类没有。这种情况影响很大,一些合作不佳的参与者甚至公开表示蔑视,因为他们的对立性使得他们的道德权威大于实验者。我不禁想起了iRobot的Sonny。这个机器人比其他机器人聪明得多,因为他可以像人类一样理解对立面。

  有证据表明,人类的记忆与机器记忆有很大的不同。除了硬件故障,机器会存储没有上下文的信息。但是,人的记忆取决于是否能放在有意义的环境中。例如,Craik和torben发现,当人们被问及“_______是鱼吗?”有时候,他们更容易记住,填空是“鲨鱼”而不是“天堂”。

  同样,人对相似性分类的东西比没有这种分类的东西更容易记忆。但是对于计算机来说,事物是独立的,不需要上下文。机器制造的记忆和检索记忆与概念语境或现实语境无关,但人类并非如此。

  前面说过,意义创造是人与机器区别的核心。这使得人工智能很难识别偏好和判断。人自然会审视自己的语境,赋予周围环境以意义;在一种语境下,“锤子”是承包商的工具,在另一种语境下,“锤子”是武器,在另一种语境下,“锤子”是镇纸。

  如果你听到“西雅图在地图上不与洛杉矶相邻”这句话,听者可能会思考这句话的真实性。说这话的人可能会以一种奇怪的方式折叠地图,把西雅图和洛杉矶挨着,然后沉浸在一个狡猾而自豪的微笑中。意义创造是语境和对立的结合;意义创造是人类理性的重要组成部分,但机器没有,至少现在还没有。

  这并不是说人工智能注定要失败,也不能忽视已经取得的不可思议的飞跃。作者不否认机器学习可以很好地模仿任何人类的任务,任何有限自动机都可以做到这一点。

  但是要让人工智能有说服力,需要大量的极端情况,修改,再训练,大量的计算。我们目前知道,人工智能不是很灵活,除非计算机从盲目匹配对象变成创造意义,否则无法灵活。可以得出结论,在可预见的未来,人工智能最适合于概念灵活性小、不受环境影响、不涉及人类偏好的任务(例如辅助耕作、驾驶飞机等任务)。人工智能工程师应该在其他任务中开发机器学习,比如提出好的建议(推荐食物/电影/朋友)或者做出道德判断(比如自动驾驶汽车的安全协议)。

  留言,赞,关注。

  我们一起分享AI学习开发的干货。

  如需转载,请在后台留言,遵守转载规范。

本文由网上采集发布,不代表我们立场,转载联系作者并注明出处:http://www.xhsrgzn.com/a/use/219.html

联系我们

在线咨询:点击这里给我发消息

微信号:

工作日:9:30-18:30,节假日休息