0 卖盘信息
BOM询价
您现在的位置: 首页 > 电子资讯 >基础知识 > 什么是人工智能?人工智能的工作原理?

什么是人工智能?人工智能的工作原理?

来源:
2023-01-11
类别:基础知识
eye 10
文章创建人 拍明芯城

  未来还需要我们吗?这是计算机科学家比尔·乔伊(Bill Joy)著名的问题。 提出 几十年前。如果事情我们 在媒体上阅读有关 人工智能 可以相信,答案是 明确的“不”。 计算机 已经给我们的考试评分了, 帮助我们选择下一个YouTube视频,并决定我们可以在社交媒体上发布的内容; 他们很快就会做更多的事情,从 为庞大的军队提供动力 机器人 士兵安全地驾驶我们的汽车 和卡车。但仅仅因为像这样的机器似乎确实如此 聪明的东西,真的是聪明的吗? 而且,即使他们可以这样描述,他们的成长能力也是 一个确定的路标,通向一个多余的、人类愚蠢的未来?什么 究竟是人工智能,我们为什么要关心?

  艺术品:我们能想象一个计算机可以想象一个没有我们的世界的世界吗?

  什么是人工智能?

  一些真正的(人类)头脑一直在努力解决这个问题 的人工智能(机器)智能提供了看似简单的 定义:

  美国计算机科学家约翰·麦卡锡(John McCarthy)创造了 早在 1950 年代,“人工智能”一词就说过:“它 是 科学 以及制造智能机器的工程, 尤其是智能计算机程序。

  该领域的另一位著名学者马文·明斯基(Marvin Minsky)认为,人工智能是“人工智能”。 制造机器的科学可以做需要智能的事情 如果由男人做。

  艾伦·图灵(Alan Turing)是该领域的创始人之一,他基本上定义了人工 智能是机器将自己伪装成完全令人信服的能力 人。

  但什么是智能?

  当然,要理解这样的定义,我们需要 稍微反思一下我们的意思 情报.什么时候 我们说某人“聪明”,通常我们的意思是他们很好 在聪明的,书本类型的东西,虽然你当然可以是一个聪明的人 足球运动员、糕点师或 几乎是其他任何事情。如果我们说某人“有才华”, 我们的意思是他们有某种天生的能力——天生的领先优势。 这使它们优于平均水平。

  那么智力是什么意思呢?实际上,这是一种天赋 您可以根据需要选择部署的智能。你不是 只是聪明地成为一名律师或历史学家:你有一个 常规 资质 对于您可以以不同方式应用的东西 不同的时间。你就像一个可以扮演许多角色的演员。今天 您可能是世界一流的律师;明天,你可能会把手转过来 学习古典钢琴或成为国际象棋大师 主人。像演员一样,你有一个全面的天赋和一个 有意识的,自由意志的能力,可以扮演您选择的任何角色。所以 智力是一种支撑的通用思维人才 通过良好的记忆力,出色的语言和推理等品质 技能,与他人沟通的能力,经常 结合创造力、情感意识、道德、自我意识和 等等。一个聪明的人可能只擅长一个 事情(因为他们已经做了很长时间)和比目鱼 他们尝试别的东西; 一个聪明的人有潜力 擅长任何事情(或者,至少,许多不同的 事物),即使他们没有接受过明确的培训 事情。

  

人类智慧的四个例子:地图阅读,消防,驾驶飞机,踢足球。


  照片:读地图、救火、开飞机、踢足球——这些事情中哪一项需要智力?他们都这样做。我们可以制造“聪明”的计算机或机器人来做所有这些事情,但它们可能仍然不是我们认为的“智能”。 然而,如果我们能制造出一台可以在没有任何人为干预的情况下完成所有这些事情的机器,甚至更多,那会是真正的“智能”吗?还是不止于此?照片由William Johnson,Christopher Quail,Trevor T. McBride和Trevor Cokley提供,均由 美国空军.

  但“一般解决问题的能力”似乎很模糊 和对智力的毛茸茸的定义——有些人更喜欢 更具体。所以,在 心理学 (人类的科学 行为),你会发现不止几个人愿意定义 智力作为通过智力(IQ)测试的能力。那是一个 循环定义,但它并不像听起来那么愤世嫉俗。一 智力测试是特定的、众所周知的、众所周知的 研究。你可以做一个典型的智商测试,把它分解成所有 它包含的不同谜题。你可以一步一步地弄清楚 解决每一个问题的方法,并训练计算机如何做到这一点。给 您的计算机是智商测试,它应该得分很高,在 理论使其成为人工智能机器,至少通过 马文·明斯基的定义。嗯,没有。因为如果你给它一个 稍微不同的测试它没有经过训练,它可能会 不知道该做什么和失败, 没有任何破碎 人类在相同情况下会有的自我意识。还 我们可以说它具有智能机器的一些品质 或者一个聪明的人。

  强大的人工智能

  如果我们这样定义智能,它意味着带有人工的机器 智能将具有类似的通用问题解决能力 能力:它们在类似计算机中的行为可能像人类一样的大脑 盒。这种构思事物的方式有时被称为 强大的人工智能 或 通用人工智能 (AGI)这是最 当我们谈论智能机器时,人们认为我们的意思是:如果不是 人类的机器复制品,具有大部分(或全部)的机器 一个有思想的人的智力品质——有时是他们的情感 以及创作品质。

  弱人工智能

  制造可以以巧妙方式运行的机器来解决的想法 具体的、有限的问题(如下棋、开车、 操作工厂机器人,或其他什么)被称为 弱人工智能 或 人工狭义智能 (阿尼)。大多数模糊的 我们遇到的“智能”计算机和机器人 这一刻属于这一类。像下棋的计算机 IBM的深蓝制造 世界头条 当它击败大师时 加里·卡斯帕罗夫(Gary Kasparov)早在1997年就被削弱了,但它的大部分聪明才智都下降了 暴力计算——想象一下它试图驾驶汽车 在高速公路上。出于同样的原因,自动驾驶的谷歌汽车看起来也是如此。 相当令人印象深刻,但不要指望他们会坐在国际象棋对面 很快登机。

  人工智能的意义何在?

  

image.png


  强与弱,一般与狭隘,类人与机器, 聪明与聪明——有各种各样的方法 考虑人工智能的“程度”。我们可以 想象一个从简单、狭隘的人工聪明到天平的尺度 (叮当声,预编程,机器般的能力执行特定的 任务,例如 鲁姆巴 吸尘器在客厅里乱窜 没有任何意识自己在做什么);通过下棋 计算机、自动驾驶汽车和机器人可以拯救人们 灾区;直到一个至高无上的,通常是人为的 智能计算机,足够智能,可以重新编程, 认识到它的缺陷并设计出更好的版本,甚至 对自己在做什么有某种意识。

  然而,许多人会争辩说,这不是一个简单的规模,AGI完全是 与 ANI 不同(质的不同),而不仅仅是“涡轮增压”ANI(数量上不同)。 如果这是真的,那绝对不是我们的最终目标应该是创造最多的。 一般来说,人工智能,类人的计算机我们可能 能;这就是关于人工智能的大部分争论陷入困境的地方。 我们的首要目标是了解我们的目标。如果我们想要一个 救援机器人 我们可以在紧急情况下部署 把人从 燃烧建筑物,它需要一系列有用的行为。它 可能不需要下棋、开车或说话 西班牙语,虽然它可以做的事情越多,显然它就越好 可以在不可预测的情况下即兴创作, 就像人类一样。

  人工智能的一个目标就是做一些人类做得和他们做得很好的事情, 而不会纠结于尝试做人类所做的一切 比他们做得更好,或者完全像人类一样做。 “强”不会自动比“弱”好, 即使使用那些情绪化的词听起来如此。 弱是用词不当。没有什么“软弱”的 世界级的人类棋手,如果你想要的只是一个可以的人 下棋。一个“弱者” 鲁姆巴 机器人可以做一个非常好的工作 清洁地毯。 你可以对人工智能采取非常务实的方法,换句话说,没有 过度担心更广泛的哲学问题,即使 这些东西是哲学家们非常感兴趣的。在 换句话说,你可以对计算机进行编程,让他们不坐着下棋。 向下定义“智能”一词或担心 您的计算机将变得多么智能。重要的 事情就是忠于我们自己的目标,无论它们是什么。

  人工智能经常被忽视的目标之一——至少在大众媒体中被忽视了——是 通过对机器如何的科学研究,阐明我们自己的大脑是如何工作的 可以模仿他们。自 1950 年代以来, 心理学 经历了一场“认知”革命,其中隐藏在我们头脑中的相当多的谜团被解开了 假设大脑以与计算机类似的方式处理信息的研究。人工智能研究 以类似的方式更多地阐明认知心理学和神经心理学:通过弄清楚机器如何 可能是 智能,我们更多地了解人类如何 已经 智能。

  我们怎么知道我们什么时候终于创造了一些智能的东西?

  如果我们的目标是制造智能机器,我们怎么知道什么时候实现了? 我们可以看看他们是否通过了所谓的图灵测试,但这并不能保证。 要么是“智能”,要么是“理解”...

  图灵测试

  这个至关重要的问题就是艾伦·图灵(Alan Turing)在 他在1950年撰写的科学论文名为“计算机 和智力“,这催生了一位著名的科学 实验现在称为图灵测试(图灵自己称之为 “模仿游戏”)。基本思想是比较一个 人类和“智能”计算机可以通过相同的现实生活 测试:进行对话。实验者坐在房间里聊天 与某人,通过他们的电脑,坐在外面和外面 的视线。实验者不知道的是他们是否 与另一个人聊天或与编程为分析的计算机聊天 对话并像人一样回应。简单地说,如果 他们正在与电脑聊天,实验者认为他们在 与人类聊天,他们不如与 人类——在这种情况下,我们可以认为计算机是智能的。 实际上,图灵取代了抽象的问题“机器可以吗 思考?“以及更实际的问题”机器可以吗? 模仿人类?

  

image.png


  艺术品:图灵测试。假设你坐在红色电脑前 在红色房间中,与计算机进行通信(通过屏幕聊天) 或蓝色房间里的另一个人。如果您正在与计算机聊天,但它 可以说服您正在与另一个人聊天,我们可以将那台计算机视为 一样聪明。

  测试测试

  图灵的测试是巧妙的。而不是在定义上争论 智力,它提供了一个简单的比较作为可接受的测试: 计算机可以冒充人类吗?我们可以合理地争辩 事实上,这不是一个有效的智力测试。这是一个考验 计算机科学家所谓的自然语言处理(NLP)以及相关的认知能力,如逻辑 推理、判断和记忆——但它是有用的测试 情报?也许这不是重点。如果我们的兴趣在于 开发“较弱”形式的人工智能,例如非常安全和 可靠的自动驾驶汽车,它们是否真的无关紧要 可以和人类聊天——也许我们可以认为他们是聪明的。 (有用的聪明)都一样?

  为什么人类智能应该成为机器智能的标准? 为什么人类应该 定义 人类智慧是 尺度?如果我们比较一个专业设计和训练有素的人会怎样 自动驾驶汽车和一个有过几次驾驶的青少年 课。我们会认为这个少年不聪明吗,因为他们 不会也开车吗?你宁愿被谁驱动:一个人 谁可以通过一定分数的智力测试或专家 驾驶员,人还是机器,以最好的方式进行培训?

  对图灵测试的一个反对意见是,它鼓励我们不要开发 智能机器,但只是可以通过图灵的机器 测试;不是开发“智能”机器,而是开发 如 似乎 人 尽可能。通过图灵测试 可能不是智能的全部和最终目的 在智商测试中得分高是学术的全部和最终目标 成功——或者说是对过上幸福和成功生活的预测。 在我们的世界上,我们需要做很多事情是没有的 必然需要通用的人类智能——也许 以最好的方式解决这些问题,而不是以最 人的方式,应该是我们真正的关注点吗?

  中式房间

  即使一台机器可以通过图灵测试,这并不意味着它有任何 有意识地意识到自己在做什么或自己在做什么 自觉 把自己伪装成一个人(就像演员可能扮演的那样 角色)。你可以想象一台机器被赋予了一个巨大的数据库 任何人在整个过程中曾经进行过的每一个可能的对话 历史,所以它所要做的就是查一下人类对它说的话, 分析了已经说过的内容以建立一些背景, 从其几乎无限的曲目中提供合理的答案。

  这是另一个叫做中国房间的思想实验的变体, 由哲学家约翰·塞尔于1980年设计,作为对 强人工智能的整体理念。他认为机器可以做某事。 显然非常聪明(例如举行图灵测试 对话)只是通过遵守规则而不了解什么 它以任何方式做。他想象这台机器就像一个 说英语的人坐在房间里被灌输句子 他们听不懂的中国人张贴在下面的纸上 门。这个人会在一本巨大的书中查找句子 规则,找到适当的响应,并将其传递回去 在同一扇门下。仅仅因为这个人可以完美无瑕 Searle认为,用中文回答问题并不意味着他们 了解他们在做什么。编程为 翻译中文与懂中文的人不同 并翻译为其副产品。

  那又怎样?

  这些测试和思想实验迅速陷入语义困境。 关于智力等事物定义的争论, 知识和理解,这可能是 对哲学家来说非常有趣,但不一定是这样 对于解决实际的现实问题很重要。 塞尔的中国房间继续激起关于意义的哲学辩论 理解,智能,句法,语义, 心灵与身体的关系,以及更多。

  有些人同意塞尔的立场,强调他们认为 人工智能极客声称人类的计算机模型的荒谬性 行为本质上与他们的行为没有什么不同 模拟。其他人,如麻省理工学院机器人科学家罗德尼布鲁克斯,认为 这些论点是基于不可动摇的 (通常是不科学的)相信人类在某种程度上是特殊的。这使得整个论点基本上是循环的:机器不可能是智能的,因为人类是人类。 是 特殊;人类是特殊的,因为机器不可能 像他们一样聪明——或多或少就是这样。

  人工智能的类型

  自 1950 年代该领域诞生以来,大多数现实世界的人工智能计算机 程序分为几种广泛的类型,其中(为了 简单)我将只分为三个:启发式搜索,专家 系统和机器学习。还有一些混合系统结合了其中两个或多个。 让我们依次考虑这些。

  启发式搜索

  如何构建一台会下棋的计算机?如果你下棋 你自己,你的策略可能是通过 考虑你可能做出的每一个动作,移动那些可能 导致,等等,沿着一棵树运行你的轻盈,猴子的头脑 可能性,直到你找出最有可能赢得的举动 游戏。如果你有无限的脑力,理论上你可以 考虑每一个可能的举动,并相应地对它们进行排名。但是,做数学,然后 你会发现可能的移动次数远远超出了限制 记忆和时间。根据马文·明斯基(Marvin Minsky)的说法,写到这个 问题早在 1966 年,我们谈论的是 10120 移动 而即使是像跳棋这样更简单的游戏也可以进入 1040 可能的举动。

  

image.png


  照片:下棋的计算机通常使用启发式搜索。 现代国际象棋程序通常与 1960 年代设计的类似程序的工作方式相同,但因为今天的 机器更强大,它们可以在相同的时间内考虑更多的动作。 这就是为什么今天的计算机比昨天的计算机更好。

  我们的大脑无法处理这么多东西——或者类似的东西。所以 您(或计算机)无需考虑每一个可能的举动,而是可以 使用基本的经验法则缩小搜索范围, 把一个压倒性的问题变成你的大脑(或 处理器芯片)可以合理处理。这称为启发式 搜索。我们大多数人都适用的明显启发式 游戏情境,如果只是出于对人的考虑,我们是 玩,就是花 至少 一定的时间 寻找动作,但 不要太多.或者,变得越来越复杂, 您可以使用诸如试图控制中心之类的策略 板,识别某些键盘模式,或保留 像你的主教和女王这样的重要作品,以失败为代价 价值较低的作品。启发式搜索的关键点是它 在可用的时间内确定一个足够好的解决方案,而不是 试图找到唯一完美的结果。

  启发式搜索非常适合逻辑棋盘游戏,如国际象棋、跳棋、 拼字游戏,等等,这涉及到考虑很多非常相似的 潜在的举动,但它在现实世界中有多大用处?您可以 想象一个人工智能应用程序,它搜索 数以千计的房屋和公寓出售或出租,以帮助您找到 最好使用启发式方法来缩小范围。而不是 向你展示一切,它可能会向你展示你拥有的房子 倾向于在一定的半径或价格范围内查看之前。 但是更复杂的问题呢,比如提供法律建议,弄清楚 一辆抛锚的汽车或诊断疾病有什么问题?

  专家系统

  你可能马上就能看到医疗 诊断不一定适合简单的启发式搜索:如果 您是危重病人,您不是在寻找 在可用时间内做出足够好的诊断;你想要的权利 诊断,无论需要多长时间。你的医生不会认为“好吧 我会考虑我脑海中出现的前 10 种疾病,然后 只要选择最有可能的。

  专家系统(有时称为基于知识的系统或 KBS) 是旨在超越简单搜索的计算机程序,并且 使用更详细的“如果X则Y”分析做出决策 和推理。通常,他们有一个从研究真实的人类中收集的知识数据库。 专家和一个单独的系统,可以通过浸入其中进行推理 知识。专家系统的局限性,它不是 总是一个问题,是在一个领域训练的计算机 知识(如法律建议或医疗诊断)对 我们在不同的领域。人类完全有可能改变 职业并从脑外科医生转变为公司律师, 但是专家系统的机器不能自愿做同样的事情 无需交换其数据库。确实,一些医学知识是 所以非常复杂, 如此 专家,即使是经过专家系统培训 在一个医学领域(例如,癌症)在另一个医学领域可能用途有限 医疗领域(急诊医学)。虽然人类也是如此 医生,关键区别在于人类专家倾向于识别 他们自己的局限性,知道什么时候寻求帮助;机器专家 不知道他们什么时候做出了不称职的决定。

  机器学习

  机器学习是尖端人工智能的流行语之一,尽管它实际上是一个非常古老的词。 可以追溯到 1950 年代的术语。在实践中,它通常意味着 培训一个 神经网络 (非常松散地,一个大大简化的类脑结构的计算机模型,由称为“单元”的相互连接的细胞层组成)在数百万、数十亿或数万亿个例子上,所以它可以 快速识别或分类以前从未见过的东西。所以 经过训练,可以查看数百万张桌椅图片,它可以 告诉您以前从未见过的照片显示的是表格还是 椅子——这就是自动照片分类的方式 算法适用于您的手机。机器学习解释了谷歌如何 可以从搜索结果中过滤掉露骨的成人图片,如果您 不想让你的家人看到他们:在成人身上训练的算法 当人们上传照片时,照片可能会发现其他照片中的明显迹象 他们。机器学习也为自动化翻译奠定了基础 可以在谷歌上找到,必应, 和Skype。像这样的程序现在是如此 很好,他们可以将几乎任何语言转换为相当不错的语言 (至少可以理解)任何其他语言的翻译,没有 “理解”一个词;他们是很好的例子 塞尔的中式房间,除了他们能够在任何 你喜欢的舌头。

  机器学习程序的特征之一是——线索是 以他们的名字 学习 随着他们的前进。所以不像 预编程专家系统,他们越来越擅长 他们做的越多,就像一个真正的人一样,对 指出他们可以做任何你编程让他们做得更好的事情 你可以自己做。

  还有一些事情值得快速注意。虽然术语“机器学习” “神经网络”听起来像是源于心理学,它们与 复杂的数学和统计学。当我们谈论“神经网络”是“类似大脑的”时,这真的是 只是一个类比。神经中不一定有任何类似大脑的东西 网络(首先,像单行道和化学神经递质一样工作的突触是两个非常明显的区别)。什么神经机器学习和人脑 做 共同点是他们都 并行处理大量数据(或神经网络中的“伪并行”, 通常是在传统的串行计算机上实现的并行类脑结构模型)。

  

image.png


  艺术品:人工智能计算机/机器人将如何爬树?左:它可以使用启发式搜索来考虑沿分支的一些最可能的路径;中:它可以使用一个关于树木和攀爬的知识专家系统数据库,以及一些IF...然后。。。通过推理得出最佳路线的规则;右图:使用机器学习,也许它可以分析数千张人们爬树的照片,以便在看到一张新的树照片时找出一条好的路线?

  混合动力系统

  我在这里采用了一个相当武断的三向分类,纯粹是为了 一个易于理解的解释。但是您可以随心所欲地对 AI 进行分类。启发式搜索和专家系统是一些人称之为的例子 符号人工智能 或好的老式人工智能(GOFAI),并以经典的认知方式工作,就像我们绘制的“这个导致那个”流程图来解释简单的计算机程序一样。另一方面,机器学习以一种更平行的、类似大脑的、“连接主义”的方式进行,没有 明显的串行逻辑。符号人工智能系统通过使用有限数量的数据进行串行逻辑推理来解决问题, 而连接主义系统则对大量数据使用并行处理。

  

image.png


  插图:串行与并行处理。在传统的符号AI(如专家系统)中,一步接着一步地合乎逻辑地进行;神经网络机器学习使用并行处理(尽管令人困惑的是,它通常以传统的计算机为模型。 串行处理!

  如果你正在尝试制造一辆可以救援的自动驾驶汽车或机器人 来自建筑物的人,您将使用三者的元素 以前类型的 AI 在不同的时间以不同的方式出现。所以混合系统 对曾经可能专门工作的研究人员越来越感兴趣 使用符号、串行 AI 或并行、连接主义、机器学习系统。 DeepMind的 雅达利游戏系统 是最近的一个混合体的例子 部分通过符号 AI 工作,部分通过神经网络工作的系统。

  自动驾驶汽车依靠机器学习来解释图像。 他们实时行驶的街道。我们都见过那些谷歌 验证码测试,通过分类让我们证明我们不是机器人 消防栓、桥梁、自行车和出租车。这项工作是 谷歌训练机器学习系统识别的努力 他们的汽车以后可以进入的不同物体。但 驾驶不仅仅是识别物体;您还需要 识别和分析情况。例如,如果您正在开车 沿着你看到一个圆形的红色物体滚到路上,你 可能会想“哦,看,有一个球”,但你应该怎么做 真正认为是“那个球可能属于一个孩子,如果 球滚到路上,一个孩子可能就在它后面, 所以我 需要放慢速度并准备停下来”。这更像 专家系统决策。自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 自动驾驶汽车可能会 始终有人类乘员和备用人类驾驶员将其取出 麻烦,所以它不需要完全自主 与机器人士兵一样,可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 可能需要自拔 来自更广泛的意外情况。所以,重新审视我们的 人工智能作为狭隘光谱之间的原始想法 一般来说,我们可以看到更自主和通用 计算机或机器,不同AI策略的范围越广,或者 它可能需要借鉴的技术。它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。 它还需要 能够弄清楚在不同的思维中使用哪种类型的思维 情况。

  对于所有类型的人工智能来说,一个关键问题是代表世界的某些方面。 以计算机系统可以理解和处理的方式。在一个简单的层面上,如果 您正在使用神经网络来识别人脸,您究竟如何“翻译” 将整体面孔转换为网络可以使用的离散数据位?和 如何将计算机网络的输出转换为对人类有意义的形式?

  人工智能在现实世界中的用途是什么?

  当约翰·麦卡锡于 2011 年去世时, 讣告 在英国 独立 Newspaper指出,他曾经观察到,该领域的重大突破可能在“5到500年”内实现。 麦卡锡将目光投向了非常遥远的强人工智能和 对那些满足于狭隘的研究人员感到绝望 目标。正如他在2006年所写:

  “我不得不承认,我对缺乏野心感到不满。 我的大多数人工智能研究人员同事....例如,使用的语言 击败世界象棋冠军加里的深蓝计划 卡斯帕罗夫不能用来表达“我是一个国际象棋程序,但是 考虑比人类更多无关紧要的动作。 从中得出的结论。该程序的设计者认为没有必要 为了这个能力。 [8]

  仅仅因为我们没有足够智能的计算机 在任何事情上与人类正面交锋,这并不意味着 我们在人工智能方面没有取得任何进展,因为正如我们所做的那样。 从已经看,强大的人工智能并不总是目标。环顾四周 现代世界,你会看到无穷无尽的应用,不那么壮观 (但仍然非常令人印象深刻)人工智能,包括事物 像Alexa,Siri和机器驱动的客户代理,自动库存 交易,亚马逊上的“您可能喜欢的东西”推荐和 eBay,在线广告软件,根据您的身份向您展示广告 是和你可能买什么,真空清洁 鲁姆巴 机器人 使用越来越智能的策略来提高清洁效率,以及 多。

  人工智能在行动

  以下是我从最近的新闻报道中提取的一些人工智能在行动的不同例子:

  GPT3,一个有争议的文本生成AI系统,现在正在 试用使用 在在线客户服务代理、心理健康应用程序和类似的对话应用程序中。

  Deep-speare,莎士比亚诗歌生成器,一直在使用 人工智能创作十四行诗.

  人工智能软件可以 生成似是而非的假人 有逼真的面孔。

  正在发现新的医疗药物 感谢可以破解经典的机器学习程序 蛋白质折叠问题.

  Facebook和YouTube等社交媒体网站使用 识别和删除极端主义内容的人工智能.

  机器学习现在被用于 生成更准确的天气预报.

  犯罪分子正在使用人工智能来破坏计算机安全, 而 执法和司法专业人员正在使用机器学习算法 帮助判刑。

  医生正在使用机器学习人工智能 开发大脑植入物和可穿戴设备 这将帮助瘫痪者移动和感受感觉。

  为什么要为人工智能而烦恼?

  

image.png


  相片: 鲁姆巴 真空清洁机器人使用越来越复杂的模型来清洁您的家。我们很难称他们为聪明,但我们为什么要这样做呢?

  在一个充满智慧人类的世界里,为什么 费心开发智能机器?这是我们自己的标志吗 我们认识到我们潜在的愚蠢的智慧 我们可以克服的限制吗?还是人类的另一个标志 傲慢——我们总是以某种方式认为我们可以做得更好 自然界?是“支持者”和“反对者”之间的争论 机器智能傲慢的两个不同方面: 人类是特殊的,因为我们 想 我们可以更好地开发机器 比我们自己,但不能...还是因为我们真的做不到而特别?是追求 对于人工智能来说,更像是对完美的追求 在漫长而艰难的棋局中移动...我们觉得这是 在某个地方,总是遥不可及?还是更像是一个 启发式搜索 在棋盘游戏中,快速,实用, 为有限的问题提供足够好的解决方案比等待更好 四处追求完美?

  人工智能提出了各种哲学问题, 但它也引发了社会问题,比如智能工厂机器人是否如。 而机器学习计算机系统将把“智能” 失业的人。也有道德问题。例如 人们已经在问关于法律的难题 自动驾驶汽车的责任。如果你被车撞倒了 像这样在人行横道上,汽车在某种程度上是罪魁祸首吗?是 被动的“司机”双手坐在假方向盘上,责怪不干预? 或者即使他们在世界的另一端,设计师也应该受到指责? 如果机器人士兵意外杀死平民,责任是否止步于此 下达命令的将军或建造和 对机器进行编程?

  我们已经看到的一个大问题是 使用机器学习的算法可以做出决策 我们没有办法理解或挑战。我们了解人类 算法所基于的假设,但没有容易 了解为什么神经网络在数十亿个不同的人身上训练的方式 例如,数据项将 错误地将世界著名的战争照片标记为色 情内容 或 可耻地错误分类了三名黑人青少年的照片. 在第二种情况下,在谷歌的算法将人标记为大猩猩之后,谷歌没有。 甚至费心试图解决这个问题:它只是停止了标记任何的算法 照片为大猩猩、黑猩猩或猴子。AI问题太难解决,所以 相反,他们解决了一个更简单的问题。

  人工智能的下一步是什么?

  "这场争端尚未解决,也许是无法解决的......没有人 可以肯定的是,AGI是否真的是智能的。"

  玛格丽特·博登教授 [9]当务实的计算机科学家继续建造更聪明的机器时,哲学家们继续在本质上相同的陈旧问题上与无休止的变化作斗争:如果巧妙(或蛮力)计算“聪明”(人工智能的蛋糕)不能复制典型的,它是否可以真正复制人类的“智能”, 更微妙的人类品质,如理解、同理心、道德、情感、创造力、自由意志和意识(最重要的糖衣)。也许理解计算“聪明”和人类“智能”之间的区别才是真正的图灵测试?

  到达我们开始的地方,让我们再次问:未来真的需要我们吗?可以说,当今相对较弱的人工智能系统的最大局限性是它们没有认识到自己的局限性:为此, 他们 仍然需要 我们.直到人工智能机器足够聪明,能够理解到底如何 他们可以很愚蠢,也许他们没有构成 最终 对我们人类的威胁。

  从长远来看,人类是否面临超智能AGI机器的威胁 - 或者这只是科幻小说中的废话,就像怀疑论者一样。 休伯特·德雷福斯 半个多世纪前在争论吗?这些想法是否危险地分散了人们对一个更合理的威胁的注意力:随着机器学习类型的算法在完成我们曾经认为绝对人类的工作时变得越来越“聪明”,有多少人的生计处于危险之中?陪审团仍然存在分歧。像比尔·乔伊(Bill Joy)这样的悲观主义者警告说,人工智能是潘多拉的盒子,而乐观主义者,如人工智能“先知”雷·库兹韦尔(Ray Kurzweil),则把目光投向奇点——实际上是机器超越人类智能的地方——以及一个大胆、美好的未来,在那里,“愚蠢的”、棘手的人类问题,如战争和贫困,被聪明的机器巧妙地扫除了。与此同时,麻省理工学院的罗德尼·布鲁克斯(Rodney Brooks)等务实的机器人科学家认为,机器智能只是最新的人类技术。 这有助于人们克服他们过于人性化的局限性:”我们将成为肉体和机器的融合。我们将拥有最好的机器性,但我们也将拥有我们的生物遗产,以增强我们迄今为止开发的任何机器技术水平。 [10]

  因此,问题不在于未来是否仍然需要我们;而是“我们想要什么样的未来?”——我们如何利用人工智能等技术来实现它?

  人工智能时间表:人工智能简史

  初期

  1637年:想知道可能性 可以模仿人的机器,法国哲学家勒内·笛卡尔 确信我们总能分辨出其中的区别。他 图灵测试的预测超过300年,他写道:“如果 有些机器与我们的身体相似, 在道德上可能的范围内模仿我们的行为,我们 应该始终有两个非常确定的测试来识别 尽管如此,他们都不是真正的男人。 从广义上讲,他认为1)机器不能对所有事情做出反应。 你可以对他们说或 2) 预测并应对他们可能遇到的每种情况。 [11]

  1737: 雅克·德·沃坎松法国艺术家和发明家建造了令人愉悦的自动机,包括机械 长笛演奏家和“消化鸭”(现实的吃,喝, 鸟的行走模型)。

  1763: 托马斯·贝叶斯 发展“贝叶斯” 推理(一种概率推理),它将形成一个 人工智能程序和算法的重要组成部分 未来几个世纪。

  ~1770: 皮埃尔·雅克德罗 用复杂的、机械的、动画的娃娃让皇帝和国王眼花缭乱 使用简单的可编程存储器的惊人事物。

  1842年:Charles Babbage和Ada Lovelace开发了可以编程的机械齿轮驱动计算机 重组。

  1910年:西班牙发明家 莱昂纳多·托雷斯和克维多 开发了El Ajedrecista,一种早期的国际象棋机器。

  控制论

  1940年代:生理学家 威廉·格雷·沃尔特 构建自治 机械“” 可以找到自己的方式 周围使用光电管和简单的电子产品。

  1943: 生理学家 沃伦·麦卡洛克和 沃尔特·皮茨 构建简单的脑细胞算法模型 可以学习东西,所以开发第一个原始神经网络。

  1943年:剑桥心理学家肯尼斯·克雷克 在书中概述内部“心智模型”的概念 叫 解释的本质.机器的想法 可以使用世界的模型来解决各种问题 事实证明,它极具影响力。

  1948年:控制论(简单地说,发展 使用传感、学习、 改编、反馈等)正式诞生 诺伯特·韦纳经典著作出版 控制论:或动物和机器中的控制和通信.

  智能机器的兴起

  1949年:埃德蒙·伯克利的书 巨型大脑:或会思考的机器 普及计算机的概念 作为电子大脑。

  1950年:艾伦·图灵(Alan Turing)提出了“模仿” 博弈“(现在称为图灵测试)在一篇极具影响力的论文中 被称为“计算机与智能”。

  1950年代:科幻作家艾萨克·阿西莫夫(Isaac Asimov)提议 三 机器人法则 以帮助控制机器人。

  1950年代:英国科学家奥利弗·塞尔福里奇(Oliver Selfridge)开发了一种模式识别的计算模型,称为 混乱, 这会影响神经网络和机器学习。

  1955年:艾伦·纽厄尔(Allen Newell)探索下棋的启发式搜索方法 国际象棋 机器:通过适应处理复杂任务的示例.

  1956年:约翰·麦卡锡(John McCarthy)创造了这个词 “人工智能”期间 开创性的车间 在新罕布什尔州汉诺威的达特茅斯学院。

  1958年:计算机科学家约翰·冯·诺依曼(John von Neumann)创造了“奇点”一词。

  1959: 亚瑟 塞缪尔 创造“机器学习”一词来描述逐渐 在游戏中比编程的人更好。

  1961年:莫蒂默·陶布的论战 计算机与常识:思考机器的神话 指责人工智能科学家“写科幻小说来刺激公众”,浪费公共资金。

  1962年:约翰·麦卡锡建立斯坦福大学 大学作为人工智能的主要研究中心,形成了 斯坦福人工智能实验室 (SAIL).

  1965年:约瑟夫·魏岑鲍姆开发 伊丽莎,第一个可以容纳模糊人类的“聊天机器人”程序 谈话。

  1965年:斯坦福大学的爱德华·费根鲍姆 开发第一个专家系统, 登德拉尔,旨在识别 未知分子通过使用其从各种输入数据中推理 预先学习的化学专业知识。

  1967年:弗兰克·罗森布拉特(Frank Rosenblatt)开发了Mark I 感知器,一种基于神经网络设计的类脑计算机。

  1968年:对神经网络的兴趣在出版后停滞不前 感知器,马文·明斯基和西摩·派普特的开创性著作,攻击罗森布拉特的作品。

  1968年:汤姆·埃文斯(Tom Evans)开发了一个人工智能程序 称为类比,可以解决智商中常用的几何问题 测试。

  1968年:斯坦利·库布里克和亚瑟· 克拉克的反乌托邦 2001: 太空漫游 (电影) 提供可怕的 当人工智能计算机发生时会发生什么的愿景, HAL 9000,失控。

  1970: 特里·维诺格拉德 什德鲁 程序 学会理解一个由普通积木组成的简单世界, “自然语言。”

  1972年:休伯特·德雷福斯驳斥了整个想法 一本挑衅性的书中的智能机器 计算机不能做什么:对人工理性的批判 (1992年重新审视为 计算机仍然无法做到的事情).

  1970年代: 麦霉素 专家系统开发用于 诊断并建议血液病的治疗方法。

  1980年:哲学家约翰·塞尔(John Searle)概述了 中国房间,他对“强AI”的经典反对。

  现代人工智能

  1980 年代:神经网络再次变得非常流行 这在很大程度上要归功于“并行分布式处理”或 詹姆斯·麦克莱兰、大卫·鲁梅尔哈特的“联结主义”模型, 罗纳德·威廉姆斯和杰夫·辛顿。

  1980年代:约翰·莱尔德、艾伦·纽厄尔等人发展 飙升,一组可用于创建 AGI 的“构建块”。

  1987: 数字设备公司 (DEC) 发展 R1,一个帮助设计其VAX计算机的专家系统。

  1988年:IBM研究员彼得·布朗(Peter Brown)率先实现自动化, 使用机器学习的“统计”语言翻译。

  1989年:罗杰·彭罗斯,英国人 数学家认为人工智能不可能 在畅销书中被传统的图灵式计算机复制 书名 皇帝的新思想.

  1990年:美国计算机科学家 雷·库兹韦尔 普及奇点——实际上是 人工智能超越了人类。

  1990: 机器人先驱 罗德尼·布鲁克斯 拒绝象征性的人工智能,并在一篇名为“的挑衅性论文和书籍中拥抱务实的、”自下而上“、”定位“的人工智能 大象不下棋.

  1995年:受到ELIZA的启发,一个名为 ALICE(人工语言互联网计算机实体) 设置新 机器对话的标准,尽管它仍然无法通过 图灵测试。几年后,它催生了斯派克·琼斯(Spike Jonze)的电影 她.

  1997年:IBM的深蓝超级计算机 打 俄罗斯大师加里·卡斯帕罗夫 在纽约国际象棋锦标赛中。

  2002年:Rodney Brooks的iRobot发布 第一 鲁姆巴 机器人吸尘器。

  2009年:苹果电脑收购Siri,由 CALO(学习和组织的认知助手) 在斯坦福大学 研究院。

  2011 年:IBM 的 Watson 计划 践踏其 人类对手 在电视问答节目中 危险!

  2012年:人工智能研究人员杰夫·迪恩和安德鲁 Ng 表明一个经过训练的神经网络 对猫产生了偏好 图片.

  2012/3: 人工智能研究人员的一系列民意调查 表明强人工智能(人工通用)有50%的可能性 智能)将在 2040-2050 年左右开发。

  2014年:一个名为 尤金·古斯特曼, 由弗拉基米尔·维谢洛夫开发,(可以说)通过了图灵测试。

  2015年:会话神经网络 新闻。百度的民华利用该技术 比人更准确地对图像进行分类,而谷歌的 深梦 开发 诡异的人类本领,可以看到并不真正存在的图像 - 面孔 在云中等等。

  2016年:谷歌的DeepMind。 击败顶级球员李·西多尔 在棋盘游戏围棋中。Seedol随后退休,认为AI“无法被击败”。

  2020年:DeepMind在 蛋白质折叠问题,有可能加速小说的发展 医疗药物。


责任编辑:David

【免责声明】

1、本文内容、数据、图表等来源于网络引用或其他公开资料,版权归属原作者、原发表出处。若版权所有方对本文的引用持有异议,请联系拍明芯城(marketing@iczoom.com),本方将及时处理。

2、本文的引用仅供读者交流学习使用,不涉及商业目的。

3、本文内容仅代表作者观点,拍明芯城不对内容的准确性、可靠性或完整性提供明示或暗示的保证。读者阅读本文后做出的决定或行为,是基于自主意愿和独立判断做出的,请读者明确相关结果。

4、如需转载本方拥有版权的文章,请联系拍明芯城(marketing@iczoom.com)注明“转载原因”。未经允许私自转载拍明芯城将保留追究其法律责任的权利。

拍明芯城拥有对此声明的最终解释权。

相关资讯