人类可以在图灵测试中失败吗?

<h1>图灵测试:它是什么,可以通过它以及限制</h1>
<blockquote>这就是为什么图灵用我们的原始问题代替了他的原始问题 <em>能</em> 答案:&ldquo;是否有可以想象的计算机在模仿游戏中会很好?&rdquo;这个问题为评估计算机的复杂性建立了一个可衡量的标准,这一挑战激发了计算机科学家和AI研究人员,过去七十年.</blockquote>
<h2>人类可以在图灵测试中失败吗?</h2>
<p>Reddit及其合作伙伴使用饼干和类似技术为您提供更好的体验.</p>
<p>通过接受所有饼干,您同意我们使用cookie来提供和维护我们的服务和网站,提高reddit的质量,个性化reddit内容和广告,并衡量广告的有效性.</p>
<p>通过拒绝非必需的cookie,Reddit仍然可以使用某些cookie来确保我们平台的正确功能.</p>
<p>有关更多信息,请参阅我们的cookie通知和我们的隐私政策 .</p>
<h2>图灵测试:它是什么,可以通过它以及限制</h2>
<p>Khadija Khartit是一项战略,投资和资助专家,是顶级大学金融科技和战略金融的教育家. 她已经是一名投资者,企业家和顾问已有25年以上. 她是FINRA系列7、63和66个许可证持有人.</p>
<h2>什么是图灵测试?</h2>
<p>图灵测试是确定机器是否可以证明人类智能的一种看似简单的方法:如果机器可以与人进行对话而不被发现为机器,则已经证明了人类智能.</p>
<p>图灵测试是在1950年由数学家和计算先驱艾伦·图灵(Alan Turing)发表的一篇论文中提出的. 它已成为人工智能理论和发展(AI)的基本动机.</p>
<h3>关键要点</h3>
<ul>
<li>图灵测试测量测试主题的智能,以确定机器是否可以证明智力.</li>
<li>根据测试,计算机程序可以认为其反应是否可以欺骗人类,也是人类.</li>
<li>并非每个人都接受图灵测试的有效性,但是通过它仍然是人工智能开发商的主要挑战.</li>
<li>图灵测试有变化,以及在不同AI测试中提出问题的方法的修改.</li>
<li>图灵测试有几个局限性,包括需要受控的环境,没有专门的智力定义,并且需要适应不断发展的技术进步.</li>
</ul>
<h2>了解图灵测试</h2>
<p>现在在我们生活的许多方面都可以看到计算快速进步. 我们的程序将一种语言转换为另一种语言,眨眼间,机器人在几分钟内清洁整个房屋,创建个性化退休产品组合的资金机器人以及可穿戴的设备,这些设备可以追踪我们的健康和健身水平.</p>
<p>破坏性技术的最前沿是人工智能的发展以及计算机可以体验什么局限性. 因此,图灵测试旨在评估计算机是否可以&ldquo;聪明&rdquo;以误认为人类. 图灵测试的批评者认为,可以构建具有思考能力的计算机,但没有自己的想法. 他们认为人类思维过程的复杂性无法编码.</p>
<p>该测试是在法官经营的审讯室进行的. 测试对象,一个人和计算机程序被隐藏了. 法官与双方进行对话,并试图根据他们的对话质量来确定哪个是人类,哪个是计算机. 图灵得出的结论是,如果法官无法说出差异,计算机就成功证明了人类智能. 也就是说,它可以认为.</p>
<h2>图灵测试的历史</h2>
<p>艾伦·图灵(Alan Turing. 战后,他开始考虑人工智能. 图灵在1950年的论文中首先提出了一个问题:&ldquo;机器可以认为?然后,他提出了一项旨在帮助人类回答问题的测试.</p>
<p>几台早期计算机的早期宣称有能力在非常基本的情况下欺骗人类. 1966年,约瑟夫·韦森鲍姆(Joseph Weizenbaum)创建了伊丽莎(Eliza). 伊丽莎(Eliza)是愚弄人类测试人员认为这是人类的最早计算机之一.</p>
<p>不到十年后,一个名为Parry的聊天机器人被建模以模仿偏执型精神分裂症的行为. 要求一组精神科医生分析与真实患者的对话和招架对话. 当被要求确定哪些成绩单是计算机程序时,该组只能在48%的时间内识别机器. 伊丽莎和帕里州的批评者都没有满足图灵测试的完整规则,也不表明全部机器智能. <br /></p>
<p>一个名为Eugene Goostman的聊天机器人被某些人接受为第一个通过Turing测试,2014年.</p>
<h3>今天的图灵测试</h3>
<p>图灵测试具有其批评者,但它仍然是对人工智能项目成功的衡量标准. 图灵测试的更新版本有一个以上的人类法官询问和与这两个主题聊天. 如果经过五分钟的对话后,法官中有超过30%的法官得出结论是计算机是人类的,则该项目将被认为是成功的.</p>
<p>Loebner奖是一项年度图灵测试比赛,由美国发明家和激进主义者休·洛布纳(Hugh Loebner)于1991年启动. Loebner创建了其他规则,要求人类和计算机程序与四个法官中的每一位进行25分钟的对话. 获胜者是该计划获得最多选票和最高排名的计算机. <br /></p>
<p>2014年,雷丁大学的凯文·沃里克(Kevin Warwick)举办了一场图灵测试比赛,以纪念艾伦·图灵(Alan Turing)死亡的60周年. 一个名为Eugene Goostman的计算机聊天机器人,他拥有一个13岁男孩的角色,从技术上讲,在此事件中通过Turing测试. 他确保了33%的法官的选票,他们确信自己是人类.</p>
<p>2018年,Google双工揭示了通过电话执行任务的能力. 在各种演示中,双工时间安排了预约头发,并称为餐厅,人类在生产线的另一端没有意识到他们正在与机器互动. 但是,批评家指出,互动不符合实际的图灵测试,并声称该测试尚未被机器击败.</p>
<h2>图灵测试版本</h2>
<p>图灵测试有几种变体,所有这些都具有相同的意图,即检测受访者是人类还是机器. 每种变化都采用不同的方法来询问受访者不同的问题并评估回答.</p>
<h3>模仿游戏</h3>
<p>图灵测试的早期应用之一,模仿游戏版本经常利用三个方. 第一个人是男性,第二个人是女性,第三人是负责确定前两个人的性别. 第一人称通常是试图欺骗第三人称的任务,而第二人则经常负责试图帮助第三人称正确识别每个性别.</p>
<p>模仿游戏的未来迭代已经演变成双方试图欺骗第三人的错误识别性别. 无论如何,模仿游戏的目的是确定是否可以欺骗审讯者.</p>
<h3>标准解释</h3>
<p>图灵测试的另一个常见版本并不努力查看是否可以愚弄计算机,而是要看看计算机是否可以模仿人类. 在图灵测试的标准解释变化中,第一人称是计算机,第二人称是任何性别的人.</p>
<p>在这种差异中,第三人试图发现前两个人中的哪个是人类,哪个是计算机. 询问者不是正在测试的主题。相反,是试图欺骗人类的计算机(与模仿游戏中相反的方向相反). 例如,可能会要求它一系列个人理财问题,以确定其对行为融资的回答是否合理地期望.</p>
<p>科幻小说反乌托邦系列《刀片赛跑者》中的虚拟voight-kampff是测试机器智能行为的想法.</p>
<h2>图灵测试的变化</h2>
<p>自从创建图灵测试以来,更现代的方法已经发展为试图更好地检测人类和机器. 图灵测试的这些变化正在不断发展,以保持技术进步期间的相关性.</p>
<ul>
<li><strong>反向图灵测试</strong> 旨在让人类欺骗计算机让计算机认为它不会审问人类.</li>
<li><strong>图灵总测试</strong> 结合感知能力,并且人是问题的能力操纵对象的能力.</li>
<li><strong>马库斯测试</strong> 有测试对象查看媒体并回答有关消耗内容的问题.</li>
<li><strong>Lovelace测试2.0</strong> 有测试对象创造艺术并检查他们的能力.</li>
<li><strong>最低智能信号</strong> 测试询问测试对象仅二进制问题(i.e. 仅允许true/fals或yes/否答案).</li>
</ul>
<h2>图灵测试的局限性</h2>
<p>图灵测试有许多批评者,上面的变化试图减轻原始图灵测试的某些局限性. 尽管如此,重要的是要注意图灵测试的弊端,并且其分析可能不足.</p>
<ul>
<li>图灵测试需要执行一个非常受控的环境. 测试参与者必须在整个测试中彼此隐藏,尽管当事方必须具有可靠的交流方式.</li>
<li>图灵测试可能不适合测试智能,因为不同的计算系统的结构不同. 因此,计算机能够执行什么可能存在固有的自然限制.</li>
<li>图灵测试正在发展;但是,技术进步的发展速度甚至更快. 考虑摩尔定律,该定律指出了加工能力的快速增长,成本迅速下降. 随着计算机获得更多功能,由于计算机获得了更多类似人类的功能,历史测试方法可能不再适合.</li>
<li>图灵测试评估智能,尽管它可能不是所有类型的智能的适当衡量标准. 例如,计算机可能会成功地基于其处理响应的能力而成功地欺骗询问者. 但是,这可能并不能真正表明情绪智力或意识。这可能只是意味着计算机具有高度相关且胜任的代码集.</li>
</ul>
<h2>图灵测试如何工作?</h2>
<p>图灵测试与询问者询问测试对象一系列问题. 每个方都保留在一个单独的区域,因此不允许进行身体接触. 根据答案是否可以区分人类受试者是否会给出答复.</p>
<h2>是否有任何机器通过图灵测试?</h2>
<p>2018年,在年度Google I/O年度开发人员会议上介绍了Google Duplex. 该机器安排了美发沙龙预约,并通过电话与一家发沙龙助手进行了互动,作为对话的一部分. 尽管有些批评家对结果的看法有所不同,但有些人认为Google Duplex通过了Turing测试.</p>
<h2>人类可以在图灵测试中失败吗?</h2>
<p>是的. 尽管图灵测试是基于知识和智力的,但它也涉及评估给出的反应以及答案是否被解释为偷偷摸摸.</p>
<p>例如,想象被要求提供43,219和87,878的总和. 您是否可以提供正确的答案只是考试的一部分;图灵测试评估您需要多长时间提供答案,任何澄清的问题,或者您是否理解添加并不给出两个数字. 根据任何人的回答,可能会误认为计算机(我.e. 如果您不小心减去而不是添加数字,那可能是犯罪的证据).</p>
<h2>图灵测试问题的示例是什么?</h2>
<p>潜在的图灵测试问题的一个兴趣示例可能是基于语言和单词的戏剧. 例如,一个问题可能会问:&ldquo;飞行时间和飞机飞行的时间有什么不同?&ldquo;. 尽管这种类型的问题对于不熟悉英语的参与者可能是不公平的,但它也是能够在单个实例的情况下进行逻辑区分的一个例子(i.e. fly这个词)在不同情况下可能意味着不同的事物.</p>
<p>图灵测试问题的另一个例子通常是荒谬的问题. 诸如&ldquo;足球的区别是击球手头盔之间的区别?&ldquo;在语法上是不正确的,很容易被人检测到没有任何意义. 但是,机器仍可能试图解析响应.<br /></p>
<h2>底线</h2>
<p>图灵测试是一项评估,以确定机器是否能够表现出与人类相同的智能. 现在有许多图灵测试的变化,随着技术的继续发展,可能需要确定智力的新解决方案.</p>
<h2>一切都太人性了 – 为什么通过图灵测试是一个坏主意</h2>
<p>要通过图灵测试,计算机计划必须说服人类法官,通过回答法官提出的一系列问题,这是人类.</p>
<blockquote><p><strong>&ldquo;如果计算机可以欺骗人类相信这是人类.透明</strong> – 艾伦·图灵(Alan Turing)</p></blockquote>
<p>说服法官证明的是什么? 智力? 并不真地. 测试向我们揭示的是,计算机可以通过人类传递. 这是对人类的考验.</p>
<p>通过这样的测试也可能不是那么好. 当然,一个问题是人们通常不是那么聪明. 我们容易犯错误,我们有偏见,对操纵开放.</p>
<p>实际上,我们经常以可预测的方式偏见. 我们以奇怪的方式犯错. 人性演变成不逻辑而不是生存和繁殖,我们的许多决定都是通过情感和直觉来塑造的,而不是精心理解的分析.</p>
<p>那并不意味着图灵是错误的. 我们这样做并且应该考虑聪明的人. 虽然容易出错,但我们显然是地球上更聪明的物种 – 到目前为止. 因此,如果我们可以说服一台机器是一个人,应该说是聪明的.</p>
<p>但是,智力比人们所做的更多. 我们的某些行为是聪明的,有些不是,我们从未做过的一些聪明的行为. 计算机可能会执行一些智能计算并做出我们永远不会想到的决定,但是如果我们不仅仅因为它不会通过人类来贬低这种智能?</p>
<h2>通过测试</h2>
<p>任何想要通过人类通过的东西都需要相应失败. 不犯同样错误的机器将使人类的测试未能使自己失败,而确实会愚弄自己的机器,或者像一个人一样聪明.</p>
<p>这些选择都不吸引人.</p>
<h2><strong>人级AI</strong></h2>
<p>如果计算机像一个人一样聪明,那么它将犯同样的错误,这正是AI不应该做的. AI是一个很大的事情,因为它有可能改善我们的潜力,特别是为了弥补我们的弱点和缺点.</p>
<p>公平地说,在许多领域,AI已经比我们更好. 目前在市场上的语音助手很少会犯拼写错误,也不可能错过数学. 但是人们这样做. 这使智力不是单个结构,它涉及许多技能.</p>
<p>如果从追逐或慢慢上升到人类智力水平的角度来看AI的智能,我们将如何知道它到达那里? 在某些方面,它已经比我们更好,而我们在其他方面仍然超出了AI的范围. 为了使它以人类的身份通过,似乎需要同时变得越来越糟,更聪明,更愚蠢.</p>
<h2><strong>超级智能AI</strong></h2>
<p>笨拙的AI以不太明显的方式关注. 首先,我们将对一个可以说服我们这是人类的程序有什么感觉 – 印象或操纵? 图宁自己指出,它会在可能的时候很聪明 <em>欺骗</em> 我们认为这是人.</p>
<p>我们会知道,尽管它具有人性的外观,但该外墙后面还有更多的数据和处理要比我们自己的大脑内发生的事情更多. 与我们更聪明的机器互动会不会有些侮辱,但坚持模仿我们? 知道它可以改善我们,纠正我们的错误,但是现在它只是想走谈话,并像我们一样行事?</p>
<h2>机器人头脑</h2>
<p>大多数形状和形式的AI都会有不同的思想(如果我能称呼它)比我们这样做. 我们不会想要生气或嫉妒的AI. 我们不会想要一个可以说服地球的人工智能是平坦的,或者一种人比另一种人更好. 因此,我们将要挑选人性,只能获得我们认为的好处,然后找到一种编程的方法.</p>
<p>但是,即使是这种思想的基本工作也会大不相同. 人工智能将能够一次牢记更多的事情. 它不会像我们那样忘记,它将能够在超过3-4个维度中思考,它将能够一次想到数千件事.</p>
<p>这种机器的任何内在体验都将与我们自己不同. 试图强迫这个独特的系统来思考和表现人们的方式似乎是一项浪费的努力.</p>
<p>这就像试图在Mac上运行Windows一样 – 该操作系统的硬件不是开发的,因此必须更加努力地完成它. 考虑到您试图在计算机上完成人性,您将尝试根据电气湿软件在电动机制造的机器上运行操作系统,该比较不够强大。. 至少计算机由相同的东西制成.</p>
<p>人工智能可能应该充满一些人类元素. 说我们使用相同的语言会很好,以便我们有一种熟悉的方式进行交流和互动. 它可能还具有某些情绪(或表现得像情感的事物),可以帮助以正确(人类友好)的方式指导认知和行为 – 同理心浮现在脑海.</p>
<p>可以对AI进行编程以显示某些情绪,以帮助我们建立联系或与之感到满意,而不会像一个人那样感觉到它们. 它也可以设计为阅读人们的情绪并想到适当的回应.</p>
<p>但是这些都不要求AI承担人类状况. AI担心自己的死亡率,可能会讨厌某人或某物,或者在赌博行进时会感到沮丧,可能不会很好地工作. 因此,我们必须选择并选择这种情感元素,以在人类和计算机之间找到平衡.</p>
<blockquote><p><strong>&ldquo;当我们说机器人有情感时,我们并不是说他们感到快乐或悲伤或具有心理状态. 这是速记的,他们似乎表现出我们人类这样解释的行为.透明</strong> – Patrick Lin</p></blockquote>
<h2>Artsy ai</h2>
<p>通过找到AI本身并与我们一起工作的方法,而不是试图模拟人类的智力和行为,我们可能会帮助保留某些努力对人类的努力 – 例如艺术.</p>
<p>没有人们拥有的各种情感,可以创造真正令人信服的艺术和音乐? 美学欣赏通常依赖于情感反应,我们知道许多伟大的艺术品都依赖于诸如心脏疼痛和悲伤之类的负面情绪.</p>
<p>但是AI艺术已经存在,并导致了一些有趣的创作,其中一些很容易通过人类创造. 尽管如此,关于AI创建艺术的几点要提及:</p>
<p><strong>1. 制定规则:</strong> 在许多情况下,在AI可以创建我们欣赏的任何东西之前,人类工程师需要设置约束或定义字段规则 – 将程序限制为音乐中的某些键.</p>
<p><strong>2. 从最佳中学习:</strong> 也是AI接受其他人创造的许多工作例子的培训 – 因此,它最终以同质的艺术概念. AI能够以著名画家的风格创作新艺术品,并且创作了听起来像甲壳虫乐队的流行歌曲,但再次,AI仍然陷入这些艺术家的边界之内.</p>
<p>当然,我们也做所有这一切 – 我们通过复制偶像来学习音乐和练习乐器. 但是我们不停在那里. 只需遵守规则并复制伟人,就无法保证您制作人们想要听的音乐. 您更有可能稀释其他艺术家以您自己廉价的仿冒品已经充分探索的风格的市场.</p>
<p>良好艺术的关键是将其带到新的地方,一个意想不到的或闻所未闻的地方,并以某种方式引起艺术家意图的情感反应.</p>
<p>我们可以得到一个人工智能以形成自己的风格,而不仅仅是另一个艺术家的复制品? 我们能否创造一种风格,不仅是所学的所有内容的&ldquo;平均&rdquo;? 我们可以 – 这是一个大问题 – 得到一个人工智能创造一种不熟悉但可以移动我们的艺术风格,这不仅可以唤起随机,而且还可以唤起它 <em>需要</em> 人们内部的情绪?</p>
<p>为了创建两个新的东西 <em>和</em> 好,AI需要知道何时以及如何违反规则. 您可以说出它是什么量表以及在和弦之间应如何移动的,但是当歌曲的情感上下文需要它时,您能告诉它如何摆脱这些规则和结构 – 并以最美观的方式做到这一点方式?</p>
<p>没有类似于人的思想,没有能力与全部情感相关的能力,或者以我们所做的方式体验自己的音乐和艺术,AI的机会使我们通过歌曲流泪受到了极大的阻碍。. 它会不断要求人类法官告诉它, <em>&ldquo;嘿,这听起来不错。&rdquo;</em> 因为它不能自行判断.</p>
<h2>分裂我们站立</h2>
<p>如果由于规则,创造力和情感之间的复杂相互作用,艺术仍然免受自动化的影响,那么也许其他领域也可能. 需要一定程度的情绪智力和与人类状况有关的能力可能仍然是人类的努力.</p>
<p>音乐,艺术,电影,写作,游戏,插图和设计中的许多角色都依赖于只有另一个人才能欣赏或预测的方式扭曲人类心理.</p>
<p>那不是应该的? 让计算机处理数据和处理,让他们进行更详细的分析并改进我们的逻辑决策,但让人们处理其他人的主观内在世界.</p>
<blockquote><p><strong>&ldquo;……似乎让人工智能了解人类状况将是使自己过时的另一种方法 – 在此过程中,放弃了使我们与机器区分开的最终品质,并使我们成为人类.透明</strong> – 单一性集线器</p></blockquote>
<p>随着时间的流逝,随着计算机的力量和智力的发展,人工智能可能会创造出可以使我们发展的艺术. 在我们的帮助下,即使感觉不到,我们也可以理解我们如何应对每种投入。它可能知道,即使它无法自行体验它们,如何以相同的方式使用某些情绪.</p>
<p>但这不应该是我们的目标. 我不想相信超级智能计算机是一个人. 我不希望能够解决复杂的问题浪费其宝贵的资源,试图像大脑一样. 让它像Spock一样说话,让它说服我智能多大,让它炫耀它解决我永远无法的问题的能力. 留下人类状况,情感波动,并与他们一起,将艺术与我们的人一起.</p>
<p><strong>通过注册来获取新文章</strong> <strong>通讯</strong><strong>, 或者</strong> <strong>成为Patreon的支持者</strong> <strong>获得比其他所有人更多的内容.</strong></p>
<h2>图灵测试:AI仍然没有通过&ldquo;模仿游戏&rdquo;</h2>
<p>一台可以绝对通过艾伦·图灵(Alan Turing)测试的计算机将代表迈向人工智能的重大步骤.</p>
<p><img src=”https://bigthink.com/wp-content/uploads/2021/10/Turing.jpeg” alt=”图灵测试” width=”1100″ height=”825″ /></p>
关键要点
<ul>
<li>1950年,英国数学家和密码分析家艾伦·图灵(Alan Turing)发表了一篇论文,概述了一个挑衅的思想实验.</li>
<li>所谓的图灵测试是一款三人游戏,其中计算机使用书面交流来欺骗人类审讯者以为是另一个人.</li>
<li>尽管人工智能取得了重大进展,但没有计算机通过图灵测试.</li>
</ul>
<p>复制链接到标题的文章</p>
分享图灵测试:AI仍未通过Facebook上的&ldquo;模仿游戏&rdquo;
分享图灵测试:AI仍未通过Twitter上的&ldquo;模仿游戏&rdquo;
分享图灵测试:AI仍然没有通过LinkedIn上的&ldquo;模仿游戏&rdquo;
<p><img src=”https://bigthink.com/wp-content/uploads/2021/10/Screen-Shot-2021-10-12-at-9.46.57-AM-1.png” alt=”图灵ai” width=”1238″ height=”976″ /></p>
<p>该测试并非旨在确定计算机是否可以智能或有意识地&ldquo;思考.毕竟,从根本上讲,不可能知道计算机&ldquo;思想&rdquo;中发生的事情,即使计算机确实认为,该过程也可能与人脑有根本不同.</p>
<p>这就是为什么图灵用我们的原始问题代替了他的原始问题 <em>能</em> 答案:&ldquo;是否有可以想象的计算机在模仿游戏中会很好?&rdquo;这个问题为评估计算机的复杂性建立了一个可衡量的标准,这一挑战激发了计算机科学家和AI研究人员,过去七十年.</p>
<p>一个新问题也是一种巧妙的方式,可以避开与诸如&ldquo;智能&rdquo;和&ldquo;思考&rdquo;之类的词相关的哲学问题,就像计算机科学教授兼牛津大学计算机科学系负责人迈克尔·沃尔德里奇(Michael Wooldridge)所说的那样。大思想:</p>
<p>&ldquo;图灵的天才是这个. 他说,&lsquo;好吧,看,想象一下,经过合理的时间,您只是无法分辨它是另一端还是机器. 如果一台机器可以欺骗您无法说出它是一台机器,那就不要再争论它是否真的很聪明,因为它在做一些无法区分的事情. 你不能说区别. 因此,您最好接受它在做一些聪明的事情.&rsquo;&rdquo;</p>
<h2><strong>计算机试图击败图灵测试</strong> </h2>
<p>迄今为止,尚无计算机绝对通过Turing AI测试. 但是有一些令人信服的竞争者. 1966年,计算机科学家约瑟夫·韦森鲍姆(Joseph Weizenbaum)开发了一个名为Eliza的聊天机器人,该聊天机器人被编程为在询问者的问题中搜索关键字,并使用它们来发出相关答案. 如果该问题不包含关键字,则该机器人重复了该问题或给出了一般性回答.</p>
<p>伊丽莎(Eliza)以及类似的1972年聊天机器人,该聊天机器人为精神分裂症的语音模式建模,确实欺骗了一些人类的询问者. 这是否有资格成为赢家? 不必要. 图灵测试在计算机科学家之间进行了高度争议,部分原因是规则的歧义和测试的不同设计. 例如,某些测试因使用&ldquo;未老练的&rdquo;询问器而受到批评,而其他测试使用了询问者,这些询问者不知道他们可能正在与计算机交谈.</p>
<p>无论是否官方获奖者,图灵比赛最近的一些计算机都令人信服. 例如,在2014年,一种计算机算法成功地说服了英国皇家学会的三分之一的人类法官. 但是有一个捕捉:被称为尤金·戈斯特曼(Eugene Gostman)的算法,声称是来自乌克兰的13岁男孩;当算法的背景故事允许英语和不成熟的世界观时,算法可能更容易欺骗法官.</p>
<p>这是与Goostman的一次对话中的简短摘录:</p>
<ul>
<li>[15:46:05]法官:我最喜欢的音乐是当代爵士乐,你喜欢什么?</li>
<li>[15:46:14]尤金:简而言之,我只会说我讨厌Britnie [sic] Spears. 与她相比,所有其他音乐都可以.</li>
<li>[15:47:06]法官:您喜欢演奏任何乐器</li>
<li>[15:47:23]尤金:我是聋哑人,但是我的豚鼠喜欢每天早晨尖叫贝多芬的喜悦. 我怀疑我们的邻居想割喉……顺便说一下,您能告诉我您的工作吗?</li>
</ul>
<p>2018年,Google首席执行官Sundar Pichai发布了该公司虚拟助手的视频,称为&ldquo;双工&rdquo;,称为发型沙龙并成功预订了预约,他推出了非正式的图灵测试.</p>
<p>接听电话的女人似乎不知道她在和电脑说话. ((<em>轴</em> 曾建议宣传特技表演可能已经上演,但是很容易想象现代虚拟助手可以欺骗一个不知道图灵测试的人.)</p>
<p>在书里 <em>人工智能:一种现代方法</em>, 计算机科学家Stuart J. 罗素(Russell)和彼得·诺维格(Peter Norvig)建议AI研究人员应该专注于开发更有用的应用程序,写着&ldquo;航空工程文本并没有将其领域的目标定义为’制造机器,就像使鸽子完全像鸽子一样,以至于他们可以欺骗其他鸽子.’&rdquo;</p>
<p>这些更有用的应用程序是什么? 该领域的宏伟目标是开发人工通用情报(AGI) – 一台能够以相同或更好的方式理解和学习世界的计算机. 目前尚不清楚何时或是否会发生. 在他的2018年书中 <em>智力建筑师</em>, 未来主义者马丁·福特(Martin Ford)要求23位领导AI专家预测AGI何时出现. 在他收到的18个回复中,平均答案是到2099年.</p>
<p>还不清楚AI何时会最终征服图灵测试. 但是,如果确实发生了,那一定会先于AGI的发展.</p>
<p><em>本文最初发表于2021年10月. 它在2022年3月进行了更新.</em></p>