达茂旗门户网
国际新闻
当前位置: 首页 >> 国际新闻 >> 正文

我们准备好迎接机器人了吗? | 社会科学报


文章作者:www.zx8.org.cn 发布时间:2019-09-24 点击:732



Journal of Social Science 3天前,我想分享

点击上方的“社会科学期刊”以关注我们

随着人工智能技术的飞速发展,其安全性也越来越受到世界范围的关注。一些学者认为,人工智能技术的无限制发展将使机器获得超越人类智能水平的情报,并带来一些不可控制的安全风险。美国《外交事务》杂志于2019年7月/8月出版,肯尼思库基尔(Kenneth Cukier)的文章《我们准备好迎接机器人了吗?如何思考人工智能的未来》(为机器人准备?如何思考AI的未来)探讨了人工智能的安全性问题。

原始:《我们准备好迎接机器人了吗》

编译熊义州

图片网络

维纳的警告:深度学习唤起恐惧

Wiener是人工智能领域的创始人之一。他是神童。他14岁那年从大学毕业,并获得博士学位。四年后从哈佛大学毕业。为了描述他对动物和机器如何依靠反馈机制进行控制和交流的研究,维纳选择了“计算机网络学”一词。 1948年,他将自己的作品命名为《控制论》。在这本书出人意料地成为畅销书之后,其他研究人员开始使用该术语来描述他们使计算机像人的大脑一样处理信息的尝试。

自《控制论》发布以来,维纳已经开始考虑这项技术的社会,政治和道德方面,他得出了一些令人沮丧的结论。他担心由真空管组成但逻辑复杂的科学怪人有一天可能会袭击其创造者。他在1950年的:中写道:“我们剩下的时间不多,我们必须在正义与邪恶之间做出选择。” “我们必须停止亲吻和鞭打鞭子。”

从1950年代到1990年代,大多数人工智能都使用计算机代码来编写计算机程序。相反,统计方法使用数据根据概率进行推断。换句话说,人工智能试图描述猫的所有特征,以便计算机可以识别图像中的猫,并将成千上万只猫的图像输入到算法中,以便计算机可以通过以下方式找到相关的模式本身。这种“机器学习”技术可以追溯到1950年代,但仅在有限的情况下有效。由于计算机处理技术的飞速发展和数据的爆炸性增长,更加复杂的版本深度学习取得了长足的进步。

深度学习的成功再次唤起了维纳对计算机怪物的恐惧,而人工智能领域最大的争论现在围绕安全性展开。微软创始人比尔盖茨和已故的宇宙学家斯蒂芬霍金对此问题声名狼藉。在2014年的一次会议上,技术企业家埃隆马斯克(Elon Musk)将人工智能描述为“召唤魔鬼”。其他人,例如人工智能研究人员Stuart Russell和Max Tegmark以及工程师Jaan Tallinn则认为,人工智能对人类构成了严重威胁,需要立即予以关注。

维纳后来放弃了他最悲观的警告。但是今天,随着人工智能开始入侵发达社会的几乎所有方面,许多思想家回到了半个多世纪前维纳开始提出的问题。社会如何权衡隐私与创新的速度,准确性和可解释性,以及隐私与性能之间的关系将决定人类与智能机器之间的关系。人类处于高风险中,但是如果这些关系得不到适当解决,人工智能将很难向前发展。

警惕“迈达斯之王”

通常,有两种类型的人工智能。第一个是通用人工智能,即AGI(人工通用智能):既可以像人类一样思考,规划和做出反应,又具有“超智能”的系统。通用人工智能系统了解大多数可用信息,以闪电般的速度进行处理,并且永远不会忘记任何信息。想象一下,谷歌有自己的想法(也许愿意)。人工智能的第二种形式是狭义定义的人工智能:在独立任务上表现良好的系统,例如自动驾驶汽车,语音识别技术以及使用高级成像技术进行医学诊断的软件。对通用人工智能的恐惧在于它可能独立于人类控制而发展。狭narrow的人工智能令人担忧的是,其人类设计师可能无法完美表达其意图,并带来灾难性后果。

关于通用人工智能是否可能被完全实现,专家们甚至尚未达成共识。但是,那些相信通用人工智能系统的人担心,如果通用人工智能系统不共享人类价值,就会造成麻烦。计算机科学家丹尼尔希利斯(Daniel Hillis)在《潜在思维》(可能的想法)中写道:“人类可以看作是小麻烦,就像野餐中的蚂蚁一样。” “例如,我们最复杂的机器,互联网已经超出了一个人所能理解的范围,他们表现出的行为可能远远超出了我们的知识。”

问题是如何确定这样一个系统的目标,或者工程师称之为“价值调整”。人们担心的是,人工智能将变得有意识并想要消灭人类,但是这种系统可能会误解人类给出的指令。人工智能研究员斯图尔特罗素(Stewart Russell)称这个问题为“迈达斯之王”,它源于古希腊神话,他说国王实现了改变他所触摸到的一切的愿望。在黄金中,我发现我既不能吃也不能喝黄金。通用人工智能被比作“ Middas King问题”,它能够执行几乎所有需要执行的任务。如果有人要求它生产回形针,但未指定数量,则系统不会理解几乎任何东西都大于人体形状。将把整个地球变成一个回形针工厂,然后殖民其他星球以开采更多矿石。生产回形针。这是一个荒谬的例子,但却是一个广泛流传的严肃例子。

创造性的预防性操作漏洞

持不同意见的另一方驳回了这一担忧。他们认为,至少在目前,人工智能的危害是最小的。正如斯坦福大学的人工智能研究员安德鲁伍(Andrew Ng)所说,他担心人工智能就像担心“火星上的人口过多”一样。他认为研究人员应该尝试使人工智能发挥作用,而不是设计阻碍人工智能的方法。

心理学家史蒂文平克(Steven Pinker)更进一步。他认为,对人工智能的可怕恐惧实际上是一种“自我反驳”。他认为,黯淡的前景取决于以下前提:首先,人类的才能如此之高,以至于他们可以设计出无所不知和无所不能的人工智能,但如此愚蠢以至于它将让它控制宇宙,而不是测试它的工作方式。其次,人工智能是如此聪明,它可以成功地改变元素并重新连接大脑,但是它的能量太低,这是由于一些基本的误解。造成严重损失。

失控的人工智能系统可能损害人类的想法是基于科学的,但这更多是一种想象。投资大量资源来防止这种结果将产生误导。正如平克(Pinker)指出的那样,反乌托邦式的预言忽略了法规,法律和制度在规范技术方面的作用。更令人信服的论点考虑到这些因素,并要求严格执行基本保障措施。在这方面,网络安全的历史提供了有用的参考。工程师创建Internet时,他们忽略了在软件协议中建立强大安全性的需求。今天,这已成为Internet的重要漏洞。人工智能设计者应该从这个错误中吸取教训,并从一开始就将安全因素纳入人工智能生产中,而不是在以后进行补救。

罗素呼吁“可证明的人工智能”,这个概念可以应用于一般的人工智能和狭义的人工智能。他写道,工程师应为人工智能系统提供一个明确的主要目标。例如,管理城市的网格并对其进行显式编程,以便它们不仅可以确定人们的目标,还可以通过观察人类行为来理解它们。具有更多信息的能力。这样,该系统的目标将是“最大限度地提高人们对未来生活的偏好”。换句话说,电网人工智能应该找到减少能源消耗的方法,而不是为了节省电费而破坏人类。

认知科学家丹尼尔丹内特(Daniel Dennett)为安全挑战提出了一个更具创造性的解决方案。为什么不要求AI操作员获得药剂师或土木工程师等执照?他写道:“在保险公司和其他承销商的压力下,监管机构可能会迫使人工智能系统的创造者竭尽所能,发现并揭示其产品中的弱点和弱点,并对那些有权操作产品的人进行培训。这些系统。 “ Dennett版本没有像通常的测试那样评估机器模仿人类行为的能力,而是判断人类:除非经过高级人工智能培训的人员能够检测到系统中的缺陷,否则它就无法投入生产。/p>

该文章最初发表于1873年《社会科学杂志》第7版。未经许可,严禁转载。本文中的内容仅代表作者的观点,并不代表本报纸的立场。

社会科学杂志

制作优质的思想产品

收款报告投诉

点击上方的“社会科学期刊”以关注我们

随着人工智能技术的飞速发展,其安全性也越来越受到世界范围的关注。一些学者认为,人工智能技术的无限制发展将使机器获得超越人类智能水平的情报,并带来一些不可控制的安全风险。美国《外交事务》杂志于2019年7月/8月出版,肯尼思库基尔(Kenneth Cukier)的文章《我们准备好迎接机器人了吗?如何思考人工智能的未来》(为机器人准备?如何思考AI的未来)探讨了人工智能的安全性问题。

原始:《我们准备好迎接机器人了吗》

编译熊义州

图片网络

维纳的警告:深度学习唤起恐惧

Wiener是人工智能领域的创始人之一。他是神童。他14岁那年从大学毕业,并获得博士学位。四年后从哈佛大学毕业。为了描述他对动物和机器如何依靠反馈机制进行控制和交流的研究,维纳选择了“计算机网络学”一词。 1948年,他将自己的作品命名为《控制论》。在这本书出人意料地成为畅销书之后,其他研究人员开始使用该术语来描述他们使计算机像人的大脑一样处理信息的尝试。

自《控制论》发布以来,维纳已经开始考虑这项技术的社会,政治和道德方面,他得出了一些令人沮丧的结论。他担心由真空管组成但逻辑复杂的科学怪人有一天可能会袭击其创造者。他在1950年的:中写道:“我们剩下的时间不多,我们必须在正义与邪恶之间做出选择。” “我们必须停止亲吻和鞭打鞭子。”

从1950年代到1990年代,大多数人工智能都使用计算机代码来编写计算机程序。相反,统计方法使用数据根据概率进行推断。换句话说,人工智能试图描述猫的所有特征,以便计算机可以识别图像中的猫,并将成千上万只猫的图像输入到算法中,以便计算机可以通过以下方式找到相关的模式本身。这种“机器学习”技术可以追溯到1950年代,但仅在有限的情况下有效。由于计算机处理技术的飞速发展和数据的爆炸性增长,更加复杂的版本深度学习取得了长足的进步。

深度学习的成功再次唤起了维纳对计算机怪物的恐惧,而人工智能领域最大的争论现在围绕安全性展开。微软创始人比尔盖茨和已故的宇宙学家斯蒂芬霍金对此问题声名狼藉。在2014年的一次会议上,技术企业家埃隆马斯克(Elon Musk)将人工智能描述为“召唤魔鬼”。其他人,例如人工智能研究人员Stuart Russell和Max Tegmark以及工程师Jaan Tallinn则认为,人工智能对人类构成了严重威胁,需要立即予以关注。

维纳后来放弃了他最悲观的警告。但是今天,随着人工智能开始入侵发达社会的几乎所有方面,许多思想家回到了半个多世纪前维纳开始提出的问题。社会如何权衡隐私与创新的速度,准确性和可解释性,以及隐私与性能之间的关系将决定人类与智能机器之间的关系。人类处于高风险中,但是如果这些关系得不到适当解决,人工智能将很难向前发展。

警惕“迈达斯之王”

通常,有两种类型的人工智能。第一个是通用人工智能,即AGI(人工通用智能):既可以像人类一样思考,规划和做出反应,又具有“超智能”的系统。通用人工智能系统了解大多数可用信息,以闪电般的速度进行处理,并且永远不会忘记任何信息。想象一下,谷歌有自己的想法(也许愿意)。人工智能的第二种形式是狭义定义的人工智能:在独立任务上表现良好的系统,例如自动驾驶汽车,语音识别技术以及使用高级成像技术进行医学诊断的软件。对通用人工智能的恐惧在于它可能独立于人类控制而发展。狭narrow的人工智能令人担忧的是,其人类设计师可能无法完美表达其意图,并带来灾难性后果。

关于通用人工智能是否可能被完全实现,专家们甚至尚未达成共识。但是,那些相信通用人工智能系统的人担心,如果通用人工智能系统不共享人类价值,就会造成麻烦。计算机科学家丹尼尔希利斯(Daniel Hillis)在《潜在思维》(可能的想法)中写道:“人类可以看作是小麻烦,就像野餐中的蚂蚁一样。” “例如,我们最复杂的机器,互联网已经超出了一个人所能理解的范围,他们表现出的行为可能远远超出了我们的知识。”

问题是如何确定这样一个系统的目标,或者工程师称之为“价值调整”。人们担心的是,人工智能将变得有意识并想要消灭人类,但是这种系统可能会误解人类给出的指令。人工智能研究员斯图尔特罗素(Stewart Russell)称这个问题为“迈达斯之王”,它源于古希腊神话,他说国王实现了改变他所触摸到的一切的愿望。在黄金中,我发现我既不能吃也不能喝黄金。通用人工智能被比作“ Middas King问题”,它能够执行几乎所有需要执行的任务。如果有人要求它生产回形针,但未指定数量,则系统不会理解几乎任何东西都大于人体形状。将把整个地球变成一个回形针工厂,然后殖民其他星球以开采更多矿石。生产回形针。这是一个荒谬的例子,但却是一个广泛流传的严肃例子。

创造性的预防性操作漏洞

持不同意见的另一方驳回了这一担忧。他们认为,至少在目前,人工智能的危害是最小的。正如斯坦福大学的人工智能研究员安德鲁伍(Andrew Ng)所说,他担心人工智能就像担心“火星上的人口过多”一样。他认为研究人员应该尝试使人工智能发挥作用,而不是设计阻碍人工智能的方法。

心理学家史蒂文平克(Steven Pinker)更进一步。他认为,对人工智能的可怕恐惧实际上是一种“自我反驳”。他认为,黯淡的前景取决于以下前提:首先,人类的才能如此之高,以至于他们可以设计出无所不知和无所不能的人工智能,但如此愚蠢以至于它将让它控制宇宙,而不是测试它的工作方式。其次,人工智能是如此聪明,它可以成功地改变元素并重新连接大脑,但是它的能量太低,这是由于一些基本的误解。造成严重损失。

失控的人工智能系统可能损害人类的想法是基于科学的,但这更多是一种想象。投资大量资源来防止这种结果将产生误导。正如平克(Pinker)指出的那样,反乌托邦式的预言忽略了法规,法律和制度在规范技术方面的作用。更令人信服的论点考虑到这些因素,并要求严格执行基本保障措施。在这方面,网络安全的历史提供了有用的参考。工程师创建Internet时,他们忽略了在软件协议中建立强大安全性的需求。今天,这已成为Internet的重要漏洞。人工智能设计者应该从这个错误中吸取教训,并从一开始就将安全因素纳入人工智能生产中,而不是在以后进行补救。

罗素呼吁“可证明的人工智能”,这个概念可以应用于一般的人工智能和狭义的人工智能。他写道,工程师应为人工智能系统提供一个明确的主要目标。例如,管理城市的网格并对其进行显式编程,以便它们不仅可以确定人们的目标,还可以通过观察人类行为来理解它们。具有更多信息的能力。这样,该系统的目标将是“最大限度地提高人们对未来生活的偏好”。换句话说,电网人工智能应该找到减少能源消耗的方法,而不是为了节省电费而破坏人类。

认知科学家丹尼尔丹内特(Daniel Dennett)为安全挑战提出了一个更具创造性的解决方案。为什么不要求AI操作员获得药剂师或土木工程师等执照?他写道:“在保险公司和其他承销商的压力下,监管机构可能会迫使人工智能系统的创造者竭尽所能,发现并揭示其产品中的弱点和弱点,并对那些有权操作产品的人进行培训。这些系统。 “ Dennett版本没有像通常的测试那样评估机器模仿人类行为的能力,而是判断人类:除非经过高级人工智能培训的人员能够检测到系统中的缺陷,否则它就无法投入生产。/p>

该文章最初发表于1873年《社会科学杂志》第7版。未经许可,严禁转载。本文中的内容仅代表作者的观点,并不代表本报纸的立场。

社会科学杂志

制作优质的思想产品

下一条: 这个小国不得了 侵略英国百年 如今研发出堪称全能选手的护卫舰