您的位置:创新中国网 > 科技

人工智能学科的核心是这样一种想法即有一天我们将能够建造一台与人类一样聪明的机器

发布时间:2022年03月28日 10:43 来源:网易 编辑:苏婉蓉   阅读量:6371   
导读:简短的回答:也许在我们有生之年,但不要坚持 人工智能学科的核心是这样一种想法,即有一天我们将能够建造一台与人类一样聪明的机器这样的系统通常被称为通用人工智能或AGI,这是一个将概念与更广泛的研究领域区分开来的名称它还清楚地表明,真正的...

简短的回答:也许在我们有生之年,但不要坚持

人工智能学科的核心是这样一种想法即有一天我们将能够建造一台与人类一样聪明的机器

人工智能学科的核心是这样一种想法,即有一天我们将能够建造一台与人类一样聪明的机器这样的系统通常被称为通用人工智能或 AGI,这是一个将概念与更广泛的研究领域区分开来的名称它还清楚地表明,真正的人工智能拥有广泛而适应性强的智能迄今为止,我们已经建立了无数在特定任务上超人的系统,但在一般脑力方面却没有一个能与老鼠匹敌

但是,尽管这一想法在人工智能领域具有核心地位,但研究人员对于何时才能真正实现这一壮举几乎没有达成一致意见。

研究人员猜测,到 2099 年,我们将有 50% 的机会建造 AGI

在本周出版的一本名为《智能建筑师》的新书中,作家和未来学家马丁福特采访了当今在人工智能领域工作的 23 位最杰出的男性和女性,包括 DeepMind 首席执行官德米斯哈萨比斯,谷歌人工智能首席杰夫迪恩和斯坦福人工智能总监费——李飞在一项非正式调查中,福特要求他们每个人猜测哪一年将有至少 50% 的机会建造 AGI

在福特采访的 23 人中,只有 18 人回答,其中只有两人被记录在案有趣的是,这两个人提供了最极端的答案:谷歌的未来学家兼工程总监 Ray Kurzweil 建议,到 2029 年,将有 50% 的机会建造 AGI,机器人专家兼联合创始人 Rodney Brooks iRobot 选择了 2200 年其余的猜测分散在这两个极端之间,平均估计是 2099 年——81 年后

换句话说:AGI 是一个舒适的距离,尽管你可能活着看到它发生。两家公司表示,他们欢迎对人工智能的使用方式进行明确监管,这对于客户和公众的信心都至关重要。

AGI 意味着具有广泛智能的 AI,但我们缺少许多关键组件来实现它。

这远非人工智能研究人员就这一主题进行的第一次调查,但它提供了一个罕见的关于当前正在重塑世界的领域中精英观点的快照福特在接受The Verge 采访时表示,特别有趣的是,他收集的估计偏向于更长的时间框架,而不是更早的调查,后者往往接近30 年大关

我认为你的积极性或乐观程度与你的年轻程度之间可能存在粗略的相关性,福特说,并指出与他交谈的几位研究人员都是 70 多岁,并且经历了该领域的起起落落一旦你在这方面工作了几十年,也许你确实会变得更加悲观

福特说,他的采访还揭示了专家意见中的一个有趣分歧——不是关于何时可以建立 AGI,而是关于是否可能使用当前的方法。

福特采访的一些研究人员表示,我们拥有所需的大部分基本工具,而构建 AGI 只需要时间和精力其他人说,我们仍然缺少实现这一目标所需的大量根本性突破福特说,值得注意的是,研究人员的工作以深度学习为基础,他们倾向于认为未来的进展将通过使用当代人工智能的主力神经网络来取得那些具有人工智能其他部分背景的人认为,构建 AGI 需要额外的方法,如符号逻辑无论哪种方式,都有相当多的礼貌分歧

深度学习阵营中的一些人非常贬低试图在人工智能中直接设计诸如常识之类的东西,福特说他们认为这是一个愚蠢的想法其中一位说这就像试图将一些信息直接粘贴到大脑中一样

许多专家说我们缺少创建 AGI 的关键构建块

福特的所有受访者都指出了当前人工智能系统的局限性,并提到了他们尚未掌握的关键技能其中包括迁移学习和无监督学习

受访者还强调,在人工智能这样的领域进行预测是完全不可能的,因为在这些领域的研究时断时续,关键技术在首次发现几十年后才充分发挥其潜力。。

加州大学伯克利分校教授斯图尔特·拉塞尔撰写了一本关于人工智能的基础教科书,他说创造 AGI 所需的那种突破与更大的数据集或更快的机器无关,所以他们不能很容易绘制出来。

我总是讲述核物理学中发生的事情,拉塞尔在接受采访时说欧内斯特·卢瑟福在 1933 年 9 月 11 日表达的共识是,永远不可能从原子中提取原子能所以,他的预测是永远不会,但事实证明,第二天早上,利奥·西拉德读了卢瑟福的演讲,被它惹恼了,并发明了由中子介导的核链式反应!卢瑟福的预测是永远不会,而事实是大约 16 小时后类似地,对我来说,对 AGI 的这些突破何时到来做出定量预测是徒劳的

福特说,这种基本的不可知性可能是他与之交谈的人如此不愿意将他们的名字放在他们的猜测旁边的原因之一那些确实选择了较短时间框架的人可能会担心被坚持下去,他说

许多研究人员表示,经济问题比来自超级智能的威胁更为紧迫。从这一点来讲,这与汽车安全规则类似。他们说,在具体行事过程中充分考虑各种责任,也符合他们的经济利益。

博斯特罗姆说:担心的不是 会因为我们奴役它而憎恨或怨恨我们,或者会突然出现意识的火花并且它会反抗,而是它会非常有能力地追求一个不同的目标从我们真正想要的。

大多数受访者表示,与经济中断和在战争中使用先进自动化等问题相比,生存威胁的问题极其遥远为语言处理领域做出开创性贡献的哈佛 AI 教授 Barbara Grosz 表示,AGI 伦理问题主要是分散注意力真正的问题是,我们现在有许多道德问题,我们拥有的人工智能系统,格罗斯说我认为因为可怕的未来情景而分散人们的注意力是很不幸的

福特说,这种反复来回可能是智能建筑师最重要的收获:在像人工智能这样复杂的领域中,确实没有简单的答案即使是最精英的科学家也不同意世界面临的基本问题和挑战

人们没有得到的主要结论是存在多少分歧,福特说整个领域是如此难以预测人们不同意它的发展速度,下一个突破将是什么,我们将多快达到 AGI 或最重要的风险是什么

那么我们可以坚持哪些硬道理呢只有一个,福特说无论人工智能接下来会发生什么,这将是非常具有破坏性的

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

专题报道