非营利组织 AI Now Institute 的首席人工智能科学家 Heidy Khlaaf 认为 AGI 的概念定义过于恍惚,另一位人工智能研究员、阿尔伯塔大学帮理传授 Matthew Guzdial 暗示。
这篇论文还对超等人工智能(可以或许比任何人类都更好地完成工做的人工智能)的可行性暗示思疑。(OpenAI比来声称,它正正在将其方针从 AGI 转向超等智能。)若是没有“严沉的架构立异”,DeepMind 的做者们并不相信超等智能系统会很快呈现——若是有的话。
“我们估计正在末之前,将开辟出一种超凡的 AGI,”做者写道。“超凡的 AGI 是一种系统,可以或许正在普遍的非物理使命上取至多 99% 的熟练成年人相婚配,”。
Google DeepMind 周三颁发了一篇详尽的论文,引见了其对 AGI 的平安方式。AGI 的粗略定义是可以或许完类所能完成的任何使命的人工智能。
AGI 正在人工智能范畴是一个颇具争议的话题,否决者认为它不外是一个白日梦。其他人,包罗Anthropic 等大型人工智能尝试室,说它即将到来,若是不采纳办法实施恰当的办法,可能会制难性的风险。
起首,该论文将 DeepMind 对 AGI 风险缓解的处置取 Anthropic 和 OpenAI 的处置进行了对比。论文称,Anthropic 不太注沉“稳健的锻炼、和平安”,而 OpenAI 则过于看好“从动化”一种被称为对齐研究的 AI 平安研究形式。
DeepMind 的这份长达 145 页的论文由 DeepMind 结合创始人 Shane Legg 配合撰写,论文预测 AGI 将于 2030 年问世,并可能导致做者所说的“严沉”。论文并没有具体定义这一点,但给出了“风险”这一“永世摧毁人类”的的例子。
不外,该论文确实认为,当前的范式将实现“递归式人工智能改良”:一个正反馈轮回,此中人工智能进行本人的人工智能研究以建立更复杂的人工智能系统。做者断言,这可能很是。
大学研究手艺取监管的研究员桑德拉·沃赫特 (Sandra Wachter) 认为,更现实的担心是人工智能通过“不精确的输出”来强化本身:“跟着互联网上生成式人工智能输出的激增以及实正在数据的逐步代替,模子现正在正正在从着虚假消息或的输出中进修。目前,聊器人次要用于搜刮和寻找。这意味着我们一临着被虚假消息并相信它们的风险,由于它们以很是令人信服的体例呈现。”。
做者写道:“AGI 的变化性质既可能带来令人难以相信的益处,也可能带来严沉的风险。因而,为了负义务地建立 AGI,前沿人工智能开辟人员必需积极规划以减轻严沉风险。”。
虽然 DeepMind 的论文可能很全面,但它似乎不太可能处理关于 AGI 到底有多现实的辩论——以及最需要关心的人工智能平安范畴。