(原标题:Q&A with Google DeepMind CEO Demis Hassabis on “a 50% chance” of AGI in the next five to 10 years, bad actors and technical risks, AI regulation, jobs, and more)
6月5日消息,在接受《连线》杂志专访时,谷歌DeepMind首席执行官戴密斯·哈萨比斯(Demis Hassabis)预言,与人类智能相当的人工智能(AI)系统即将问世,通用人工智能(AGI)有50%的可能性将在五到十年内出现,并强调人类需要彻底改变思维和行为方式。此外,哈萨比斯还探讨了人工智能的进展是否会带来灾难性风险,尽管他认为AGI本身将能够拯救世界。他也讨论了人工智能是否会摧毁现有的就业市场,虽然他认为这可能会发生,但他相信至少部分人总能找到工作。
以下为哈萨比斯访谈的精编内容:
问:你在创办DeepMind时曾提到,计划在20年内解决智能问题,并利用这种智能解决其他所有问题。如今已经过去15年,进展如何?
哈萨比斯:我们完全按照计划推进。关于AGI的预测,我认为在未来五到十年内,AGI有50%的可能性会出现。
问:你如何定义AGI?我们该如何判断它的出现?
哈萨比斯:尽管学术界对AGI的定义尚未达成共识,但我们始终将其定义为“具备人类全部认知能力”的系统。
问:谷歌前CEO埃里克·施密特(Eric Schmidt)曾警告称:“如果中国率先实现AGI,西方将陷入困境”,你认同他的观点吗?
哈萨比斯:这个问题仍然是一个未知数。我们通常称这种情况为“硬起飞”场景,即AGI可以极其快速地自我改进,甚至可能在几天内由小小的领先优势变成巨大的技术鸿沟。不过,我认为AGI的发展更可能是一个渐进的过程,数字智能对现实世界的深远影响可能需要十年以上才能逐步显现。
问:既然存在“硬起飞”的可能,谷歌是否认为率先实现AGI会关系到公司的生死存亡?
哈萨比斯:当前,各方都在投入大量资源,竞争越来越激烈。我们希望这些AI系统能带来激动人心的成果——例如新药物、新能源以及其他对人类有巨大帮助的创新。但如果首批AGI系统在设计时包含了错误的价值观,或其构建过程不够安全,这可能会带来严重后果。我最担心的两大风险是:一是恶意行为者滥用AGI;二是AGI自身的技术风险——随着AI变得越来越强大且具备自主性,我们如何确保防护机制足够可靠,从而防止灾难性后果?
问:两年前,包括谷歌在内的多家AI企业曾呼吁“请监管我们”,然而如今美国政府似乎更倾向于加速AI发展,而非加强监管,以确保在与中国的竞争中占得先机。你依然坚持需要监管吗?
哈萨比斯:是的,明智的监管是非常必要的,但它必须保持灵活性,以适应技术研究的进展。更大的挑战在于建立一个国际性的监管框架。
问:如果AI技术发展超越了安全控制界限,DeepMind是否会暂停研发?
哈萨比斯:目前的AI系统并没有带来直接的生存性风险,相关讨论仍处于理论阶段。地缘政治问题可能更加棘手,但只要我们有足够的时间、谨慎的态度以及科学的方法,就能够应对这些挑战。
问:按照你预估的时间表,我们的从容应对的空间似乎不多了。
哈萨比斯:确实,时间紧迫。我们正在加大对网络安全、系统可控性(例如机械可解释性)等领域的研究投入。同时,社会层面的讨论也十分必要——我们该如何构建适当的治理机构?如何就AI的开发和部署达成国际共识并制定基本准则?
问:你认为AI将如何改变或取代人们的工作?
哈萨比斯:通常,新技术或新工具的出现会创造新的工作机会,并且这些工作往往比之前的更好。在接下来的几年里,我们将拥有一些令人惊叹的工具,这些工具将极大提升我们的生产力,实际上让我们看起来像超人一样。
问:如果AGI能够胜任所有人类工作,那么新的岗位不也会被取代吗?
哈萨比斯:确实有许多工作我们不愿意交给机器来做,很多职业依然需要人性化的特质。例如,AI可以辅助医生进行诊疗,但你肯定不希望由机器人来担任护士的角色。
问:当你展望20年后的未来,假设AGI已无处不在,你能想象那是一个怎样的世界吗?
哈萨比斯:如果一切进展顺利,我们将迎来一个“绝对丰裕”的黄金时代。AGI将能解决许多根本性的问题,比如治愈顽疾、延长人类寿命、发现新能源等。人类也可能开启星际殖民的时代,这一进程或许会在2030年左右启动。
问:西方世界似乎并没有公平地分配资源和财富。
哈萨比斯:我完全同意这一点。作为一个物种,人类在合作方面做得还远远不够。但AI所带来的丰裕将改变现有的博弈模式。例如,如果AI能够使海水淡化实现零成本,水资源争夺将不再是零和游戏。
问:如果AGI能够解决这些问题,人类是否会因此变得不那么自私?
哈萨比斯:这是我的期望。AGI将带来极大的财富,而我们需要哲学家和社会科学家引导人类转向非零和思维。
问:由营利性企业主导这场变革是否合理?
哈萨比斯:资本主义和民主制度迄今为止依然是最有效的驱动力。但在进入后AGI时代后,我们需要重新审视经济理论。其实,我并不明白为什么经济学界没有更早地开始研究这个问题。
问:每当写关于AI的文章时,我常常会听到很多愤怒的声音。人们认为AI是被强加给公众的,且没有得到他们的同意。你有过类似的经历吗?
哈萨比斯:我个人没有直接感受到很多这种情绪,但我能理解。这场变革的规模至少与工业革命一样,甚至可能更大。变化的速度令人感到恐惧。然而,当我和人们讨论为何应致力于AI研究时——例如,推进科学、医学以及我们对周围世界的理解,比如我展示AlphaFold如何推动医学突破时,大家都能理解并认可这是我们的道德责任。如果没有AI来帮助我们应对未来的挑战,人类的前景才更让人担忧。
问:在游戏领域的经历对你现在的工作有什么影响?
哈萨比斯:国际象棋比赛培养了我强大的抗压能力,这对我现在的工作非常有帮助。然而,现实世界比游戏要复杂得多。游戏系统相对简单,规则明确,因此AI能够较容易掌握。我们已经在这些领域见识到AI的一些惊人成就——比如Deep Blue在国际象棋比赛中的“神之一手”。
问:AI能在现实中做出像围棋“神之一手”那样的突破吗?
哈萨比斯:这是我对AGI的期望之一:发现新的物理学理论。今天,我们并没有系统能够像围棋这样的游戏那样自我发明新规则。我们可以利用AI解决数学问题,但目前还无法让系统提出像黎曼猜想那样引人入胜的问题——这需要真正的创造力,而我认为现有的系统还没有这种能力。
问:你现在的任务是领导谷歌在AI领域的竞争。看起来我们正处于一个“跳跃游戏”中,每隔几周你或你的竞争对手就会推出一个新模型,声称在某些模糊的基准上取得了优势。有没有一个即将到来的巨大飞跃,能够打破这种模式?
哈萨比斯:我们拥有深厚的技术积累,正在培育三到四个潜在的突破性构想,它们可能媲美“Transformer”架构的影响力。
问:如何避免重蹈2017年的覆辙?当时谷歌虽然发明了Transformer架构,但因为没有及时推动它,最终被OpenAI抢占了先机。
哈萨比斯:那次经历教会了我们一个重要的教训:不能仅仅专注于纯研究。从今天的角度来看,我们本应更快速地将Transformer推向生产阶段并进行规模化应用,而不仅仅是停留在发明的层面。显然,这就是我们这次计划要着力实现的目标。
问:谷歌是几家希望为客户提供智能体来执行任务的公司之一。解决这个关键问题,就是确保它们在做出某些自主决策时不会出错,对吗?
哈萨比斯:所有领先的实验室都在研究智能体,因为它们作为AI助手将具有更广泛的应用。当前的AI模型大多是被动的问答系统,但你不希望它仅仅给你推荐一个餐馆,而是能够帮助你预定这个餐馆。我们面临的挑战之一,就是如何确保这些智能体在执行任务时的安全性和可靠性。因此,我们正在非常努力地在安全方面进行研究,确保它们在上线之前经过充分的测试。
问:这些智能体是否会成为持久的伴侣和任务执行者?
哈萨比斯:我理想中的“通用助手”将深度融入人们的日常生活——它不仅熟悉用户的习惯,还能作为高效的生产力工具,提升生活品质,成为日常生活中的可靠伙伴。
问:在谷歌I/O大会上,你们在搜索页面上引入了“AI模式”。这是否意味着传统的搜索将被生成式AI对话所取代?
哈萨比斯:实际上,这两者各有其明确的应用场景。当你需要快速获取信息,查看一些事实并可能参考来源时,AI驱动的搜索显然非常高效,正如你所看到的AI概览功能那样。但如果你想进行更深度的搜索,那么AI模式将非常适合。
问:你们的AI助手还没有吸收所有人类知识,而Gemini的目标是做这件事。那么,为什么我们还需要搜索?
哈萨比斯:在现阶段及可见的未来,这两种模式各有其不可替代的作用。我们的目标是在这两个领域都占据主导地位。(小小)
