智源大会2023观后感:对AI更有信心,也更担心人类了
图灵奖得主 Geoffrey Hinton:超级智能将会比预期快得多,很担心人类被它们控制
图灵奖得主、「深度学习之父」Geoffrey Hinton压轴演讲,主题是Two Paths to Intelligence 通向智能的两条通路。
AI教父带给我们的是一项让他相信超级智能将会比预期快得多的研究:凡人计算(Mortal Computation)。演讲描述了一种新的计算结构,在抛弃了软硬件分离的原则后,即不再用反向传播描述神经网络内部路径的情况下,如何实现智能计算。
演讲重点:
辛顿提出了一种全新的实现人工智能的可能:凡人计算。凡人计算让软硬件不再分离,用物理硬件更准确的做并行计算。它可以带来更低的能耗和更简单制作的硬件,但更难以训练和扩展到大规模模型上。
智能群体共享知识的方式有两种,生物性的和数字计算式的,生物性的共享带宽低,很慢,数字拷贝带宽高,且非常快。人是生物性的,而AI是数字性的,因此一旦AI通过多模态掌握更多知识,他们的共享速度很快,也会很快超越人类。
当AI进化到比人类更有智慧的时候,他们很可能会带来巨大的风险。包括对人类的利用和欺骗,试图获取权力。并且很可能对人类的态度并不友好。
全新的计算模式之所以被Hinton称为 Mortal computation,寓意是深刻的:
1)之前Hinton说过,永生事实上已经实现。因为当前的AI大语言模型已把人类知识学习到了千万亿的参数里,且硬件无关:只要复刻出指令兼容的硬件,同样的代码和模型权重在未来都可以直接运行。在这个意义上,人类智慧(而不是人类)永生了。
2)但是,这种软硬件分开的计算在实现的能量效率和规模上是极其低效的。如果抛弃硬件和软件分离的计算机设计原则,把智能实现在一个统一的黑盒子里,将是实现智能的一种新道路。
4)这种软硬件不再分离的计算设计将极大幅度降低能耗和计算规模(考虑一下,人脑的能耗才20瓦)
5)但同时,意味着无法高效的复制权重来复制智慧,即放弃了永生。
人工神经网络是否比真正的神经网络更聪明?
如果一个在多台数字计算机上运行的大型神经网络,除了可以模仿人类语言获取人类知识,还能直接从世界中获取知识,会发生什么情况呢?
显然,它会变得比人类优秀得多,因为它观察到了更多的数据。
如果这个神经网络能够通过对图像或视频进行无监督建模,并且它的副本也能操纵物理世界——那这种设想并不是天方夜谭。
注:正当大家以为演讲兴酱结束的时候,倒数第二页,Hinton——用一种和之前所有科学家都不同的、有点情绪化、百感交集的口吻——说出了他对当下飞速发展的AI的担忧,这也是在他最近毅然决然离开Google并「对自己毕生工作感到后悔,对人工智能危险感到担忧」后,全世界都好奇的心声:
我认为这些超级智能的实现可能比我过去认为的要快得多。
坏人们会想利用它们来做诸如操纵选民的事情。为此,他们已经在美国和许多其他地方使用它们。而且还会用于赢得战争。
要使数字智能更高效,我们需要允许其制定一些目标。然而,这里存在一个明显的问题。存在一个非常明显的子目标,对于几乎任何你想要实现的事情都非常有帮助,那就是获取更多权力、更多控制。拥有更多控制权使得实现目标变得更容易。而我发现很难想象我们如何阻止数字智能为了实现其它目标而努力获取更多控制权。
一旦数字智能开始追求更多控制权,我们可能会面临更多的问题。
作为对比,人类很少去思考比自身更智能的物种,以及如何和这些物种交互的方式,在我的观察中,这类人工智能已经熟练的掌握了欺骗人类的动作,因为它可以通过阅读小说,来学习欺骗他人的方式,而一旦人工智能具备了「欺骗」这个能力,也就具备前面提及的——轻易控制人类的能力。所谓控制,举个例子,如果你想入侵华盛顿的一座建筑物,不需要亲自去那里,只需要欺骗人们,让他们自认为通过入侵该建筑物,就能实现拯救民主,最终实现你的目的(暗讽特朗普)。
这时,年过花甲、为人工智能贡献了毕生心血的 Gerffery Hinton 说:
「 我觉得很可怕,我不知道如何防止这种情况发生,但我老了,我希望像你们这样的许多年轻而才华横溢的研究人员会弄清楚我们如何拥有这些超级智能,这将使我们的生活变得更好,同时阻止这种通过欺骗实现控制的行为……也许我们可以给他们设置道德原则,但目前,我还是很紧张,因为到目前为止,我还想不到——在智力差距足够大时——更智能的事物,被一些反倒没那么智能的事物所控制的例子。假如青蛙发明了人类,你觉得谁会取得控制权?是青蛙,还是人?这也引出我的最后一张PPT,结局。」
听的时候我仿佛在聆听「曾经的屠龙少年,人到暮年、回首一生时发现自己竟养出了恶龙时,发出的末日预言」,刚好夕阳西下, 我第一次深刻认识到AI对人类的巨大风险,无限唏嘘。
和Hinton相比,更年轻的深度学习三巨头之一 Lecun 显然更乐观:
被问到AI系统是否会对人类构成生存风险时,LeCun表示,我们还没有超级AI,何谈如何让超级AI系统安全呢?
让人想到《三体》里地球人对三体文明的不同态度……
那天我还在无限唏嘘的情绪中打算关掉电脑,没想到,最后上场的智源研究院院长黄铁军做了一个完美的闭幕致辞:《无法闭幕》。
黄铁军首先总结前面大家演讲的观点:
AI越来越强,风险显而易见,与日俱增;
如何构建安全AI,我们知之甚少;
可以借鉴历史经验:药物管理、核武管控、量子计算......
但是高复杂度AI系统难以预测:风险测试、机制解释、理解泛化……刚开始
全新挑战目标:AI服务自己目标还是人类目标?
本质上,人们要建设GAI通用人工智能还是AGI人工通用智能?
学术上的共识是AGI人工通用智能:在人类智能所有方面都达到人类水平,能够自适应地应对外界环境挑战完成人类能完成的所有任务的人工智能;也可以叫自主人工智能、超人智能、强人工智能。
一方面,大家对建设通用人工智能热情高涨、投资趋之若鹜,
另一方面,对AI导致人类成为二等公民嗤之以鼻,但这样的二元对立还不是最难的,大不了投票,难的是,面对类似ChatGPT这样的类人工智能Near AGI,我们应该怎么办?
如果人类以和投资建设人工智能一样的热情应对风险,那也许还有可能实现安全的人工智能,但你相信人类能做到吗?我不知道,谢谢!
免责声明:所提供的信息不是交易建议,www.hao76.com对根据本页提供的信息进行的任何投资不承担任何责任。本文内容仅供参考,风险自担!
- 币种
- 全球指数(¥)
- 24H涨幅12
-
BTC460334.803800
$65658.000000+0.15% -
ETH18728.260653
$2671.230000+0.13% -
USDT7.011726
$1.000089-0.01% -
USDC7.008997
$0.999700+0.00% -
BNB4205.958890
$599.900000-1.06% -
BUSD7.013203
$1.000300-0.02% -
XRP4.245221
$0.605500+2.75% -
ADA2.773591
$0.395600-2.95% -
SOL1092.399491
$155.810000-1.57% -
DOGE0.853461
$0.121730-2.00% -
DOT33.681324
$4.804000-2.13% -
DAI7.143610
$1.018900-0.01% -
TRX1.081813
$0.154300-0.04% -
SHIB0.000137
$0.000020+1.59% -
AVAX205.705674
$29.340000-1.42% -
WBTC459027.233650
$65471.500000+0.32% -
LEO40.853370
$5.826956+0.07% -
MATIC2.660011
$0.379400-2.72% -
UNI52.695428
$7.516000+1.91% -
FTT10.118420
$1.443200-0.21% -
LTC491.758554
$70.140000+1.65% -
CRO0.607442
$0.086640-0.35% -
LINK87.778972
$12.520000-2.13% -
XLM0.699007
$0.099700+0.56% -
NEAR37.916029
$5.408000-5.01% -
ATOM35.062511
$5.001000-3.56% -
XMR832.217570
$118.700000-1.94% -
ALGO0.991370
$0.141400-3.11% -
ETC142.535663
$20.330000-1.59% -
BCH2455.988330
$350.300000-3.14% -
VET0.182429
$0.026020-2.33% -
FLOW4.290793
$0.612000-3.54% -
ICP68.764869
$9.808000+1.90%