世界顶尖科学家论坛|硅谷“教父”轩尼诗:当摩尔定律走向终结,人工智能何去何从?

发表于 讨论求助 2022-12-04 11:07:43

测温机器人
正在进行的世界顶尖科学家论坛开幕式上,“硅谷教父”约翰·轩尼诗做了关于人工智能的主题演讲。
 
轩尼诗是一名美国计算机科学家,也是斯坦福大学第十任校长,目前是谷歌母公司——美国阿尔法特公司的董事长。世界上第一个网络浏览器发明者、知名互联网专家马克·安德森称他为“硅谷教父”。
 
过去15年,人工智能有了重大的突破
 
轩尼诗表示,过去15年,AI有很多变革,是革命性突破,给人类提供了很大机会改善生活。就拿自动驾驶来说,从概念变成可能。如果自动驾驶得以实现,可以拯救成千上万的在车祸中的生命和金钱;医疗诊断中,AI识别可以做很多判断,皮肤病变,在大流行发生前就有准备;机器翻译可以接触更多新闻,分享信息……
 
有一项挑战,机器学习需要大量计算能力,重量级的计算力,如果早期的推理机去训练阿尔法狗,从最新训练到战胜围棋冠军,比早期推理机有1000倍的能力。在卷积神经网络有不断的突破,不到10年时间,算力增加30万倍。我们的挑战就是打造出性能超强计算机,拓展原来的思路。
 
摩尔定律,差不多两年芯片上的晶体管数量增加一倍,现在我们实现了摩尔定律的15倍能级,晶体管数量500万倍增长。我们达到了摩尔定律的终结阶段,增长曲线越来越慢,这意味着什么?我们需要消耗更多计算能力,不能依赖半导体技术突破,而不是仅仅靠处理器增加。
 
在大数据中心,我们要训练下一代神经网络,需要更强的处理器指标,我们可以看到1986年-2003年计算机性能有了显着提高,大约1000倍,那之后随着摩尔定律的消退,我们看到了缩放比例定律生效。
 
摩尔定律即将走到终极,我们该如何做?
 
轩尼诗说,我们的目标是要做出特定领域的专业处理器。多年来,计算机系统是通用的,它可以运行任何代码,所有的源代码都能在一台机器上运行,我们已经构建了神经网络架构,训练神经网络做一些事情,这是一个计算密集型算法——误差反向传播法,在通用计算机运行很多年以后,常用的方式不那么管用了,而是高密度矩阵乘法。
 
轩尼诗所做的神经网络,每秒处理92万亿次运算,专门针对逻辑运算。下一代神经网络TPU,和英特尔核心架构处理器做比较,会发现明显区别,比如在TPU中,50%硅区用作内存,这对神经网络的推理非常重要。在实际运算中起到关键作用,我们不需要那么多控制逻辑单元,而在TPU中节省下很多。我们要建造的是深层神经网络处理器。通过缩小问题范畴,构建相适应的软件架构,针对神经网络中的推理和训练构建处理器是关键。
 
人脑VS电脑
 
人们真正想解决的问题还是人工智能,电脑如何像人类一样思考呢?乐观主义者认为10年就能发生,或者40年。想一想图像识别,机器并不像婴儿那样学习,大脑是有史以来最好的学习机器,他知道猫为什么是猫,机器虽然知道但不能告诉你。大脑的能量效率也是极高的,大概是20瓦,但机器消耗的功率是1000倍。
 
所以现在的机器和人脑的差距很非常大,但机器也有比人好的地方,机器成为象棋大师只要几天,
 
我们要搞清楚为什么大脑在那么多方面都能比电脑好,以便我们做出人工智能算法,给世界带来更大的价值。
发表
26906人 签到看排名