数据中心算力算法(算力智慧MIT教授)
来源:IEEE编辑:小咸鱼 David,今天小编就来聊一聊关于数据中心算力算法?接下来我们就一起去研究一下吧!
数据中心算力算法
来源:IEEE
编辑:小咸鱼 David
【新智元导读】心智的计算理论是一个根深蒂固的理论,我们一般假设智能、思想、认知属于计算的产物。但也许有意识的体验来自某种「自我组织」。也许认知与计算根本没有关系。长期以来,深度学习和人工神经网络的灵感被很多学者认为是来自人类的大脑。
比如,神经元之间的连接在人工神经网络中,是用节点之间的权重表示的。正值表示兴奋性连接,负值表示抑制性连接。
所有输入都通过权重进行加权并求和(线性组合),然后,通过激活函数控制值域输出。例如,可接受的输出范围通常在0和1之间,也可以在-1和1之间。
在某种意义上,人工神经网络确实粗浅地模仿了大脑底层神经元的活动。
算力「陷阱」2016年,AlphaGo横空出世,以4:1击败了李世石,技惊四座。但不能忽视的是,DeepMind训练AlphaGo时,大概花费了3500万美元!
后来,DeepMind想训练一个玩《星际争霸II》游戏的模型(后来的AlphaStar),就尝试了非常多的方式构建模型,但最后的训练成本还是太高了。
近年来,在自然语言处理领域又开启了一股「大模型」的热潮。
2018年,谷歌提出3亿参数BERT模型惊艳四座,将自然语言处理推向了一个前所未有的新高度。
紧接着,OpenAI在2019年初推出15亿参数的GPT-2,英伟达推出威震天(Megatron-LM)83亿参数,谷歌T5模型110亿参数,微软图灵Turing-NLG模型170亿参数。
这些模型一次次不断地刷新参数规模的数量级,而2020年GPT-3的出现成为这一数量级的分界线。
GPT-3,1750亿参数,参数规模达到千亿级别,直逼人类神经元的数量,能作诗、聊天、生成代码等等。
就在近日,微软和英伟达联手发布了Megatron-Turing自然语言生成模型(MT-NLG),5300亿参数,同时夺得单体Transformer语言模型界「最大」和「最强」两个称号。
这种对于模型参数和训练算力的极致追求,究竟是通往AGI的「必经之路」,还是大公司强调技术实力的「趋之若鹜」呢?
MIT一项最新的研究可能给出了答案。
计算=认知?No!
人类的认知可能与计算没有任何关系。心智的计算理论(The Computational Theory of Mind)是一个根深蒂固的理论,从上世纪40年代早期芝加哥的 Warren McCulloch 和 Walter Pitts 的工作开始,后来在MIT,Jerome Lettvin 和 Humberto 也加入对这个问题的研究。
大脑的判断是基于计算,很多人都会这么认为。
但在人类历史的进程中,许多错误理论有时会流行长达数十年之久。
你以为的就是你以为的吗?比如燃烧的「燃素」理论。从 1667 年起的一个多世纪里,大多数科学家都认为,不同物质之所以能够燃烧,是因为一种常见的物质,这种物质后来被称为「燃素」。
燃素可以通过火消散到空气中。空气吸收燃素的能力是有限的,所以如果只有少量空气可用,火就会熄灭。
直到 19 世纪末,在解释和描述宇宙中可以直接观察的对象的运动规律上,牛顿的经典物理学还占据着统治地位。但到了 20 世纪初,爱因斯坦的理论引发了两次革命,相对论和能量都被量子化了,并产生了新的学科:量子力学。
100 多年后,基于量子力学的成果仍在不断出现,比如量子计算机和量子通信,可能让今天的最先进的数据加密技术变得一文不值。
在过去的 30 年里,人们一直认为阿尔茨海默病的机制是淀粉样蛋白斑块在大脑中的积累,因为观察发现,患阿尔茨海默病的人的大脑中总是有这种斑块。
直到最近,人们才发现,使用降低淀粉样蛋白斑块的药物进行的试验并未缓解阿尔茨海默病的病情。
现在认为,淀粉样斑块是阿尔茨海默病的副作用,而不是病因。过去对阿尔茨海默病病因研究的替代方法投入不够,此类研究经常在同行评议中被视为「非主流」。
长期存在的科学理论可能经常被取代,随着时间的推移,任何特定科学领域的理论,有时都会因为存在根本错误而被淘汰。
意识来源新假说:「自我组织」我们现在都假设智能、思想、认知,这些都是计算的产物。
神经科学计算目前是人类理解这些现象的最普遍方式。神经科学的对应研究对象就是人工智能,而要构建一个智能系统,就要编写计算机程序。
1956年,约翰·麦卡锡 (John McCarthy) 在达特茅斯人工智能研讨会上首次提出了「人工智能」一次,他在会议报告的第一页就明确提出了这一立场。
也许有意识的体验来自某种「自我组织」。而计算主义,可能根本不是我们应该专注的技术核心。
新的卫星发射企业并不能主要通过编程将人们送入太空。虽然在发射过程中会涉及到很多计算机程序,但核心机制是在助推器中用氧气燃烧不含燃素的火箭燃料,并化为对火箭的推力。
Python 脚本本身无法完成工作。同样,只凭计算机计算出原子应该所处的位置和状态,并不会产生结晶,结晶是作为「自我组织」的原子在相互作用力下的产物。
人的大脑内部大量存在二维神经元。研究人员很久以前就确定,这些地方的神经活动可以非常准确地与感官刺激相对应。许多研究人员将这些神经行为描述为「计算的结果」。
他们认为,这些计算是我们能够有意识地体验世界的原因。
但也许这都是错误的。也许这些有意识的体验来自某种「自我组织」(self-organization)。我们与这些感觉相关的计算可能只是我们自己的发明,用来解释感觉机制,但实际上并不是产生感觉的主要原因。
当然,以目前的思维方式来说,这个说法听起来确实挺让人毛骨悚然的。
参考链接:
http://spectrum.ieee.org/cognition-without-computation
http://en.wikipedia.org/wiki/Neural_network
免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com