人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)

将人造大脑变成现实。

人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)(1)

即使绝世聪明,有的人日子并不好过,只因为他在地球上没有同类。例如交流电发明人尼古拉·特斯拉。他有过很多很多惊世骇俗的发明,最终却穷困潦倒。 18 9 6年他说出下面这句话时,不会有太多人留意:

“我认为任何一种对人类心灵的冲击都比不过一个发明家亲眼见证人造大脑变为现实。”

2003年,一位名叫马丁·埃伯哈德的工程师,用“特斯拉”为他正要成立的电动汽车公司命名。后来,这家公司落到了硅谷狂人马斯克的手中。

谷歌的创始人佩奇,在12岁时,读到特斯拉的传记,留下了眼泪。多年以后,佩奇与马斯克成为挚友,还差点儿买了特斯拉电动车公司。特斯拉在冥冥中将两位后世的天才连接在一起。

一天,佩奇在马斯克的私人飞机上聊起人工智能。马斯克说:“你应该去看看伦敦的这家公司”。–他在该公司投了650万美金。凌晨 4 点钟,马斯克助理的越洋电话唤醒了哈萨比斯,初创公司DeepMind的CEO,另一位天才。

谷歌在收购争夺战中赢了Facebook,哈萨比斯也得到了谷歌的资金、资源和承诺。从此,他开始为自己的梦想疾速飞行。绝大多数人看不懂他的目的。确切而言,哈萨比斯要做的,正是特斯拉在120年前的预言:

将人造大脑变成现实。

几个孤独的大脑,隔世相逢。

人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)(2)

一、汽车比人快,电脑比人会下棋,有何牛?

最早阿尔法狗战胜李世石时,朋友圈里较多的“不屑”是:刘翔也跑不过汽车啊?这有什么?

天壤之别。

以前的各种科学进步,都是人类的自我延伸,一切皆在掌握。从石器到宇宙飞船,各种发明,算起来都还是人类的工具。

而人工智能则不同,它会和人一样思考,会自我学习,越来越聪明。

人工智能就是让计算机完成人类心智能做的各种事情。通常,我们会说有些行为(如推理)是“智能的 ” ,而有些(如视觉)又不是。但是,这些行为都包含能让人类和动物实现目标的心理技能,比如知觉、联想、预测、规划和运动控制。

以前人是养猪养狗,就算养老虎,人都还是主人。

人工智能发展到某一天,可能人类成猪了。

拿围棋来说,很多人类现在阿尔法元面前,真的就是一头猪。

工具是复制,人工智能是学习式复制。

例如,很多人工智能应用甚至不再需要编程:它们可以基于已有架构实现从经验中自我学习。

更让人担心的是,人类至今不明白意识和自由意志是什么。“智能”涉及意识、自我、心灵、无意识的精神等等问题。如果人工智能具备了意识和自由意志,人类还是万物之灵吗?

还有一种误读,是担心人工智能被“不法分子”利用。这同样是低估了人工智能。

科技的进步从来都会被好人和坏人同时利用。英国、以色列与挪威,都已部署自主导弹与无人操控的无人机,具“射后不理”能力的导弹,多枚导弹还可互相沟通,分享找到攻击目标。这些武器还未被大量投入,但很快就会出现在战场上,且并非使用人类所设计的程序,而是完全利用机器自行决策。

假如被恶人黑客控制,后果的确严重。

但我们更该担心的是人工智能自己失控,成为“不法分子”。

霍金、盖茨、马斯克等人都对于人工智能技术的未来公开表示忧心,人工智能若在许多方面超越人类智能水平的智能、不断更新、自我提升,进而获取控制管理权。

马斯克称人工智能是“召唤恶魔”行为。

英国发明家Clive Sinclair认为一旦开始制造抵抗人类和超越人类的智能机器,人类可能很难生存。

盖茨同意马斯克和其它人所言,且不知道为何有些人不担忧这个问题。

DeepMind的哈萨比斯愿意将公司卖给谷歌,条件之一就是要设立AI伦理委员会,针对人工智能的应用制定政策,防范人工智能沦为犯罪开发者。

霍金说:“人工智能崛起要么是人类最好的事,要么就是最糟糕的事。人类需警惕人工智能发展的威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化限制,将无法与之竞争。”

即使AI不给人带来灭顶之灾,也会在社会伦理层面带来巨大颠覆。

例如,人工智能与人脑智能有机融为一体,成为新一代的赛博人(Cyberman,人机复合),那么人会永生吗?人会和AI结婚吗?

二、为什么AI用围棋作为挑战对象?

围棋确是人类游戏之巅峰。当年深蓝战胜国际象棋世界冠军,靠的是穷举法,而围棋变幻莫测,计算量太大,没法硬来。

围棋有多难呢?围棋究竟有多少种变化?

棋盘上有361个交叉点。假如不考虑下棋的常识,比较靠谱的一种计算方法是:

  • 第一手的可能性有361种;
  • 第二手的可能性有(剩下的)360种;

以此类推,变化数量为:361*360*359……*1=2.018乘以10的170次方。

这还没考虑打劫、提子反提等。打劫极为复杂,以至于去年人机大战中,人们怀疑李世石被约定不能使用打劫的手段。假如算上打劫,上面的变化几乎变得无穷尽了。

这是什么概念?可观测的宇宙中所有原子的总数,约为10的80次方。

围棋的变化,比整个宇宙的原子还要多。

但是,即使如此,围棋仍然是一种完美信息博弈。某种意义上,这仍然是一个有边界的问题。

不过,围棋可能是人世间最复杂的完美信息博弈。

这就是人工智能用围棋作为研究对象,因为:

  1. 足够难;
  2. 有边界。

人类实际生活中遇到大量的问题,所获得的信息是不完全的。在这种不完全、非确定的情况下,如何去判断?这是一个很难的问题。

比如说投资。

有些事情是简单的复杂事情,例如围棋;有些事是复杂的简单事情。

很多貌似不难的问题,对AI而言,现阶段比围棋难得多。

三、AI是如何通过左右互搏来练功的?

左右互搏,对人而言,道理上讲不通。

因为左右手都是大脑控制,除非你大脑分裂,你没法自己骗过自己,也就谈不上对弈。

例如,两个能预测未来的神仙就没法下棋,都知道对方下一步走在哪里,还有啥搞头呢?所以生活中给我们带来喜怒哀乐的“不可测”,是神仙都羡慕的礼物。

阿尔法狗未必要用两只“狗”来对弈。它先在棋盘的这一测下一手黑棋,然后走到棋盘的例外一侧,归零,站在白棋的角度,重新思考局面,然后走出对白棋而言胜率最大的一手。

对人类而言,“杂念”难以清除。然而,阿尔法狗就是这样一种思考机器,不管过去发生了什么,永远从头计算,绝不为过去辩解。想想看,我们身边的牛人,大多也有这特点。

阿尔法狗项目负责人David Silver说,在某种意义上,自我对弈(self-play)训练已经是对抗性质的:每次迭代都试图找到对抗上一版本的「anti-strategy」。

但是反过来,人类无法做到“左右互搏”,恰恰是因为人类有意识。

一个人的意识应该是惟一的,否则何谓自我?

为什么分布式的、时序上有先后的神经网络的活动会最终显现为一个统一的意识体验?这是一个谜。

假如一个人可以被复制,那个复制人已经不是“我”了。

阿尔法狗可以自己和自己下棋,最完美的分裂人格,也没法做到这一点。但是,如果没有“统一”,会有自我意识吗?假如没有自我意识,复制大脑的“永生”又有何意义呢?

四、阿尔法狗是如何进化的?

从国际象棋到围棋,计算机挑战人类大脑的路线图:

  • 深蓝采用是穷尽法。有点儿像蛮力破解,即规则驱动的暴力搜索;
  • 然后是到特征驱动的线性模型;
  • 再到数据驱动的深度学习,越来越强的模式识别能力让“直觉”两字从神秘莫测,变成了通过大量样本就能学到的模型。

AlphaGo这个系统主要由几个部分组成:

  1. 走棋网络(PolicyNetwork),给定当前局面,预测/采样下一步的走棋。
  2. 快速走子(Fastrollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。
  3. 估值网络(ValueNetwork),给定当前局面,估计是白胜还是黑胜。
  4. 蒙特卡罗树搜索(MonteCarlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。

AlphaGo结合了3大块技术:

  1. 先进的搜索算法;
  2. 机器学习算法(即强化学习);
  3. 深度神经网络。

这三者的关系大致可以理解为:

蒙特卡洛树搜索 (MCTS) 是大框架,是许多牛逼博弈AI都会采用的算法。

强化学习 (RL) 是学习方法,用来提升AI的实力。

深度神经网络 (DNN) 是工具,用来拟合局面评估函数和策略函数。

这些都不是AlphaGo或者DeepMind团队首创的技术。但是强大的团队将这些结合在一起,配合Google公司强大的计算资源,成就了历史性的飞跃。

对战柯洁的Master,能力大增,主要是因为价值/策略网络的改善,训练和架构都变得更好。

这次的阿尔法元,让强化学习进行的更彻底,并用深度残差网络(ResNet)对输入进行简化,尽管“没有提出任何新的方法和模型”,结果极为震撼。

田渊栋说:

让我非常吃惊的是仅仅用了四百九十万的自我对局,仅仅用这些样本就能学得非常好,只能说明卷积神经网络(CNN)的结构非常顺应围棋的走法。

说句形象的话,这就相当于看了大英百科全书的第一个字母就能猜出其所有的内容。

这是一次工程和算法的胜利。

五、AI对职业棋手最大的冲击是什么?

围棋会没落吗?不会。据说深蓝赢了卡斯帕罗夫,学国际象棋的人翻了一番。围棋的基数比较小,没准儿增速更大。

AI对职业棋手的冲击主要有:

(1)与“围棋上帝”的水平差距

当年日本顶尖棋手,认为自己和围棋上帝的差距大约是两个子。现在看来,可能不止。

叔本华说:“每个人都将自身所感知的范围当做世界的范围 ”。

现在看,人类对围棋边界的预测多么幼稚啊。可以想象,在那些没有边界的问题上,人类是多么的初级。

(2)完全颠覆了原有的认知与定式

就像第一手点三三,连续二路爬,各种碰,AI什么棋都敢下。换个角度看,我们原来认为理所当然的东西,很多都是错的。哪里有什么定式啊。

(3)中腹也是可以计算的

有句围棋谚语叫“高手在腹”。人们通常认为棋盘中腹很难计算,要靠超一流的棋感。结果呢?不仅可以算,而且AI还算得非常好。

进而言之,AI的大局观非常好。

(4)超人的学习速度

三天抵何止一万年。

本质上,AI就是一种会思考、会学习、并且会加速聪明的机器。

(5)AI可能有意识

围棋是中国少有的数目化事物,它兼具西式的精确量化,以及东方的混沌哲学。所谓大局观、天才的感觉、石破惊天的一手,都被认为是计算无法企及之处,是围棋的神秘魅力。

阿尔法狗下的棋,有些几乎是吴清源这个级别的棋手才能走出。旁观者会用“天外飞仙”来形容这类奇思妙想,所谓“天才的感觉”。

也有人说,AI这次在围棋上战胜人类顶尖高手,基本证明了所谓的“棋感”、“棋风”、“大局观”等围棋高手所谈论的虚的能力,并不是人类独有的,经过训练的神经网络也会有。所以,随着技术的进步,电脑也会能够欣赏艺术(音乐、画作、小说、笑话),能够创作文学、艺术作品,能够针对不同的情况形成自己的“情绪”。

此前,一个顶尖围棋高手被认为有赖天赋,因为有些招法需要天外飞仙似的灵感。

现在看来,所谓人类的灵性,可能只是大脑事后的包装。

六、人工智能真的会有意识吗?

什么是意识?

难道意识不是一个巨大的幻觉?

塞缪尔·巴特勒说:

植物不知道它在做什么,仅仅是因为它没有眼睛、耳朵或大脑吗?如果我们说它是机械作用的,且只靠机械作用,那我们是不是也不得不承认其他那些明显非常谨慎的行动也是机械的?如果在我们看来,该植物是靠机械作用来杀死并吃掉一只苍蝇的,那么对这个植物来说,是不是人一定不是靠机械作用杀死并吃掉一只羊的呢?

丹尼尔·丹尼特在其著作《意识的解释》里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。

库兹韦尔的立场是:

如果生物体在做出情绪反应时完全令人信服,对于这些非生物体,我会接受它们是有意识的人,我预测这个社会也会达成共识,接受它们。

请注意,这个定义超越可以通过图灵测试实体的范围——因为图灵测试至少需要掌握人的语言。

但只要非生物体足够像人,我会接纳它们,我相信,社会中的大部分人也会如此,不过,我也会把那些具有人类一样的情感反应却不能通过图灵测试的实体包括进来,例如,孩子们。

在库兹韦尔看来,如果你接受这样一种信仰飞跃,即非生物体就其感受性所作出的反应是有意识的,那么这也就意味着:

意识是实体整体表现出来的涌现特性,而不是由其运行机制产生的。

简而言之,他选择“相信”。

人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)(3)

库兹韦尔的态度让我想起一次在教堂里听布道。牧师是一位博士,和我们一样从小接受无神论教育。他说,你越接受教育越难信上帝。所以,最好的办法是只要你选择相信。这就是基督教,你不必去想为什么,你惟有选择去相信。

就像温哥华商场里圣诞节挂满了“Believe”。

我们真的在掌控自己的命运吗?

德国哲学家亚瑟·叔本华写道:

“每个人都认为自己先天的就是完全自由的,即使他的个人行为也是如此,并认为,每一个时刻,他都可以开始用另一种方式生活…

…但是,通过后天的经验,他惊讶地发现,他不是自由的,而是要受制于必要条件的。但尽管有了所有这些决议和思考,他还是不会改变他的行为,从生命开始到生命结束,他必须按照他的性格行事,即使连他自己也谴责这种性格。”

七、奇点会来吗?

马云在一次演讲中,提到了“荷花定律”:

一个荷花池,第一天荷花开放的很少,第二天开放的数量是第一天的两倍,之后的每一天,荷花都会以前一天两倍的数量开放。

如果到第30天,荷花就开满了整个池塘,那么请问:在第几天池塘中的荷花开了一半?

答案是第29天。

库兹韦尔在书中讲过这个例子,用来说明“加速”。

最先提出“智能爆炸”这一概念的,是与冯·诺依曼一道,为曼哈顿工程工作的著名波兰裔美籍数学家乌拉姆。他有这样一句直击心灵的话:

“不断加速的科技进步,以及其对人类生活模式带来的改变,似乎把人类带到了一个可以称之‘奇点’的阶段。在这个阶段过后,我们目前所熟知的人类的社会、艺术和生活模式,将不复存在。”

冯 ·诺依曼提到两个重要概念:加速与奇点。

第一个概念说明了人类的发展正以指数级的速度增长。

人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)(4)

彼得.泰尔曾经嘲讽:“我们想要能够飞翔的汽车,结果得到的只是140个字符。”

这可能是错觉。过去几十年,人类一直在积蓄力量,计算的力量,大脑的力量,AI的力量。

人类已经能够成功地模拟出大脑的部分神经元和大量的神经组织,并且这种模拟的复杂程度在迅速增加。

我们在人类大脑逆向工程方面取得的进展,也表明我们有能力理解、模拟,甚至拓展自身的智能。

《主算法》作者佩德罗 ·多明戈斯教授说:

这个主算法将成为人类的最后一个发明。这个主算法将能够从数据中获得世界上的一切知识 ——过去、现在和未来。

库兹韦尔有过很多大胆预言,过去看来很准。在 2 0多年前,他就预言:人工智能计算机将于 19 9 8年战胜人类的国际象棋冠军。

人类基因组计划,是库兹韦尔钟爱的用来解释指数级增长的案例,旨在阐明人类基因组 3 0亿个碱基对的序列,发现所有人类基因并搞清其在染色体上的位置,破译人类全部遗传信息。

他预测,未来电脑将在意识上超过人脑。

未来才刚刚开始。

八、有什么投资机会?

对于Zero算法的未来发展,DeepMind想用这样的算法突破,来解决真实世界中各种各样紧迫的问题。”

AI将要解决以下“结构性问题”:蛋白质折叠、降低能耗、寻找革命性的新材料。还有:新药发现、量子化学、粒子物理学也是AlphaGo可能大展拳脚的领域。

一些经济学家认为,迅速扩大的数据集、机器学习和日益提高的计算能力,这些都应被列为除资本和劳动力之外的一种全新的生产要素。

人工智能正缔造一种新的 “虚拟劳动力 ” ,提高人类智慧的生产率并推动新的创新。

另外,与其他生产要素不同,人工智能不会随着时间的流逝而贬值。它将受益于网络和规模效应。例如所有自动驾驶汽车都能从其他此类汽车身上学习。

埃森哲与经济学前沿公司预测:

到 2035年,基于人工智能的技术的普遍采用,可能会将很多发达国家的经济增速提高一倍。

报告估计,人工智能有可能将美国、英国和日本的总增加值(与国内生产总值 ( G D P )近似)年度增速分别提高到 4 . 6 % 、 3 . 9 %和 2 . 7 % 。

马尔瓦尼表示,“我们已拥有由人类增强的创新。我们将最终拥有机器创新。”

投资,还是大公司的天下。谷歌、亚马逊、微软、苹果、Facebook、腾讯、阿里,大概率会继续统治“数字地球”。

不过,看看下图,谁又能真正预测未来呢?

人工智能之父教你如何学习(如何成为饭桌上的人工智能专家)(5)

九、应该学什么专业呢?

我们倒过来想,AI擅长做什么,可能就会在哪里替代人类。

埃森哲认为,人工智能有望以三种职能角色出现在人类工作中——助理、顾问和执行者。

  • 助理:为管理者及团队提供支持,如做记录、排日程、写报告和管理积分卡等。在工作中,这些智能系统还会吸取自身及人类同事经验,完善相关知识、扩大服务领域。
  • 顾问:通过问答、构建情境模拟等方式协助解决更复杂的问题和进行决策,包括医疗诊断、安全分析、理财建议、在线旅游接待和销售指导等。
  • 执行者:积极自主地评估备选方案,进行决策或挑战现状。迄今,真正的自主型人工智能管理系统还很少见,但能够进行商业决策的规则性应用程序已越来越普遍,如交易机器人、自动处理贷款的应用程序等。

日本野村总合研究所也与英国牛津大学的研究学者共同调查指出,10至20年后,日本有49%的职业(235种职业)可能会被机械和人工智能取代而消失,直接影响约达2500万人,例如:

超市店员、一般事务员、计程车司机、收费站运营商和收银员、市场营销人员、客服人员、制造业工人、金融中间人和分析师、新闻记者、电话公司职员、麻醉师、士兵和保安、律师、医生、软件开发者和操盘手、股票交易员等等高薪酬的脑力职业将最先受到冲击。

维克多·麦尔-荀伯格写到:

随着计算机在人类擅长的任务,比如那些需要知识、策略甚至创造力的任务中取得节节胜利,那么未来人类存在的意义是什么?

但是我担心的是我六岁的儿子。随着机器在一个又一个领域超越人类,他在未来世界的地位会变成怎样?他会做什么工作?他和这些无比聪明的机器之间将是怎样的关系?他以及他的同辈将为这个世界作出怎样的贡献?

事实上,归根到底就是一个相当简单的问题:我们的特别之处是什么?我们的长远价值是什么?不可能是机器已经超过人类的那些技能,比如算数或打字。也不可能是理性,因为偏见和情感让我们缺乏理性。

他的思考是:

可能我们需要考虑相反的一个极端:激进的创造力,非理性的原创性,甚至是毫无逻辑的慵懒,而非顽固的逻辑。到目前为止,机器还很难模仿人的这些特质:怀着信仰放手一搏,机器无法预测的随意性,但又不是简单的随机。他们感到困难的地方正是我们的机会。

所以,我们必须着眼于人类对劳动分工的贡献,对机器的理性进行补充,而非试图与它竞争。由于这样做会让我们与机器产生差异,而正是这种差异化会创造价值。

他还对当下的教育忧心忡忡:

如果我是对的,那么我们应该在教育孩子时加强创新精神,培养挑战权威的意识,甚至是非理性的想法。并不是因为非理性是福佑,而是因为非理性的创造力是对机器理性的补充。它能确保我们在进化的舞台上占有一席之地。

然而,不幸的是,我们的教育体系尚未赶上即将来临的第二次机器时代。我们的学校和大学就像囿于前工业思维的农民一样,其结构主要是为了把学生塑造成理性、服从的仆人,培养与过时的机器互动的过时技能。

教育从来都扮演着双重角色:

一个是理想的“教书育人”;

一个是现实的“超级智力竞赛”,据说是用于实现“社会分层”。

莱文校长曾说: “如果一个学生从耶鲁大学毕业后,居然拥有了某种很专业的知识和技能,这是耶鲁教育最大的失败。 ”

他的观点是:

1、专业的知识和技能,是学生们根据自己的意愿,在大学毕业后才需要去学习和掌握的东西,而不是耶鲁大学教育的任务。

2、本科教育核心是通识,也就是 “自由教育 ” 。这种教育所熏陶出来的批判性的独立思考能力,能够让人胜任任何职位,驾轻就熟地精通任何学科,并为终身学习打下基础。

另外值得一提的是交叉学科。

冯·诺依曼在《计算机与人脑》里,最早从数学家和计算机科学家的角度对人脑进行的严肃探究。

在冯·诺依曼之前,计算机科学和神经科学是没有任何交集的两个领域。

冯·诺依曼应用计算通用性的概念得到的结论是:

尽管人脑和计算机的结构截然不同,但仍可以认为冯·诺依曼机能够模仿人脑对信息的加工过程。

有趣的是,DeepMind的CEO哈萨比斯,他1997年在剑桥大学女王学院获计算机科学学士学位。毕业后加入Lionhead Studios工作一年,之后创立了Elixir Studios,该工作室一直运作到2005年。2009年获伦敦大学学院认知神经科学博士学位。

十、人类还有前途吗?

阿尔法元如此突飞猛进,人类是否更加悲催?

大卫 ·班布里基说:现代大脑地图给人一种有趣的古旧感 ——就像一张中世纪的地图,已知世界被散布着不知名怪兽的未知之地环绕。

大脑基于非常古老的设计,虽然其微观性和复杂性,成年人的大脑有1000亿个神经元。在历史进化的过程中,大脑的设计是低效而怪异的。但我们如何完成超级电脑都手足无措的任务?

《进化的大脑》说:单个神经元都是极其缓慢、不可靠且低效率的处理器。但是,大脑是一万亿个非最优处理器的聚合体,大量互联形成500万亿个突触。

因此,大脑可以利用大量神经元的同步加工以及随后的整合模式来解决复杂问题。大脑就是一台拼装电脑,尽管每一个处理器的功能极有限,但大量相互关联的处理器则效率惊人。

这就是大脑,它使用大量相互关联的平行构造,加上精细的反馈信息,就把简陋的部件组成了一个令人惊叹的装置。

大脑都不是设计完美的,它只是胡乱堆积在一起的一团东西。我们的情感、感知和行为的独特性,很大程度是因为大脑并非一台优化的通用解题机,而是寻求特定解的一团怪异聚结物。

我看了阿尔法元最新的自我对局,开始的时候它就像个乱摆棋子的孩子,慢慢地它开始发现规律。再到后来,它开始尖顶,立起。阿尔法元有很多与人不一样的招法,但很多地方,所见略同。

我不由得感慨人类的孤独与伟大。围棋有着超过宇宙间所有原子数量的变化,人类从头开始慢慢摸索,历经漫长的黑暗岁月,代代相传,竟能走得和阿尔法元一样对。

仿佛我们在原始人的墙壁上发现了飞船的雏形。

围棋有种求道精神。有多少竞技,在你死我活的对决之后,双方筋疲力尽,还能坐下来复盘,总结彼此的得失?

多年以前,我看的最早两本围棋书,一个是大竹英雄的新围棋十诀,一个是武宫正树的,两本书都有那个时代浪漫主义色彩(某种意义上基于木谷道场对棋界的统治),指向共同的主题:

探索未知的世界。

就像武宫正树,他靠那种奔放自由的个人精神,以一己之力开创了宇宙流。他反时代,孤星闪耀,仿佛上帝赐予人类的礼物。时至今日,阿尔法狗验证了,着眼全局的中腹的非凡价值。

发明围棋的人,探索围棋的人,永远不会想到,19×19的格子在人类的历史进程中划时代的意义。也许这正是其生来的最大使命。

就像特斯拉,图灵,在漫漫长夜里,无论日子多么艰难,多么阴冷,他们都未曾停止过对未知世界的探索。

那些孤独的大脑,终会相逢。

作者:老喻在加,公众号:孤独大脑(ID:lonelybrain)

本文由 @老喻在加 原创发布于人人都是产品经理。未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页