通往第四次工业革命,阿里云还缺半张门票
1893年5月1日,92000只灯泡迸发的万丈光芒,点燃了芝加哥世博会的夜空。
驱动这些灯泡的,是曾被贴上“致命”标签的交流电。电流的压力高达2000伏特,由12台75吨重的交流发电机和一台2000马力的阿利斯-查尔默蒸汽机制造,它们沿着铺设在地下管道里的40条电缆,把600多亩的展区渲染成了史上最璀璨的“白夜”。
时值美洲发现400周年,总统克利夫兰亲自主持博览会的开幕。他挪动着270斤重的身体,在周围高亢的“哈利路亚”合唱声中,摁下了一个黄金和象牙制成的电源开关,几百英尺的电动喷泉水柱瞬间腾空而起,人群爆发出疯狂的欢呼[1]。
2700万人涌进了博览会——其中一半是外国人——他们只需花费50美分,就能游览由电力驱动的喷泉、游船和摩天轮,并体验各类新奇时髦的电器产品。在导游手册上,印有一段自豪的宣言:“芝加哥博览会是我们这一代驾驭电的超级胜利。”
这场博览会,也是历史上著名的“电流大战”里的一次核心较量。
参战的双方皆是大名鼎鼎,一家是刚刚合并成立的通用电气(GE),背后是托马斯·爱迪生和他顽固坚持的“直流电路线”;另一家则是西屋电气,背后是创始人乔治·威斯汀豪斯和他的天才同事尼古拉·特斯拉,他们选择的是“交流电路线”。
在此之前,爱迪生为了向公众渲染交流电的“危险”, 甚至不惜在纽约大街上,在火焰、焦糊味以及看客们的欢呼中,用交流电电死一只名叫“托比西”、四吨重的大象。而西屋电气在博览会的大获成功给特斯拉带来了巨大的声誉,并让交流电撕掉了危险的标签,走向全球舞台。
人类习惯用火焰驱逐黑暗已长达几十万年,直到19世纪后半叶电力开始普及,而璀璨明亮的芝加哥世博会成为这一历史进程的重要加速点。在此后的几十年里,人类所有领域如工业、农业、交通、娱乐……甚至厨房都被电力彻底重塑了一遍。
重塑则意味着机会。1893年的芝加哥展览会与其说是在展示电力魔法,不如说它是在提示创业线索:
制造发电机和变压器,有机会成为电气装备巨头;依靠资源禀赋的发电生意,是大型能源公司的胚子;铺设输电线路的投资,可以垄断区域甚至一个国家的电网;而在照明、运输、家庭等用电场景里,则会诞生出无数电力产品巨头……
在今年的云栖大会上,阿里云创始人、中国工程院院士王坚引用了芝加哥世界博览会这一事件,并把云计算和GPT的关系比做电和电动机的关系:全球的各类电机消耗了46%的电,而大模型就像是智能时代的电动机——未来云计算的算力很大一部分都会被各类AI模型所消耗掉。
把AI浪潮类比电力革命,并非王坚独家。马化腾曾表示腾讯最开始以为AI是互联网级别的机会,但“越想越觉得这是几百年不遇的,类似发明电的工业革命一样的机遇”。无独有偶,微软的纳德拉和谷歌的皮查伊也都做过类似的表述。
人类喜欢用类比来解释复杂事物,即使顶级的大脑也不例外。对标电力革命,除了能通俗地表达AGI有多重要之外,还会暗示了科技大佬们正在思考的一个问题:在新一轮浪潮爆发的背景下,历史能否帮忙人们标注出哪些机会更值得去投入?
倒回到1893年的芝加哥博览会,西屋电气被公认拿到了第一张门票,它日后成为横跨煤电、核电、航空、家电等领域著名制造业巨头。但随着电力技术迭代速度的放缓,西屋遭遇海外对手挑战,旗下资产经过数不清的剥离、合并和破产,早已面目全非。
紧追其后的GE则先是一路辉煌,吃尽了电气时代的红利,之后更是横跨多个高精尖的制造业门类,一度成为全球市值最高的公司。但在过去的20多年里,“脱实向虚”的GE股价下跌80%,更是被坚守了110年的道琼斯工业指数剔除。
而爱迪生名下另一块没有被并入GE的资产——联合爱迪生公司(conEdison),专注模式简单的发电、电网和燃气业务,一路坚持经营到了今天,成为纽交所最古老的股票,不但每年营收超百亿美金,过去20多年股价还上涨10多倍。
这些不同的命运轨迹,是否能给新一轮AI浪拆带来启发?这是本篇文章尝试回答的问题。
01革命和基础设施
人们常把本轮AGI的浪潮定位为“第四次工业革命”,那什么才算是工业革命?
如果从“人类vs自然”的角度审视,工业革命级的浪潮至少应该如此定义:人类从科技突破中获取了某一项“能力”,这种能力可以被大规模制造,并辐射到人类生活的大多数方面,大幅度提升生产力,进而重塑就业结构、社会阶层和人的生活方式。
理解“能力”,是理解技术和文明的关键。早期人类从大自然中零散地拾取“能力”,水流拉动石磨、风推动帆船、草木燃烧取暖。进入农业文明后,对家畜的驯化让人类首次能够大规模化地从自然界汲取动力。直到18世纪法国大革命,欧洲的动力来源仍然是1400万匹马和2400万头牛[2]。
如果把牲畜看成原材料,那么“工具+原材料”是获取能力的范式——农民用牛轭、马镫、犁、绞盘和杠杆等工具来处理畜力,转化效率低。而直到第一次工业革命,工人用锅炉、汽缸、活塞、传送带、轴承等工具来处理化石能源,一种廉价、批量、适用性强的“能力”才第一次赋能给了人类社会。
蒸汽革命给工业革命下了一个标准定义,核心是看四条:第一看是否出现了一种能赋予人类“能力”的重大技术突破;第二是看这种“能力”可否被批量制造;第三看该技术能否带动一整个技术矩阵;第四看它是否普适,有没有辐射全人类社会的能力。
过去几十年里,前来碰瓷下一轮工业革命的选手不在少数,但按上述定义,物联网、区块链、元宇宙、3D打印明显资格不够,只能退出群聊。而只有AGI(通用人工智能)能够媲美蒸汽机、电力和计算机等前代浪潮的主角,引领第四次革命。
从“赋能人类”视角来看,在第1到第4次工业革命中,肉体能力有限的碳基人类,分别获得了以下能力:
第一次工业革命:蒸汽动力
第二次工业革命:电磁能力
第三次工业革命:硅基算力
第四次工业革命:通用智力
在前两次中,能力制造来自于“机械+化石能源”——其中第一次的“机械”是蒸汽机,第二次是发电机,两者都依靠化石能源;在后两次中,能力制造来自于“程序+硅基芯片”——其中第三次是软件,第四次是大模型,两者都依靠硅基芯片。
如果把化石能源和硅基芯片都看成原材料,那么获取原材料也是一门暴利的生意。化石能源的采掘,对应着全球一票资源玩家,它们提供同质化的动力煤或原油;芯片制造则对应了一批晶圆代工或IDM巨头,它们依靠技术迭代来维持竞争力。
可以这样说:前两次工业革命的能力源头是6号元素碳,后两次工业革命的能力源头是14号元素硅。
蒸汽革命的链条,可以高度抽象成三个环节:原材料(煤炭采掘)→能力制造(蒸汽机产生动力)→能力使用(纺织铁路等各类场景)。电力革命的链条与之类似,但明显多了一个环节:能力投放,即输电、配电、变电等中间环节。
这一差异根源于蒸汽和电力的物理差异。蒸汽动力无法被“传输”,其制造必须紧贴使用场景,工厂、火车和矿山都要安装自己的蒸汽机;而电力可以远距离传输,集中发电具备成本、环保和规模上的优势,让电网实现了商业逻辑的闭环。
电力链条的“发、输、变、配、用”五个环节,抛开最后的“用”,其他四个环节诞生了大量发电和电网巨头。在全球能源500强中,接近1/3的企业涉及发电和电网,代表企业有Uniper、Enel、法国电力、美国AEP、中国的国网、南网和五大发电集团。
「投放环节」让科技大佬——尤其是云计算巨头掌门人——有了把AI和电力类比的动机。
按图索骥来看,云计算在当前AIGC生态中的位置,约等于“发电+电网”之于电力链条。自己买GPU组建算力,就像是企业自建发电厂——只有少数公司会这么干(中国自备电厂装机量占比不到10%),这预示着大部分AIGC企业都绕不开云计算。
所有云计算巨头都意识到了这一点,这让他们激进地向英伟达采购GPU(同时全球TOP4云厂商也在自己做AI芯片),并在模型、芯片、开源生态以及明星AI应用公司身上砸下巨资。海外的亚马逊微软谷歌,国内的阿里字节腾讯,无一不在焚膏继晷,试图率先拿到一张珍贵的门票。
但这种类比也存在着一种危险的弱点:电网是伴随着电力革命出现的,但云计算不是。事实上,在PC机浪潮掀起的前二十年里,人类享受晶体管的算力只需购置不同性能的计算机,并不需远距离投放。云计算到今天为止的历史,也仅有二十年。
另一个众多周知的事实是:“发电+电网”提供的都是标准化、同质化的产品,并向来是政府价格管制的对象,因此在资本市场被归为公用事业门类,估值从来不高——对任何一种意图成为“基础设施”的管道生意,这是被命运暗中标定的价格。
但云计算在商业上的“含金量”,显然远超公用事业的范畴。在全球五家市值超1万美金的科技公司里,云计算是其中三家(微软、亚马逊和谷歌)的核心业务。而如果扒开微软的财报,你会发现云计算业务的毛利率超过了70%,净利率更是超过40%。
云计算为何如此重要且值钱?这个问题需要从第三次工业革命——即计算机革命的历史沿革中去找寻。
02计算的两次变革
前两次工业革命,人类突破了“体力”限制。第三次工业革命,人类突破了“脑力”的限制。
1947年晶体管诞生,1958年集成电路诞生,从此计算机作为大脑最强的辅助工具全面渗透人类社会,并催生之后的PC机、互联网、通信、智能手机等浪潮,一直延续至今。人类用令人惊叹的工艺加工硅基材料,获取了远超自身的计算能力,并以此构建了一个庞大而复杂的赛博世界。
在前五十年里,计算能力的传导只有三个环节:原材料(芯片生产)→能力制造(PC机/高性能主机/手机)→能力使用(办公娱乐通信等众多场景)。相比于电力革命,计算机革命跟蒸汽革命更加类似的一点是——没有「能力投放」环节。
在当时,只有极少数组织会有海量的算力需求,它们的解决方式是自行购置大型计算机。对个人用户来说,一台PC机价格并不昂贵,跟主流家电如电视、空调和洗衣机相差不大,摩尔定律的迭代也足以满足个人的办公娱乐需求。
而到了90年代末,计算能力的需求和供给都出现了一些微妙的变化:需求端,千行百业的数字化明显开始加速,一个重要的原因就是互联网渗透率的提升;在供给端,1998年VMware实现了x86服务器的虚拟化,成为云计算基最重要的底层技术。
这些变化在当时属于涓涓细流,并不起眼,但当2001年后全球互联网产业劫后重生,数字化重新开始加速时,汇聚的溪水终于成为汹涌的潮流:2003年,亚马逊推出了AWS服务;2006年,“云计算”在Google开发者大会上被第一次喊了出来。
于是,在集成电路诞生50多年后,远距离投放算力的商业生态终于诞生了。
这条新的链路是:原材料(芯片)→能力制造(服务器集群)→能力投放(云计算网络)→能力使用(企业2B场景)。新链条和老链条并存,但由于电商、游戏、社交、办公等场景纷纷“上云”,人类消耗的硅基算力来自云端的比例越来越大。
巨头们快速抓住机会:2006年AWS推出EC2服务;2010年微软Azure商用;2011年,阿里云弹性计算ECS和对象存储OSS开始对外提供服务;2012年谷歌推出Google Compute Engine(GCE)服务——至此,日后的全球云计算Top4都推出了自家的商业产品。
在ChatGPT问世之前,云计算成为科技大厂的兵家必争之地,这可以从人事变动中窥的一斑:在亚马逊,贝索斯选择了缔造AWS的Andy Jassy——而非执掌消费电商业务的Jeff Wilke——成为接班人;在微软,打造了Azure的萨提亚·纳德拉担任第三任CEO,而他甚至从未涉足过微软核心的Windows/Office业务。
到了2022年,全球云计算行业第一名是亚马逊AWS,营收801亿美金;第二名是微软Azure,营收340亿美金;第三名是Google GCE,营收263亿美金;第四名是阿里云,营收104亿美金。而总的市场规模,在2022年已经达到了5500亿美金的量级。
对一个诞生仅十多年的行业来说,这样的体量、增速和盈利能力显然是惊人的。为什么?
如此巨量的增长,来源于一组核心矛盾:一方面在2000年之后,人类社会以前所未有的速度往线上迁移,对算力的剧烈需求爆发出来;另一方面,企业自行搭建完整IT能力的成本越来越高,而云计算的高效灵活等优点切实可见,逐渐扭转了偏见和担忧。
王坚在2016年写过一本《在线》。在这本书中,王坚就通过类比电力来阐述云计算存在的必要性[5]:当需要用电的设备进入千家万户,农场和企业不约而同选择了关闭自己的发电机,转向高效的工业公用事业公司购买电力。
王坚可能没有展开说的一点是:相比“发电+电网”,云计算仍然在享受技术迭代的红利。
在电力链条中,发电环节技术迭代较为缓慢,效率每提升1%都是重大的突破:1900年的火电机组的能量效率不足5%,1950年代这一数字上升到20%,2000年后又翻倍上涨至40%,现在,上海外高桥第二电厂的超超临界机组,能够提供46%的发电效率。
电磁能力的制造效率,在一百年的时间里大约提升了不到10倍,而硅基算力完成同样效率的提升,大约只需要5~8年的时间。这带来的一个结果是:云端的单位算力成本每年都在大幅下降,而云计算供应商一方面可以降价让利(亚马逊以连续降价闻名),一方面也可以给自己留足充分的利润空间。
再叠加上规模效应、客户粘性等优点,云计算终于成为第三次工业革命后期最好的商业模式,其规模、利润和护城河足以让电商、搜索、社交甚至芯片设计和制造都相形见绌。如果算上给云计算提供GPU的英伟达,云计算支撑了5家万亿美金科技公司中的4家。
唯一的问题是,当2022年底第四次工业革命启动,新的“能力传导”链条出现,云计算能否延续辉煌?
03云对AI有多重要
毋庸置疑的是,第四次工业革命复用了第三次工业革命相当多的基础设施。
以最热门的ChatGPT为例,我们能够清晰地观察到一种生成式智能(尚不能算通用智力)的传导链条:原材料生产(GPU/语料)-能力制造(GPT模型产生智力)-能力投放(微软Azure云)-能力使用(网页/PC/手机端的对话机器人)。
在这个链条中,原材料结构出现了结构调整,GPU称王,语料是新成员;能力制造环节也有了根本性改变,参数高达千亿甚至万亿的大模型成为处理原材料的工具;而在投放和使用环节,则复用了第三次工业革命的链条。
链条复用不是问题。如前文所述,判断是否是一场“革命”的关键是看「能力」本身。
如果大模型果停留在目前的智力水平上,那么就只能跟先前热炒的AlphaGo一样,算作第三次工业革命的子创新;而如果能够制造跟人类相仿甚至远超的智力,那么第四次工业革命就自然实至名归。全球顶级科学家对后者信心十足。
显然,能被“复用”的链条获得了第一批门票:能制造GPU的公司宛如印钞机,英伟达市值从千亿迈向万亿,AMD也反超了Intel;而已经占据场景心智、且能被AI改造的产品也几乎躺赢,Office和Adobe全家桶早已喝过几轮的香槟。
云计算呢?它还能扮演新一轮「能力」制造和投放的基础设施吗?答案大概是肯定的。
从现状来看,几乎所有热门AIGC公司都需要借助于云巨头的力量,比如OpenAI早已委身于微软Azure云,Anthropic选择了AWS,Midjourney是Google的明星客户,而阿里云则服务了“中国一半的大模型公司”,包括智谱AI和百川。
造成这一局面的,是深度神经网络对算力的天量需求。从2012年的AlexNet模型到2017年的AlphaGo Zero,算力消耗足足翻了30万倍[11]。而ChatGPT横空出世的背后是,微软Azure云上的数万张A100板卡,成本高达数亿美元[12]。
展示GPU的黄仁勋,制造了全球最抢手的工业品
今年9月,红杉合伙人David Cahn发文替AI产业算了一笔账:大模型基础设施建设要消耗2000亿美金,大部分钱都要花在算力的购置上。但大模型的应用端每年最多只能产生750亿美元的收入,这中间存在一个高达1250亿美元的缺口[9]。
这篇文章很快遭到硅谷创投巨头a16z的反驳,其特别顾问Guido Appenzeller连发7条推特,直指文章低估了人工智能革命的影响力。双方虽然对成本计算方式大有争议,但在一件事上却出奇的一致——现阶段的算力成本还是太高了。
在今年5月,OpenAI创始人阿尔特曼曾表示:“我们太缺GPU了……如果人们减少使用ChatGPT,我们会非常高兴[13]。”在2023年H1财报中,微软也专门更新了一条风险因素:如果无法获得足够多的AI芯片,云计算业务可能会中断。
洛阳卡贵的结果,就是从一开始就断绝了企业“自建电厂”的模式。
算力有没有可能在短时间内大幅提升?模型的消耗会不会骤然下降?或者人类能不能像钢铁侠那样在家里就可以养一个贾维斯(Javis)?在摩尔定律放缓、AI应用渗透率不足1%的背景下,上述愿望恐怕是空中楼阁,难以实现。
这让云计算天生地跟AIGC绑定在了一起。云计算的算力集中、灵活部署、按需付费、成本较低等特点,尽管不能解决全部问题,但几乎是算力短缺昂贵的背景下的唯一答案。无论是训练还是推理,大模型都离不开云。
从某种程度上说,云计算巨头在AI浪潮爆发的第一天,就集体拿到了第四次工业革命的门票。
强化学习之父Rich Sutton曾在《苦涩的教训》(The Bitter Lesson)一文中写到,人工智能领域的突破性进展,往往来自以大规模计算为基础的搜索和学习。换句话说,比起碳基生物的偶发灵感,算力才是创新的基石[10]。
所以门票既是入场券,也是责任书。全球掀起争先恐后的大模型竞赛,但决定胜负的钥匙,却藏在过去互联网黄金二十年锻造出的仓库里——一张巨大的公共计算网络是最好的军备。
在这关键一环里,中美云计算产业却悄然分道扬镳。
呼啸而至的云计算浪潮席卷了美国硅谷,成为亚马逊、谷歌、微软等全球顶尖科技巨头们的第二战场。在枪林炮雨的争夺战里,美国逐渐形成三足鼎立的格局——于此同时,一个以公共计算为基础的算力统一大市场正式形成。
国内的云计算浪潮始于阿里云的诞生,自研飞天和5K战役曾一度让中国云计算技术比肩全球。但近十年,技术浪潮却拐向了另一个方向——公共云厂商逐渐蛰伏,私有云大行其道,全国的算力格局逐渐走向细碎和孤立。
用一个形象的比喻来说明:私有云像是封闭孤立的小湖小泊,公共云则是浩瀚无垠的大江大海。从资源利用率来说,公共云的利用效率天然更高。
纯论中美市场存量服务器规模,两者仅为10%左右的差距。但据信通院数据,2021年美国的算力有60%以上是以公共云的方式来提供,欧盟是50%,而中国只有28%。
从资源利用率的角度,公共云CPU使用率可以高达40%,而私有云的CPU使用率不到5%。这一差异导致中美在算力利用效率上存在巨大差距。
正如文章开头所讲的,王坚把云计算和GPT比做电和电动机——电动机消耗大量电会带动用电成本下降,而廉价的电又能孵化出更多电机创新,云计算和大模型的关系也一样。
他同时也提到的芝加哥世界博览会,在理性之外,更带有命运交响曲的色彩:芝加哥博览会,让特斯拉的交流电走出绝望之谷,人类从拥有电,走向了拥有电网,从而拥有了整个电气时代。
作为全球前四大云厂商之中的唯一中国公司,手握门票的阿里云,它的命运交响曲是怎么样的?
04阿里云的命运交响曲
阿里云是一群技术理想主义的疯子。
这家公司的精神内核,定格在2009年初写下第一行代码的北京上地办公楼。那是一个夏天,工程师就坐在一堆服务器的旁边干活,机器散发的热量超过了空调。王坚的助理,当时跑了整个北京城,给工程师们买来了超大冰块,大家拿着小桶砸开冰块,放在工位旁边,降温之余,还能冰镇一下可乐,感觉又苦又甜。
在这里,阿里云开始研发中国唯一自研云计算操作系统飞天,奠定了中国云计算的基础,也让黄金十年的移动互联网有了根基。
这也是为什么,去年一篇媒体长文《不合时宜的阿里云》,会让阿里云员工、乃至管理层而沉默。这篇文章里描述了一个大家并不熟悉的阿里云,陌生到阿里云自己都认不出自己。这个阿里云进入了一个以关系为核心竞争力的市场,对于一个不会喝酒请客应酬的技术男,显得不合时宜已经是对他最客观的描述。
如果在那场著名的电流大战中,特斯拉用爱迪生的方法,是不可能得到胜利的。所以,当阿里云进入了传统IT的腹地,学习打上领带成为传统IT人,也无法让阿里云取得胜利。
阿里云抓住过自己的“芝加哥世界博览会“,上一次是移动互联网浪潮。中国大多数热门的APP,多少都跟阿里云有交集,要么生长在阿里云上,要么用过阿里云的服务。
呼啸而至的移动互联网浪潮,带来了阿里云光速增长的五年:2014年阿里云营收10.96亿元,2018年这个数字攀升到213.6亿元,四年增长了20倍。
2014年,阿里云营收规模和全球最大的公共云服务商亚马逊AWS差37倍,到了2018年,二者之间的差距缩小到7倍至8倍。
这是新生代和新生代的组合,没有认知差异,没有信任危机。
然而,当阿里云越过移动互联网的山丘,和亚马逊、微软一样进入到传统IT的主战场,新旧交替的战争才真正开始。
进入别人的战场,最需要警惕的事情,是当你变得不像你,战争可能就快要输了。二战期间,英国曾经试图用一种理解纳粹、成为纳粹的妥协路线,希望求得安稳生存。但最终的胜利,只有在丘吉尔通电全国“我们将战斗到底”之后,才打出了一个和平。
亚马逊和微软,在传统IT的战场上,坚定选择成为自己。当然,除了技术自信,美国宏观政策也帮了不少忙。
2009年,奥巴马政府推出Cloud First云优先政策。2018年,特朗普政府提出Cloud Smart智慧云政策。同时,美国政府先行先试、关闭政府自建数据中心,率先要求CIA、DoD(国防部)、NSA(国土安全部)、NASA等国家关键的部门选择与亚马逊、微软、谷歌等商业云计算公司合作解决可用性问题。
俄乌战争中发挥关键作用的作战系统,就部署在商业云计算公司的公共云基础设施上,采用了最先进的AI技术。
中国传统IT市场是另一幅面貌。中国市场有一个心理共识,“私有云比公有云安全”,所以习惯把服务器采购回家,再用 “堆人头”、“做定制”的方法搭建系统。所以,在中国IT市场,少有科技公司,只有IT“包工头”和“施工队”。
阿里云要成为其中一个吗?他们曾经可能思考过,实际的动作中也摇摆过。阿里云曾经立起来的标杆案例中,不乏一些重交付的项目,例如很多轻算力、重系统的项目,需要大量的工程师进场做交付。
早在2021年开始,阿里云开始渐进式的战略纠偏。2022年,伴随着阿里云在全球前三的竞争中逐渐落后,纠偏再次加大力度, “Back to Basic”的新战略,构成了阿里云发展的核心价值观。
而后,在颇有戏剧性的组织交接中,技术男吴泳铭兼任阿里云CEO,改良式的纠偏变成大刀阔斧的改革。
甚少在公开场合发声的吴泳铭,在最新一期阿里巴巴财报会上,用一种很平和、但很鲜明的方法,说清楚了阿里云的选择:AI驱动、公共云优先。
前半句说明,阿里云也看到了自己手里抓住的门票,这张门票比移动互联网黄金十年的门票更加值钱。
后半句代表了判断和勇气。这句话显然会让政企客户心生忧虑,这些人应该成为阿里云的客户,但阿里云显然选择了一种具有一定代价的方式,来打开传统IT向云转型的大门。因为他们面对的是比美国更加复杂的市场,需要付出更大的代价,才能兑换那张命运中的门票。
如果特斯拉还在世,他也许能给阿里云一些参谋。现在大家可能很难想象,一百多年前,爱迪生为了让公众相信交流电是危险的,曾经运作让交流电成为处死杀人犯的工具,并创造了一个词是“被交流电”来形容被处以电刑。
如果私有云能拥有一个爱迪生的话,也会发明一个“被公共云”来形容走向公共云平台的危险,毕竟也没有哪家公共云厂商能保证自己永远不出故障。
中国还有一个特殊的产物。十年前,美国宇航局NASA和美国IT公司Rackspace合作开发了一个名为OpenStack的私有云系统,但NASA很快发现私有云无法有效支撑自己庞大的宇宙数据。2013年,NASA宣布迁移至亚马逊AWS,并开源了OpenStack。
在美国被放弃的OpenStack,成为传统IT厂商的利器。十年间,OpenStack开源基金会被中国厂商占据,成为传统IT的云计算新装。从前,传统IT卖服务器送一个管控软件,OpenStack开源之后,传统IT卖服务器送一个开源的私有云系统。
阿里云刚刚成立的时候,马云、马化腾和李彦宏曾经有过一个知名的对话,阿里云被质疑是旧瓶装新酒,而后的移动互联网证明了这句话是错的。但中国的私有云用OpenStack来伪装自己是云计算,AI热潮会证明这句话是对的。
云计算之所以具有这样宽幅的赛道估值,是因为一旦计算网络形成,规模就变成快到看不清的飞轮,甚至无惧周期波动。
高举公共云旗帜的亚马逊、谷歌、微软,在美国加息周期顶峰的2022年,依旧交上了一份高增长、高利润的业绩报告,可见云计算穿越周期的能力。
阿里云抓住AI的门票,就能穿越传统IT的周期。
从最基础的层面,阿里云的AI芯片早有充分的储备。同时,自研的芯片已经开始在数据中心有广泛应用。这和微软在同一节奏点上,纳德拉也仅仅是在最近才推出了自研芯片,并宣称将在明年年初开始使用在自有数据中心。
美国高端AI芯片对中国禁运,让云计算在中国市场更加重要。可以预期,未来中国AI芯片供给将更加分散,更需要云计算向下屏蔽硬件差异,向上整合性能。
在AI技术的发展上,阿里云在国内率先竖起开源大旗,陆续把“通义”模型家族对外开放,其中最核心的通义千问(Qwen)大模型已经开源了70亿参数和140参数版本,在11月的云栖大会上,吴泳铭宣布将进一步开源750亿参数的版本。
除了开源,阿里云也上线了模型社区魔搭ModelScope。截止到今年11月,魔搭社区已有 280万开发者、2300多个模型,累计下载量过亿,是中国大模型开源第一社区。
这些都足够重要,但也没那么重要。吴泳铭心中阿里云唯一的产品,是一张全球性的公共云计算网络。这张网的技术壁垒和规模壁垒,才是阿里云安身立命之本。
阿里云2009年成立,一度遭到内部无数质疑,最终顶住压力,成功地追上了全球云计算的浪潮,市场份额亚洲第一、全球第三。如今,伫立在云栖小镇上的那尊纪念飞天项目的雕塑,上面写满了飞天工程师的名字,他们是这家公司精神内核的代名词。
今天这张网的内核从CPU走向了GPU。十多年前,深度学习科学家偶然发现,把处理图像的GPU用来跑AI系统,速度惊人。自此,云计算厂商开始将GPU放到数据中心,用高速网络连接起来,进一步加快了处理速度。
英伟达曾经依靠收购以色列公司Mellanox来加速网络技术发展。阿里云采取了更多的尝试,例如早于AWS开始研发的神龙芯片,将虚拟化和网络调度卸载到了硬件中,这可以提高运行效率。同时,阿里云在弹性RDMA技术的应用是业界规模最大的,对于AI系统中的海量数据搬运有很好的处理能力。
曾经在一次闭门交流中,有一家国内顶尖的大模型创业公司问阿里云:“你们为什么要做通义?”这句话的潜台词是,作为一家算力的电网公司,你们不应该下场做电机。
当时,阿里云掌门人的回答是:在最基础的层面,通义验证了阿里云是训练和应用大模型最好的平台。第二个层面,阿里云不和大模型公司竞争,以推动AI生态繁荣为第一目标。
这个答案不会因为掌门人更迭而改变。在最本质的逻辑上,阿里管理层有高度的共识。
就像今年云栖大会,slogan回到了2015年的“计算,是为了无法计算的价值”。2015年,阿里云开启了移动互联网的黄金期,而今年的重启和回归,在两次革命的交界处,这段话俨然被标注了新的意义。
05尾声
1925年,一个名叫威利斯·开利(Willis Carrier)的人说服派拉蒙电影公司,在纽约时代广场新建的里沃利大剧院安装了空调系统,为观众提供凉爽的空气,结果人们疯狂涌向剧院——看什么片子不重要,主要是吹吹空调。
电影这个行业在19世纪末出现后,很长一段时间里并未成为主流娱乐方式,尤其是夏天,拥挤和闷热影院阻碍了人们观影的欲望。但当空调发明后,夏天的影院骤然爆满,甚至很多美国人第一次吹空调,都是在电影院里。
空调之所以能迅速铺满影院,得益于美国率先打造的普惠的电力公共服务——全球第一的发电量、最大规模的电网和最低的电价,遥遥领先于发明电的欧洲。
1949年的美国高压输电网络
而其回报也是丰厚的:冰箱、洗衣机、空调等产业基本都诞生在美国,电力驱动的制造业更是让美国成为二战时的世界工厂。甚至可以这样说:美国抓住了电力革命的契机,彻底在经济和产业上反超了欧洲。
一张完善的能力投放的网络,是一个国家踏进下个时代的门票。
中国很幸运的一点,是连续抓住了第三次工业革命中后期的浪潮——通信、互联网、移动终端和云计算。在2022年全球云计算市场的前10名中,有4家中国公司,其余均是美国公司,日本、韩国和诺大的欧洲则没有选手入围。
芯片和云计算,都是能够跨越第三次和第四次工业革命的核心产业,大洋彼岸的美国仍然处于强势地位,摆在阿里云面前的,其实只有半张门票——另外半张的兑现,可能需要拿命来赌一个植根于公共云之上的统一大市场,那里AI根深叶茂、SaaS星光闪耀。
这是一场巨人之间的竞速,毫无疑问,赛场会在青萍之末,也会在云海之端。
全文完,感谢您的阅读。
参考资料
[1] 光电帝国,Jill Jonnes
[2] 第三次浪潮,阿尔文·托夫勒
[3] 阿里云副总裁:自主可控的云比拿来主义能走更远,天下网商
[4] 阿里自研院士,远川研究所
[5] 在线,王坚
[6] 云计算,一场无声的IT权力交接,远川科技评论
[7]「原神」上线前,米哈游与阿里云的八年,Tech星球
[8] Goggle and the wisdom of clouds, NBCNEWS
[9] AI’s $200B Question, DAVID CAHN
[10] The Bitter Lesson, Rich Sutton
[11] 没人能复制ChatGPT, 远川研究所
[12] Microsoft Strung Together Tens of Thousands of Chips in a Pricey Supercomputer for OpenAI, Bloomberg
[13] The big bottleneck for AI: a shortage of powerful chips, CNN
[14] 大模型是不是有点太多了?远川研究所
[15] Big Tech Struggles to Turn AI Hype Into Profits, WSJ
[16] IT 2023, 赛迪顾问
[17] Elon Musk praises China's 'very strong' A.I. credentials, CNBC
作者:戴老板
编辑:李墨天
视觉设计:疏睿
责任编辑:戴老板