文 | 钱钱
编辑 | 阿景
AI圈最近风向变了。
以前大家见面聊"你家模型参数量多少",现在改问"你家有自己的芯片吗"。
不是说模型不重要,是光有模型没"家底",早晚得被人卡脖子。
谷歌和OpenAI这俩带头大哥,正好给行业上了生动一课,一个把"农场+物业"经营得风生水起,一个靠"租房买粮"勉强维持,差距可不是一星半点。
谷歌:从种粮到开店,地主式经营有多香
谷歌的"农场"得从2013年说起。
那年别家还在买英伟达的芯片凑算力,谷歌偷偷启动了TPU项目。
当时不少人觉得这是瞎折腾,现成的GPU不好用吗?现在看,人家是真有远见。
十年磨出七代TPU,最新的Ironwood性能比上一代翻了4倍。
更关键的是成本,自家设计的ASIC架构,能效比是同期GPU的两三倍,造价比买现成的低一半还多。
就像自己开农场种小麦,不光够吃,成本还比买面粉便宜。
这"粮食"不光自己吃,还能卖。
Meta、Anthropic这些同行,现在都跑来买谷歌的TPU用。
你想啊,连竞争对手都来买你的货,这农场得多能打?
光有农场还不够,谷歌手里还有"黄金地段的物业"。
搜索业务每月20亿用户,YouTube6.5亿月活,再加上Gmail、地图这些全家桶,等于自家物业自带流量。
用户每搜一个词、看一个视频,都是给模型"喂数据"。
芯片产算力,用户给数据,这不就是"前店后厂"?模型在自己的算力上跑,用自己用户的数据练,迭代速度比别人快一截。
就像开餐馆,自己有菜地,餐厅还在闹市区,食材新鲜、客源稳定,想不赚钱都难。
OpenAI:租房还买高价粮,租客的日子不好过
谷歌把"地主"当得滋润,OpenAI却还在"租房时代"挣扎。
最头疼的就是算力,这东西跟咱们过日子的煤气水电一样,没它啥也干不了。
早年间GPT-3训练,用了1万块V100芯片,当时看着挺豪气。
现在不行了,最新的H100单块就得24万,想搞个大模型训练,没千儿八百块下不来,光硬件成本就够喝一壶的。
更要命的是,这些芯片还不是一次性买卖,得长期租算力。
OpenAI每年给微软Azure的账单就有25亿,这还不算最近找甲骨文签的百亿级补充协议。
等于每个月光房租和煤气费就得掏几亿,压力山大。
你以为掏钱就能安稳?微软可不是慈善家。
早年合作时,微软给资源,OpenAI给技术,现在微软自己的Copilot都出来了,成了直接竞争对手。
就像你租房住,结果房东突然说"我也开个店跟你抢生意",这日子能好过?
OpenAI也想过自救,招了40人搞自研芯片,还跟博通合作设计。
但芯片这东西不是搭乐高,从设计到流片,没个三五年出不来。
就算设计出来了,台积电能给多少产能?现在全球都在抢芯片产能,一个初创团队想插队,难。
说句实在话,OpenAI现在就像咱们身边那些"月光族",收入不低但开销更大,还全指着别人接济。
短期看光鲜,长期要是没自己的"固定资产",早晚得出问题。
AI行业这场仗,打到最后拼的不是谁先跑几步,而是谁能一直跑下去。
谷歌的"农场+物业"模式,本质是把"饭碗"端在了自己手里,成本低、有底气,还能随时调整节奏。
OpenAI的"租房买粮",看着灵活,实则处处受制于人,别人一涨价、一断供,就得抓瞎。
这让我想起当年智能手机大战,苹果自己搞芯片、搞系统,三星也是全产业链布局,最后活下来的都是有"家底"的。
AI行业现在走的,其实是老路,谁能把算力、数据、场景攥在自己手里,谁才能笑到最后。
OpenAI要是想翻盘,光靠模型聪明不够,得赶紧攒"家底"。
要么咬牙把芯片搞出来,要么找到稳定的算力来源,不然早晚得被算力这根绳子勒住脖子。
至于那些还在起步的小公司,看着巨头们拼家底,估计得琢磨新路子了或许以后"专精特新"才是小玩家的活路。
AI这行当,跟咱们过日子一样,"手里有粮,心里不慌"。
自己有农场有物业,总比租房买粮强。
这道理,谷歌懂了,OpenAI可能还在慢慢悟。