• 开云(中国)Kaiyun·官方网站咱们不错尝试推算一下-开云(中国)Kaiyun·官方网站

  • 发布日期:2024-06-29 07:06    点击次数:195

    导读:奥特曼得先念念好从哪儿“搞钱”。

    作家:Leslie Wu

    著作来源:腾讯科技(qqtech)

    有一又友问:Leslie,你是专科建厂诞生,之前传出山姆奥特曼要投资7万亿造芯,天然本东说念主不解确回报,但大媒体传出来,一定不是系风捕影。若是有7万亿,造合算,如故买合算,若是造,可能要考虑哪些方面的干与及要素?

    奥特曼的“7万亿”听说简直是震天动地,构念念很有敬爱,回答这个问题得具备丰富的半导体建厂,工艺,运营等一系列学问,咱们不错尝试推算一下,若是手抓7万亿好意思元,奈何将这笔钱“合理地”花出去?

    01

    每万片晶圆,建厂投资150亿好意思元

    起初,第一步势必是分娩GPU逻辑芯片,这么一来需要先盖一座逻辑晶圆厂。咱们以台积电首先进的2nm工场为例,望望每万片晶圆的成本干与情况。

    按投资额分辩,晶圆厂各项干与比例大致为:制程拓荒:77%,地皮与建筑物:4%,洁净室:5%,水电气化学品等供应系统设施:14%。

    光刻机是晶圆厂最大的制程拓荒投资项之一,占比在20%傍边,并且2nm需要用到EUV光刻机(崇敬其中25层的光刻),成本相对更高,占比预测会提高至24%傍边。

    现在台积电的2nm如故取舍低数值孔径的EUV,对应ASML最新款的NXE:3800E,其每小时产出晶圆(WPH,Wafer per hour)大致在190-200片的区间,单台拓荒每月产能预测2400片傍边(具体计较见下表细心),这意味着每万片晶圆的产能,需要4台ASML的NXE:3800 EUV光刻机,而除了EUV崇敬的25层外,其余层还需要3台每小时产出晶圆295片的NXT:2100,以及一台KrF DUV光刻机。

    *单台拓荒月产能=每小时产出晶圆数*运行时长*% customer efficiency(效果)*% doseage headwind(vs.30mJ)*EUV层数*30天

    按照ASML提供的数据,NXE:3800E售价2亿好意思元傍边,NXT:2100i约7500万好意思元,KrF DUV约1500万好意思元,这意味着2nm工艺的晶圆厂,每万片晶圆产能,光刻机(含维修以及备件)的干与预测在13亿好意思元傍边。

    按照光刻机的干与占一起制程拓荒24%的比例倒推,制程拓荒的总干与为54亿好意思元,而制程拓荒占晶圆厂一起投资额的77%,以此倒推,2nm节点,每万片晶圆产能,晶圆厂总投资额大致为71亿好意思元。

    每万片晶圆产能,晶圆厂总投资额分辩,单元:好意思元

    建完GPU逻辑芯片厂之后,还要考虑分娩HBM的DRAM厂的建造。

    咱们以首先进的1gamma制程为例,尽管DRAM的EUV光刻层有所减少,但每万片晶圆需要的拓荒数目却不降反增,尤其是刻蚀拓荒,举座估算下来,1gamma制程的DRAM厂投资额玩忽在逻辑芯片晶圆厂的总投资额的85%,即60亿好意思元傍边。

    补充说一下,DUV时间,DRAM厂的投资额玩忽为同级别的逻辑晶圆厂110%-120%,直到7nm节点,逻辑厂启动多半使用EUV光刻机,每万片晶圆产能的投资额启动反超DRAM厂。

    处置前段的GPU逻辑芯片和DRAM存储芯片之后,还要处置后段的封装问题,包括CoWoS先进封装、HBM封装两部分。

    现在,首先进的AI芯片取舍的事SoIC+CoWoS封装技艺,HBM4将会取舍夹杂键合(Hybrid Bonding),每万片晶圆的投资额将大幅提高至10亿好意思元(含拓荒厂房)。另外,先进封装波及到的中介层,也还需期骗DUV构建配套的65/45nm的前段晶圆厂,投资额为每万片晶圆8亿好意思元。也即是说,封装部分,每万片晶圆的举座投资额预测在18亿好意思元傍边。

    每万片晶圆产能,不同晶圆厂单元投资额,单元:好意思元

    这个用钱的活波及到的数据比较多,帮民众作念一个小回来,每万片晶圆产能,或者说单元投资额,对应2nm制程的逻辑晶圆厂、1gamma制程的DRAM厂、封装厂(先进封装+中介层,10亿好意思元+8亿好意思元)方面的投资共计在150亿好意思元傍边。

    02

    年产600万颗GPU,成本500亿好意思元

    然而,GPU逻辑芯片、HBM内存以及中介层,对应的比例不是1:1:1的关系,通盘总投资额还要在单元投资额的基础上,按照系数加多,这个系数大致不错从一颗GPU,所需要的CPU、HBM内存、中介层的数目来推算。

    以英伟达最新的Blackwell架构GPUB200的Die size(814mm²)为例,每片晶圆不错切80颗芯片,按照台积电最佳的工艺,良率大致在65%傍边,即每片晶圆不错切50颗Good Die。

    附带说一下,由于GPU逻辑芯片是大芯片,为了提高光刻的曝光明晰面积,物镜成像的景深就需要适度在相对较洪流平,这会导致分辨率裁汰,是颓势变多,良率着落的进犯原因。

    英伟达的B200搭配了Grace CPU,2颗GPU搭配1颗Grace CPU,那么50颗GPU,需要搭配25颗CPU。按照3nm制程计较,以CPU的Die Size和良率预估,一派晶圆不错切300颗傍边的CPU芯片,这意味着一派GPU晶圆,需要搭配0.08片CPU晶圆。

    现在3nm节点,每万片晶圆的投资是2nm节点的70%,大致50亿好意思元,也即是说干与71亿好意思元分娩10000片GPU晶圆的同期,还要对应投资71亿好意思元×70%×0.08,即4亿好意思元,用于CPU晶圆的分娩。

    AI芯片的另一个重头戏即HBM,英伟达的H100、H200标配6颗,到Blackwell架构的B200,则取舍了8颗HBM3e内存。按照台积电最新的道路图,2026年,一颗GPU不错搭配12颗HBM内存,届时HBM的规格还将从12层堆叠的HBM3e,升级至16层堆叠的HBM4/4e。

    如前文所述,2nm晶圆不错切出50颗GPU逻辑芯片,按照B200的圭臬,每片晶圆需要搭配400颗HBM3e内存。现在,1gamma制程的DRAM芯片,每片晶圆玩忽不错出1200颗DRAM颗粒,而按照85%的良率计较,最终不错得到1000颗DRAM颗粒,之后要将这些DRAM颗粒封装成12层堆叠的HBM3e内存。现在,封装的良率玩忽在80%傍边,即一派DRAM晶圆不错出1000÷12*80%,约等于70颗傍边12层堆叠的HBM3e内存。

    也即是说,一派GPU晶圆,除了需要0.08片CPU晶圆,还需要5.7片DRAM晶圆。将来跟着GPU逻辑芯片搭配HBM颗粒数进一步加多,尤其是堆叠数目从12层提高到16层,GPU:DRAM晶圆1:5.7的比例,还会进一步扩大。

    按现存先进封装的中介层尺寸,一派晶圆不错完成15颗GPU逻辑芯片的封装,对应一派GPU逻辑芯片的晶圆,需要3.3片晶圆的先进封装。

    每万片晶圆产能,不同晶圆厂的建厂投资总数,单元:好意思元

    一句话回来:每10000片GPU晶圆,需要800片CPU晶圆,5.7万片DRAM晶圆,3.3万片中介层晶圆,3.3万片SoIC+CoWoS先进封装,5.7万片HBM封装,对应的投资额,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476亿好意思元。

    每10000片GPU晶圆通盘配套芯片的分娩工场需要蓦然476亿好意思元,加上其他手忙脚乱用度径直算整数为500亿好意思元,换算成GPU芯片数目,为每月50万颗,一年600万颗。

    03

    8年半不错烧完7万亿好意思元

    投资500亿好意思元,一年分娩600万颗GPU,这是个什么意见?不错阐发台积电CoWoS产能,来推算全宇宙的AI GPU的量,然后再进行对比。

    2024年,台积电CoWoS整个31万片的产能,其中95%齐是给AI GPU,唯唯独万多片是给Xilinx的FPGA,剩下的近30万片被英伟达、AMD以及全球互联网大厂诸如Google,AWS,Meta,Mircosoft的自研ASIC芯片平分。

    也即是说,台积电CoWoS产能代表全宇宙AI芯片产能,2024年80%的GPU如故只使用2.5D CoWoS,英伟达的H100大致是每片29颗,其他自研ASIC则齐高于这个圭臬,有的还逾越40颗,现在唯独AMD的MI300使用SoIC封装,每片约为15颗。

    概括下来,本年台积电30万片CoWoS产能,对应大致是1000万颗GPU,这也即是2024年全球AI GPU的大致总量。前边提到,干与500亿好意思元,每年可分娩600万颗GPU,也即是说,在2024年,念念要分娩振作全宇宙需求的1000万颗AI GPU,总干与需要830亿好意思元。这个水平荒谬于台积电2-3年的成本开销,也玩忽是台积电Fab20A,一座月产12万片的2nm芯片工场的总投资额。

    干与830亿好意思元,就能分娩出2024年全宇宙所需要的AI芯片,念念要把奥特曼的7万亿好意思元花完,还有好多责任要作念,毕竟830亿好意思元也只是是建造芯片工场的用度。

    芯片厂、DRAM厂、封装厂齐盖完之后,就要考虑分娩劳动器的工场建造,还得盖许多座近似工业富联的这么的工场,不外这类劳动器拼装工场与芯片工场比较来说,只是相形失色,把AI劳动器通盘产业链上的工场一起建造起来,包含劳动器,光模块,液冷,铜线材,多样各样的模具厂,年产1000万颗GPU,按单个劳动器8颗GPU算,即120万台劳动器,通盘下流工场的总投资额大致为170亿好意思元。加上上游芯片工场的830亿好意思元,1000亿好意思元则是2024年全球通盘AI 芯片+劳动器出货量所需的工场建造总成本。

    高下流工场建造只是着手,工艺还需要陆续的研发干与,包括设想、制造关系的研发用度,掩盖GPU、CPU、HBM、先进封装等等措施,这部分不错打包算一下英伟达、AMD、台积电、SK海力士的研发总数,大致300亿好意思元。再加上劳动器硬件研发、比如光模块、也冷等等,研发部分的用度满打满算不错达到500亿好意思元。

    而关于OpenAI,在鼓舞AGI的路上,也需要陆续的进行模子研发干与,每年在这上头的用度至少200亿好意思元。

    芯片部分的研发+AI部分的研发,每年的总干与至少在700亿好意思元,若是要更快入的鼓舞,加大研发干与是势必,通盘鼓舞AGI终极指地方研发干与,每年估算需加大干与到1000亿好意思元。

    以上的研发用度还不包括检修用度,且检修需要多半的水电资源消耗,这部分基础设施相似需要自建。

    泰西地区现在建造1KW核电机组的成本大致4000好意思元,每百万千瓦的核电机组一年发电量约为8.6亿度电,阐发IEA(海外动力协会)计较,2027年全球东说念主工智能将蓦然1340亿度电,是以要建造155组百万千瓦的核能机组,这需要6000亿好意思元傍边。

    阐发加州大学河边分校的接洽,2027年东说念主工智能将蓦然66亿立方米的清洁淡水,大致是全英国一半的用水量,主要场景来自于劳动器的冷却,发电以及芯片制造这三大耗水措施,建造相应的水处理厂用度大致为1000亿好意思元。

    比较前边的投资,制造措施的东说念主力成本畛域相对较小,重头戏主要在芯片的设想,包括模子研发部分。

    前段晶圆厂把东说念主力成立拉满 , 每万片约需要1000东说念主,后段约1500东说念主,2000万颗GPU年产能的通盘前段工场(含DRAM,中介层等)大致需要2万东说念主,东说念主均年芯为15万好意思元,后段封装需要3万东说念主,东说念主均年薪约为7万好意思元,加上5000名种种芯片制造研发东说念主员,东说念主均20万好意思元,每年芯片制造的东说念主员薪资用度整个60亿好意思元。

    芯片设想以及大谈话模子的东说念主力成本方面,按照英伟达+OpenAI+微软劳动器部门的1.5倍计较,约为5万东说念主,东说念主均年薪30万好意思元,共150亿好意思元波及劳动器通盘硬件制造的工场东说念主数为15万东说念主,电力以及用水保险设施东说念主员15万东说念主,共30万东说念主,东说念主均年薪8万好意思元,整个为240亿好意思元。

    以上通盘措施,东说念主力薪资成本为每年60亿+150亿+240亿共450亿好意思元。

    物料成本方面,GPU及关系芯片,再加上通盘劳动器硬件的成本为2000好意思元/颗,年2000万颗,即400亿好意思元。劳动器的运营用度方面,东说念主工420亿好意思元+物料成本400亿好意思元+其他杂用180亿好意思元,取整数1000亿好意思元。

    OpenAI年产2000万颗GPU的投资额及各项用度推算,单元:好意思元

    以上即奥特曼躬行下场造芯波及到的主要措施的用度的拆解,若是替奥特曼花这笔钱,理念念的决策是:2000亿好意思元建造年产2000万颗GPU(2024年全球约1000万颗)以及波及通盘劳动器硬件的制造工场,然后为了鼓舞AGI的终极指标每年干与1000亿好意思元的研发干与,关系设想、研发、制造总东说念主力成本1000亿好意思元,投资7000亿建造动力以及用水的基础设施,同期编列2000亿好意思元现款搪塞税费以及种种杂用或者莫得计较到的用度,终末保留4000亿好意思元算作可能漏算的筹谋金,如斯一来,大致需要1.7万亿好意思元,就不错掩盖2000万颗AI GPU通盘制造工场的启动资金。

    运营资金方面,要保持每年1000亿好意思元的芯片以及硬件新产能干与,并陆续鼓舞摩尔定律,提高晶体管密度。每年新增2000亿好意思元的新电力及新用水干与,再加上东说念主工以及物料等每年约1000亿好意思元,这么的话,每年的极限是新增7000亿好意思元的运营用度。

    如斯一来,不到2万亿好意思元即可掩盖2024年全球AI芯片需求量两倍的通盘关系制造,动力基础设施和运营用度,每年新增适度在7000亿好意思元的水平,这笔预算大致不错再烧7.5年。

    怒砸2万亿好意思元,领有全宇宙AI GPU两倍产能 ,奥特曼也无法阁下全球东说念主工智能——OpenAI的模子最初全球,建立在以台积电为代表的全球首先进的芯片制造,以及以英伟达为代表的GPU芯片设想的基础之上,若是奥特曼别辟门户,全地方分娩AI芯片,险些是得罪了现在全球的芯片企业。

    算作“旧势力”,台积电、英伟达以及稠密芯片设想公司,有可能会赞成OpenAI的通盘竞争敌手,包括硅谷乃至于全球的千岩万壑作念大模子以及AI应用的企业,诸如老敌手DeepMind加上谷歌,AWS,Mircosoft等巨头,以及Stability、OpenAI前独创东说念主诞生的Anthropic等创企。

    即便OpenAI的芯片设想与制造本事与台积电、英伟达荒谬,濒临全球通盘大小模子与算法的一众企业,本人就不一定有十足上风,更何况带着7万亿下场造芯片,站在英伟达、台积电的对立面。

    客不雅地说,若是不考虑生态,GPU设想公司倒不是那么无可替代。在GPU设想上,莫得英伟达还有AMD,以致还有Cerebras这类设想整片晶圆面积远远逾越传统GPU的AI芯片设想公司,但在芯片制造上,现在台积电呈现一骑绝尘的态势。

    以2024年为例,台积电可分娩每时时毫米高达2.84亿晶体管密度的N3P工艺,排行第二的英特尔还只可分娩每时时毫米1.8亿晶体管的Intel 4,第一跟第二之间也曾出现了代差,若是在最高性能的芯片上不使用台积电工艺,在基础上就过期竞争敌手一个世代。

    芯片制造无法用钱堆砌,更需要技艺蚁集的行业开云(中国)Kaiyun·官方网站,往死里砸钱砸东说念主,最快也要三年才能建造好芯片工场并分娩出芯片,对OpenAI来说,假定“7万亿”真正存在,濒临“旧势力”的反扑,也至少要撑过这三年。(本文作家Leslie Wu,来源于腾讯科技,Web3大佬已取得作家授权、经Web3大佬裁理发布,文中不雅点为作家不雅点、不代表Web3大佬不雅点。)