计算机行业动态报告:豆包大模型推理算力需求测算
领 涨 个 股 |
名称 | 相关 | 涨跌幅 |
---|
资 金 流 入 |
名称 | 相关 | 净流入(万) |
---|
豆包大模型攀升至国内AI应用第一。截至2024年12月中旬,豆包大模型日均tokens使用量超过4万亿,较5月发布时增长超过33倍。根据量子位数据,截至11月底,豆包APP在2024年的累计用户规模已成功超越1.6亿,每日平均新增用户下载量稳定维持在80万,成为全球排名第二,国内排名第一的AIAPP。11月份,豆包APPDAU接近900万,增长率超过15%。
豆包大家族全面更新:12月18日,在字节跳动所召开的火山引擎Force大会上,豆包三大主力模型引来全面升级。1)豆包通用模型pro:综合能力比5月最初发布版本提升32%,与gpt-4o持平,但价格仅是其八分之一。在指令遵循、代码、专业知识、数学、推理等层面全面对齐了gpt-4o水平,其中指令遵循能力提升9%,代码能力提升58%,专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%。2)豆包音乐生成模型:生成水平从“高光片段”跃升到“完整乐章”,用户简单描述或上传一张图片,就能生成一首长达3分钟的包含旋律、歌词和演唱的高质量音乐作品,且提供局部修改功能,在针对部分歌词修改后仍能在原有旋律的节奏框架内适配。3)豆包文生图模型:在通用性、可控性、高质量三方面取得新突破,新增“一键海报”和“一键p图”能力,对文字细节的指令遵循能力强,擅长“写汉字”,其背后的技术源自豆包文生图模型原生的文字渲染能力以及seededit框架,目前已接入即梦AI和豆包app。
AI应用加速落地,推理算力需求或将崛起。IDC数据显示,2024上半年中国加速服务器市场规模达到50亿美元,同比2023上半年增长63%。其中GPU服务器依然占主导地位,达到43亿美元。同时NPU、ASIC和FPGA等非GPU加速服务器以同比182%的增速达到近7亿美元市场规模。我们根据目前豆包的月活、日活以及日均token调用量为基础,做出保守、中性、乐观3种假设,结合大模型推理算力需求计算公式,对豆包带来的推理算力需求进行测算。在3种假设下,预计豆包大模型或将带来759、1139、1898亿元的AI服务器资本开支需求。
投资建议:字节豆包大模型全面升级,月活攀升至国内AI应用第一,我们认为AI应用的加速落地或将带来推理侧算力需求的升级,进而推动头部互联网厂商持续提升2025年算力侧资本开支情况。建议关注:1)AI服务器环节:浪潮信息、工业富联、紫光股份等;2)液冷环节:高澜股份、英维克、浪潮信息等;3)国产推理芯片环节:寒武纪、海光信息等。
风险提示:AI技术落地不及预期;算力行业竞争加剧;互联网厂商资本开支预算不及预期