AI 产业链研究 01:HBM存储+AI云

个人介绍:
个人投资者,主要关注 crypto 和 AI 的投资机会
投资逻辑:
  • 赚科技发展,产业升级的钱(对于成熟公司来说是盈利或者自由现金流的增长,对于一些早期公司是收入增长)
  • 赚估值增长的钱(赚从低估或合理,到高估中间的差价)
  1. 胜率
    1. 赛道 (是否在快速发展?)
    2. 商业模式 (能不能稳定赚钱?)
    3. 竞争分析
    4. 团队(治理结构是什么样的,是否会伤害小股东?)
  1. 赔率
    1. 市场空间
    2. 估值
AI 产业链投资概述:
黄仁勋上周发了一篇文章,说 AI 投资有五层蛋糕,
分别是
  • 上游
    • 能源
    • 芯片
    • 云服务
  • 下游
    • 模型
    • 应用与入口
现状是什么呢?
那么大多数人能够接触到的是比较下游的部分,比如说模型和应用。
比如说聊天机器人,中国的用户可能用这个豆包和千问会比较多啊
外国用户可能主要是用 ChatGPT,然后是 Gemini 和 Claude,包括这个 X 的 Grok
另外一个主要应用的方向是编程。
现在 AI 编程的进化速度非常快,基本上已经远远超过了人工编程的效率。
在编程这块,现在比较领先的是 Claude 的 Opus 模型,而且他们推出的 Claude Code 这个编程工具,也可能是目前使用量最大的。
紧随其后的是这个 ChatGPT 的 Codex 模型,一些追求性价比的用户,可能会用一些国产的模型,比如说 MiniMax 或者智谱的模型。
有很多人担心 AI 下游没法赚到足够的钱。我觉得这主要是因为大家只看到了聊天工具这一块的应用,每个月 20 美元的订阅费肯定很难 cover 现在的资本支出。
但未来的主要收入可能集中在两个领域:
  1. 编程领域
  1. Agent 领域
比如最近最火的 Claude,它消耗 Token 的速度就非常快。我有一个朋友 Claude 玩得很好,他每天要消耗 2000 美元的 Token。
如果你订阅 Claude Max 这个套餐,每个月给 200 美元,但如果你一般用 API 的话,其实能用很多。按 API 来计算,你实际可能能用到四五千美元的额度。
Codex 甚至更加慷慨,因为它现在处于追赶者的状态,可能你花个 200 美元,就能用上几千甚至上万美元的 Token。
所以未来,不管是对个人还是对公司,最重要的事情可能就是提高 ROI(投资回报率)。
具体来说:
  1. 算一下你自己用了多少 Token
  1. 看看这些 Token 给你带来了多少价值
我们的目标是让这个 ROI 尽可能的高。
不管是美国还是中国,都在疯狂地投入资本,把资金投向 AI 比较上游的产业,例如:
  1. 能源
  1. 芯片
  1. 云服务
为什么呢?是因为不管你下游用什么模型、做什么应用,你都得用到这个。
你都得买 GPU,都得去配服务器。而你要配服务器的话,就得有:

👉 CAPEX(建厂)

项目
占比
GPU
40–60%
内存(HBM)
15–25%
其他硬件
10–20%
数据中心建设(含场地)
5–15%

👉 OPEX(运营)

项目
占比
电力
40–70%
人力
10–20%
网络
5–15%
租金
5–10%
维修
5–10%
冷却水
3–8%
存储投资概述
先说一下为什么要选择存储这个赛道:
从整个科技看,现在最火的赛道毫无疑问就是 AI。
在 AI 的这么多赛道里面,目前最火的两个赛道可能就是存储和光通信。
但是光通信这个赛道,我现在还不太懂,还没有做足够的研究,所以就来简单介绍一下存储这个赛道。
存储主要有几块,存储投资一块是 DRAM,就是我们个人计算机里面的内存。做这个比较厉害的公司有美光和三星。
另外一块是硬盘,包括我们用的 SSD、机械硬盘、固态硬盘,这叫做 NAND。这一块也有一些公司,比如西部数据,如果熟悉装电脑的朋友应该很熟悉这些公司。
那么跟 AI 相关的主要是哪一块?既不是 DRAM,也不是内存或普通硬盘,而是 HBM。
为什么说 AI 要用 HBM(高带宽内存)呢?
因为现在英伟达的 GPU 进化速度太快了,算力的增长速度非常惊人。在这种情况下,内存反而成为了整个系统的瓶颈。
你可以把 GPU 想象成一个厨师,他一秒钟就能做 100 道菜;而内存就像是服务员,负责把厨师做好的菜端给顾客。目前的状况是:
  1. 厨师(GPU)一秒钟能做 100 道菜。
  1. 服务员(内存)一秒钟只能送 2 道菜。
这样一来,厨师就没办法继续发挥,必须等服务员把菜送完了才能接着做。
所以,整个系统的瓶颈不在于厨师,也不在于 GPU,而是在于内存。在现在的这种情况下,我们非常需要高带宽的内存,也就是需要那个一秒钟能送 10 道菜、甚至 100 道菜的“服务员”。
我们普通人用的这些内存(如 DDR4、DDR5),带宽相对非常低。但 AI 数据中心要用到的内存,需要有非常高的吞吐量。
HBM 内存中包含很多高端技术,比如将内存堆叠起来,并处理每层与每层之间的连接问题,这其中存在很多技术壁垒。
目前世界上能做 HBM 内存的基本上只有三家公司:
  1. 韩国海力士(SK Hynix):市场份额最大,占了大概 60% 左右。
  1. 美光(Micron):与三星平分剩余份额。
  1. 韩国三星(Samsung):与美光各占 20% 左右的市场份额。
因为这个竞争格局还是非常简单的:有一个超级龙头(也就是海力士),还有两个比较大的竞争者,分别是三星和美光。
从下一代 HBM4 的进度来看,现在三星有反超的趋势。据说它在 2026 年 Q1 就能率先实现大规模量产。
海力士作为英伟达的默认合作伙伴,目前肯定还是保持领先的,但有一部分领先优势可能会被三星吃掉。
至于美光,则处于一个追赶者的地位。
市场上有哪些投资标的?
我目前能投的领域主要是美股和 Crypto。在美股市场,如果要投资韩国的海力士(SK Hynix)和三星,且计划中长线持有,最好的选择是 EWY,也就是韩国的 ETF。
在这个韩国 ETF 里面:
  1. 海力士占比大概有 20%
  1. 三星占比大概有 25%
这两家芯片股加起来大概占了 45% 的权重。剩下的比例是一些我不太了解的韩国股票,比如现代汽车和一些金融股。
如果朋友们能直接找到海力士或三星的投资渠道,直接去投可能会涨得更多一些。我猜测那样会更“干净”,不会受到其他与 AI 无关的股票干扰,是纯粹的存储赛道投资。
如果是做短线的话,比如持仓时间在几天这种周期,港股里面的杠杆 ETF 是一个非常好的选择。目前有两个标的非常适合做趋势行情:
  1. 南方两倍做多海力士
  1. 南方两倍做多三星
这两个工具在趋势中非常高效。举个例子:如果当天海力士涨了 5%,你的两倍杠杆就能涨 10%。
但需要特别提醒的是,杠杆 ETF 每天都会进行重平衡。如果你买了这种杠杆 ETF,但海力士和三星的股价没有走出趋势,而是在走震荡行情的话,你的净值就会一直下降。
所以,这类杠杆 ETF 只有在明确的趋势行情里才是比较适合的工具。这一点我要提醒一下。
AI算力与投资机会:EWY、NBIS与AI Infra播客大纲
一、开场与嘉宾介绍
  • 本期主题—AI大趋势、AI Infra、HBM巨额投入,聚焦EWY(韩国市场ETF,HBM核心受益)与NBIS(AI算力/云基础设施),主讲嘉宾嘉文
  • 嘉文自我介绍,介绍专业背景、实盘经验、交易/投资理念
二、AI大趋势与2026年核心判断
  • 全球AI大趋势:从模型竞赛→算力基建与规模化落地,Agent、多模态、企业级AI驱动算力需求
  • 云厂商/科技巨头AI Infra巨额资本开支持续加码
  • HBM成为算力核心瓶颈,产能紧缺、价格上行、迭代加速(HBM3e/HBM4)
  • GPU→HBM→先进封装→数据中心→AI云服务商全线景气
三、AI Infra与HBM:巨额投入与产业链逻辑
  • AI Infra核心投入方向:超算数据中心、算力集群、高速互联、冷却与供电
  • HBM为什么是核心 1. 大模型训练/推理的带宽刚需,成本占比持续提升 2. 供给格局:三星、SK海力士、美光主导,产能紧、扩产慢、交期长 3. 2026年市场规模、供需缺口、价格与订单能见度
  • 资本开支传导:巨头砸钱→算力采购→HBM/存储/服务器→产业链业绩兑现
四、EWY深度解析
  • 品种定位:韩国综合ETF,AI存储/HBM核心受益标的
  • 核心持仓与逻辑 1. 三星、SK海力士合计权重近半,直接绑定HBM景气 2. 受益逻辑:HBM涨价+产能释放+全球AI算力需求
五、NBIS深度解析
  • 公司定位:原Yandex分拆转型,全球AI云与算力基础设施龙头
  • 核心逻辑 1. 与微软、Meta、英伟达等重磅合作与大额订单,订单能见度极高 2. 全球超大规模AI数据中心部署,算力容量与增长确定性强 3. 财务与增长:营收高增,AI算力业务成为核心引擎
六、投资/配置建议