个人介绍:
个人投资者,主要关注 crypto 和 AI 的投资机会
投资逻辑:
- 赚科技发展,产业升级的钱(对于成熟公司来说是盈利或者自由现金流的增长,对于一些早期公司是收入增长)
- 赚估值增长的钱(赚从低估或合理,到高估中间的差价)
- 胜率
- 赛道 (是否在快速发展?)
- 商业模式 (能不能稳定赚钱?)
- 竞争分析
- 团队(治理结构是什么样的,是否会伤害小股东?)
- 赔率
- 市场空间
- 估值
AI 产业链投资概述:
黄仁勋上周发了一篇文章,说 AI 投资有五层蛋糕,
分别是
- 上游
- 能源
- 芯片
- 云服务
- 下游
- 模型
- 应用与入口
现状是什么呢?
那么大多数人能够接触到的是比较下游的部分,比如说模型和应用。
比如说聊天机器人,中国的用户可能用这个豆包和千问会比较多啊
外国用户可能主要是用 ChatGPT,然后是 Gemini 和 Claude,包括这个 X 的 Grok
另外一个主要应用的方向是编程。
现在 AI 编程的进化速度非常快,基本上已经远远超过了人工编程的效率。
在编程这块,现在比较领先的是 Claude 的 Opus 模型,而且他们推出的 Claude Code 这个编程工具,也可能是目前使用量最大的。
紧随其后的是这个 ChatGPT 的 Codex 模型,一些追求性价比的用户,可能会用一些国产的模型,比如说 MiniMax 或者智谱的模型。
有很多人担心 AI 下游没法赚到足够的钱。我觉得这主要是因为大家只看到了聊天工具这一块的应用,每个月 20 美元的订阅费肯定很难 cover 现在的资本支出。
但未来的主要收入可能集中在两个领域:
- 编程领域
- Agent 领域
比如最近最火的 Claude,它消耗 Token 的速度就非常快。我有一个朋友 Claude 玩得很好,他每天要消耗 2000 美元的 Token。
如果你订阅 Claude Max 这个套餐,每个月给 200 美元,但如果你一般用 API 的话,其实能用很多。按 API 来计算,你实际可能能用到四五千美元的额度。
Codex 甚至更加慷慨,因为它现在处于追赶者的状态,可能你花个 200 美元,就能用上几千甚至上万美元的 Token。
所以未来,不管是对个人还是对公司,最重要的事情可能就是提高 ROI(投资回报率)。
具体来说:
- 算一下你自己用了多少 Token
- 看看这些 Token 给你带来了多少价值
我们的目标是让这个 ROI 尽可能的高。
不管是美国还是中国,都在疯狂地投入资本,把资金投向 AI 比较上游的产业,例如:
- 能源
- 芯片
- 云服务
为什么呢?是因为不管你下游用什么模型、做什么应用,你都得用到这个。
你都得买 GPU,都得去配服务器。而你要配服务器的话,就得有:
👉 CAPEX(建厂)
项目 | 占比 |
GPU | 40–60% |
内存(HBM) | 15–25% |
其他硬件 | 10–20% |
数据中心建设(含场地) | 5–15% |
👉 OPEX(运营)
项目 | 占比 |
电力 | 40–70% |
人力 | 10–20% |
网络 | 5–15% |
租金 | 5–10% |
维修 | 5–10% |
冷却水 | 3–8% |
存储投资概述
先说一下为什么要选择存储这个赛道:
从整个科技看,现在最火的赛道毫无疑问就是 AI。
在 AI 的这么多赛道里面,目前最火的两个赛道可能就是存储和光通信。
但是光通信这个赛道,我现在还不太懂,还没有做足够的研究,所以就来简单介绍一下存储这个赛道。
存储主要有几块,存储投资一块是 DRAM,就是我们个人计算机里面的内存。做这个比较厉害的公司有美光和三星。
另外一块是硬盘,包括我们用的 SSD、机械硬盘、固态硬盘,这叫做 NAND。这一块也有一些公司,比如西部数据,如果熟悉装电脑的朋友应该很熟悉这些公司。
那么跟 AI 相关的主要是哪一块?既不是 DRAM,也不是内存或普通硬盘,而是 HBM。
为什么说 AI 要用 HBM(高带宽内存)呢?
因为现在英伟达的 GPU 进化速度太快了,算力的增长速度非常惊人。在这种情况下,内存反而成为了整个系统的瓶颈。
你可以把 GPU 想象成一个厨师,他一秒钟就能做 100 道菜;而内存就像是服务员,负责把厨师做好的菜端给顾客。目前的状况是:
- 厨师(GPU)一秒钟能做 100 道菜。
- 服务员(内存)一秒钟只能送 2 道菜。
这样一来,厨师就没办法继续发挥,必须等服务员把菜送完了才能接着做。
所以,整个系统的瓶颈不在于厨师,也不在于 GPU,而是在于内存。在现在的这种情况下,我们非常需要高带宽的内存,也就是需要那个一秒钟能送 10 道菜、甚至 100 道菜的“服务员”。
我们普通人用的这些内存(如 DDR4、DDR5),带宽相对非常低。但 AI 数据中心要用到的内存,需要有非常高的吞吐量。
HBM 内存中包含很多高端技术,比如将内存堆叠起来,并处理每层与每层之间的连接问题,这其中存在很多技术壁垒。
目前世界上能做 HBM 内存的基本上只有三家公司:
- 韩国海力士(SK Hynix):市场份额最大,占了大概 60% 左右。
- 美光(Micron):与三星平分剩余份额。
- 韩国三星(Samsung):与美光各占 20% 左右的市场份额。
因为这个竞争格局还是非常简单的:有一个超级龙头(也就是海力士),还有两个比较大的竞争者,分别是三星和美光。
从下一代 HBM4 的进度来看,现在三星有反超的趋势。据说它在 2026 年 Q1 就能率先实现大规模量产。
海力士作为英伟达的默认合作伙伴,目前肯定还是保持领先的,但有一部分领先优势可能会被三星吃掉。
至于美光,则处于一个追赶者的地位。
市场上有哪些投资标的?
我目前能投的领域主要是美股和 Crypto。在美股市场,如果要投资韩国的海力士(SK Hynix)和三星,且计划中长线持有,最好的选择是 EWY,也就是韩国的 ETF。
在这个韩国 ETF 里面:
- 海力士占比大概有 20%
- 三星占比大概有 25%
这两家芯片股加起来大概占了 45% 的权重。剩下的比例是一些我不太了解的韩国股票,比如现代汽车和一些金融股。
如果朋友们能直接找到海力士或三星的投资渠道,直接去投可能会涨得更多一些。我猜测那样会更“干净”,不会受到其他与 AI 无关的股票干扰,是纯粹的存储赛道投资。
如果是做短线的话,比如持仓时间在几天这种周期,港股里面的杠杆 ETF 是一个非常好的选择。目前有两个标的非常适合做趋势行情:
- 南方两倍做多海力士
- 南方两倍做多三星
这两个工具在趋势中非常高效。举个例子:如果当天海力士涨了 5%,你的两倍杠杆就能涨 10%。
但需要特别提醒的是,杠杆 ETF 每天都会进行重平衡。如果你买了这种杠杆 ETF,但海力士和三星的股价没有走出趋势,而是在走震荡行情的话,你的净值就会一直下降。
所以,这类杠杆 ETF 只有在明确的趋势行情里才是比较适合的工具。这一点我要提醒一下。
AI算力与投资机会:EWY、NBIS与AI Infra播客大纲
一、开场与嘉宾介绍
- 本期主题—AI大趋势、AI Infra、HBM巨额投入,聚焦EWY(韩国市场ETF,HBM核心受益)与NBIS(AI算力/云基础设施),主讲嘉宾嘉文
- 嘉文自我介绍,介绍专业背景、实盘经验、交易/投资理念
二、AI大趋势与2026年核心判断
- 全球AI大趋势:从模型竞赛→算力基建与规模化落地,Agent、多模态、企业级AI驱动算力需求
- 云厂商/科技巨头AI Infra巨额资本开支持续加码
- HBM成为算力核心瓶颈,产能紧缺、价格上行、迭代加速(HBM3e/HBM4)
- GPU→HBM→先进封装→数据中心→AI云服务商全线景气
三、AI Infra与HBM:巨额投入与产业链逻辑
- AI Infra核心投入方向:超算数据中心、算力集群、高速互联、冷却与供电
- HBM为什么是核心 1. 大模型训练/推理的带宽刚需,成本占比持续提升 2. 供给格局:三星、SK海力士、美光主导,产能紧、扩产慢、交期长 3. 2026年市场规模、供需缺口、价格与订单能见度
- 资本开支传导:巨头砸钱→算力采购→HBM/存储/服务器→产业链业绩兑现
四、EWY深度解析
- 品种定位:韩国综合ETF,AI存储/HBM核心受益标的
- 核心持仓与逻辑 1. 三星、SK海力士合计权重近半,直接绑定HBM景气 2. 受益逻辑:HBM涨价+产能释放+全球AI算力需求
五、NBIS深度解析
- 公司定位:原Yandex分拆转型,全球AI云与算力基础设施龙头
- 核心逻辑 1. 与微软、Meta、英伟达等重磅合作与大额订单,订单能见度极高 2. 全球超大规模AI数据中心部署,算力容量与增长确定性强 3. 财务与增长:营收高增,AI算力业务成为核心引擎
六、投资/配置建议