今日内存大跌,因为Google 出了一个TurboQuant号称能让KV缓存省6倍内存、快8倍,但这其实不影响HBM/DRAM需求。
效率提升只会扩大AI规模,不是内存需求破坏。
1M上下文会发展到无限上下文-更大用户规模和场景。
$MU $SNDK 跌是噪音 不用担心内存从此富足了。
From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.

