很难说这将对他们的利润产生多大影响,但AMD的新"Halo Strix"处理器现在是任何想要运行本地LLM的人的最佳系统。
可以用大约 1.5k 美元的总价购买一个配备 128GB RAM 的设备,它可以完美运行中型/大型模型,比如 gpt-oss 120B。
作为参考,单个Nvidia 5090 ((没有其他PC))价格在$2-3k之间,无法运行完整模型。
一台配备64GB RAM的Mac mini售价为2千美元,但也无法运行该完整模型。
一台配备128GB内存的Mac Studio可以运行,但价格为3.7k美元
查看原文