DeepSeek 确实很强大,但要客观看待,如果没有达到而疯传这是捧杀。DeepSeek 花了 550w 美元就训练出了 DeepSeek-R1 模型网传 DeepSeek 只花600万美元左右就训练出了 R1 模型就打败了 OpenAI 公司一年几亿美元训练的 o1。真相:DeepSeek 花费 600 万美元出处是发布 DeepSeek-V3 模型论文指出:使用 2048 块英伟达 H800 GPU,耗时 55 天完成训练,总成本为 557.6 万美元。这里的价格只是 GPU 租借计算的花销,并且是 v3 模型而不是具有思考推理能力 R1 模型。(R1 DeepSeek 从未公布过具体花费)。而 OpenAI 公司训练 o1 模型从未公布过具体 GPU 花费,大家看的是它公司总的研发成本,这本身不具备可比性。结论:DeepSeek 公司在模型训练上确实做了很多工程上的优化,比大部分公司花费小,但也没有不良媒体传的少十几,几十倍的花销就完成 R1 模型。DeepSeek 训练模型时绕过了英伟达的 CUDADeepSeek 使用了PTX(Parallel Thread Execution)训练模型,而 PTX 本身属于CUDA技术栈的一部分,是英伟达GPU的中间指令集架构。所以 DeepSeek 通过直接编写 PTX 代码优化性能,但这并未脱离 CUDA 框架,而是更底层的技术手段。所以英伟达还是大部分 AI 公司训练模型绕不开的。而最近很多大部分所谓支持了 DeepSeek R1 平台的公司,好像咱们又突破了,可以不用英伟达显卡,但这里的支持只是部署环境,和做大模型公司训练模型不一样的。主流的AI公司训练大模型主流还是用英伟达的 CUDA,不然英伟达公司不会只跌 17% 后又走稳,应该直接腰斩了。客观体验来说 R1 确实很强,它已经和达到第一梯队的水平,但并没有超越,真正的意义在于,我国免费就能获取最强的AI产品,要知道GPT月用户20美元,专业版200美元,而 DeepSeek 不收费。而且它代表开源力量已经走到了第一梯队,为 DeepSeek 骄傲。