<th id="h94vi"></th>

<thead id="h94vi"><center id="h94vi"></center></thead>
<th id="h94vi"></th>
  • <style id="h94vi"></style>
      1. 新聞動態(tài)

        DeepSeek 如何重構(gòu)算力市場?

        2025.02.06

        理解Token

        Token 是自然語言處理(NLP)中的一個基本概念,是文本的最小可處理單位。在如 Transformer 這種深度學習模型中,輸入的文本數(shù)據(jù)需要被轉(zhuǎn)換為 token 序列。模型通過學習這些 token 序列的模式和關系,來理解語言的結(jié)構(gòu)和語義。


        例如,在英文中,“Hello, world!” 可以被分解為以下 token:["Hello", ",", "world", "!"]。

        在中文中,“你好,世界!”可以被分解為以下 token:["你好", ",", "世界", "!"]。


        images.png

        文本數(shù)據(jù)的Token分解



        Token 可以做為訓練數(shù)據(jù)量的度量

        業(yè)界通常會用 token 的數(shù)量來衡量訓練數(shù)據(jù)的規(guī)模。例如,DeepSeek v3 的預訓練使用了 14.8 萬億 token,這意味著模型在訓練過程中學習了 14.8 萬億個 token 的序列。



        Token 可以做為計算復雜度的指標

        模型的計算復雜度通常與 token 的數(shù)量密切相關,處理更多的 token 需要更多的計算資源和時間。


        大模型DeepSeek-R1 


        DeepSeek-R1 采用 Mixture-of-Experts (MoE) 架構(gòu),總參數(shù)量為 6710 億,每次推理時激活的參數(shù)為 370 億,模型使用了 14.8 萬億 tokens 進行訓練,最大生成長度為 32,768 tokens,支持長文本的處理。


        DeepSeek-R1的性能表現(xiàn)

        在多個基準測試中,DeepSeek-R1 的性能與 OpenAI 的 o1 模型相當,甚至在某些任務上表現(xiàn)更優(yōu)。


        d41586-025-00229-6_50594662.jpg

        DeepSeek-R1在不同測試方式中的排名



        DeepSeek-R1的運行成本

        DeepSeek-R1 的運行成本顯著低于 OpenAI 的 o1 模型。具體來說,DeepSeek-R1 每百萬輸入token的成本為 0.55 美元,每百萬輸出token的成本為 2.19 美元,而 OpenAI o1 的成本分別為 15 美元和 60 美元。DeepSeek-R1 的成本降低了約 95%。



        DeepSeek-R1的訓練成本

        DeepSeek-R1 的預訓練階段使用了 2048 個 H800 GPU 的集群進行訓練,采用混合精度 FP8 訓練,耗時約 3.7 天,總計約 180,000 個 H800 小時。

        DeepSeek-R1 的訓練成本約為 557 萬美元,在強化學習階段的計算成本估計約為 100 萬美元,總計約為600萬美元。相比較之下,Open AI o1 的訓練成本約為5億美元,成本是 DeepSeek-R1 的83倍。


        DeepSeek重構(gòu)算力市場



        算力需求趨于理性和均衡

        DeepSeek 通過算法優(yōu)化、數(shù)據(jù)效率提升、硬件利用率優(yōu)化以及全流程成本控制等多方面的技術創(chuàng)新,顯著降低了訓練和推理所需的算力,實現(xiàn)了高性能模型的低成本訓練和部署。


        以運行 DeepSeek R1 671B 全量模型所需硬件配置為例,具體如下:


        CPU:AMD Ryzen 9 7950X 或更高配置。

        內(nèi)存:至少 1TB DDR5 內(nèi)存。

        存儲:至少 2TB PCIe 4.0 NVMe SSD。

        顯卡:20張 RTX 3090 或 10張 RTX A6000。


        雖然全量模型的運行的配置要求仍然比較高,但是對于企業(yè)用而言,不再是可望而不可及。


        短期來看,算力需求的下降沖擊了傳統(tǒng)算力供應商的業(yè)務增長邏輯。長期來看,當AI應用百花齊放,大模型與產(chǎn)業(yè)應用深度結(jié)合之后,會推動算力需求持續(xù)上漲。



        新興GPU和AI芯片廠商迎來發(fā)展機遇

        DeepSeek 在研發(fā)過程中采用了PTX(Parallel Thread Execution)語言。PTX作為一種底層硬件指令集,能夠直接與GPU驅(qū)動函數(shù)進行交互,顯著降低了對CUDA框架的依賴,并在硬件適配方面展現(xiàn)出了更高的靈活性和自主性。


        華為昇騰等國產(chǎn)GPU廠商已完成DeepSeek V3/R1的部署,并且開放服務。DeepSeek 的成功降低了大模型對高端芯片的依賴,為其他 AI 芯片廠商提供了更多的市場機會。



        算法與芯片協(xié)同優(yōu)化,推動邊緣AI加速應用

        DeepSeek 模型的開源給了所有AI芯片廠商的創(chuàng)新提供了新思路,通過將芯片的CPU、GPU和TPU、FPGA等核心異構(gòu)集成,針對AI模型算法進行進一步優(yōu)化,可大幅提升端側(cè)AI設備的表現(xiàn),從而推動AI的應用場景不斷拓展,從智能制造、智能駕駛、智能安防等領域向醫(yī)療、教育、金融、零售等更多行業(yè)滲透。



        下一條: 垂直供電:AI加速卡的終極供電方案

        返回列表
        分公司:德國明陽  |  德國明陽(工廠)  |  美國明陽
        版權?2025 明陽電路科技股份有限公司保留所有權利. 粵ICP備05084072號     技術支持沙漠風
        <th id="h94vi"></th>

        <thead id="h94vi"><center id="h94vi"></center></thead>
        <th id="h94vi"></th>
        • <style id="h94vi"></style>
            1. 色哟哟~日韩精品 | 亚洲爆乳无码一区二区三区APP | 欧美成人性爱视频在线播放 | 操操草 | 91精品国产91久久久久久国产三级 | 一区二区永久免费 | 肉丝草逼视频 | 欧美日韩高清 | 大美女swag | 射逼逼影视网 |