亚洲私人影院无码AV一区二区_亚洲中文字幕无码天然素人_亚洲无码播放国内在线_牲交a欧美牲交aⅴ免费真_无码高清视频

AI 算力爆發(fā)!四大新興賽道卡位風(fēng)口

GPT模型在持續(xù)迭代過程中,能力持續(xù)增強,算力需求同樣也呈幾何倍增長。


(相關(guān)資料圖)

現(xiàn)階段的 ChatGPT 是在擁有 3000 億個單詞的語料基礎(chǔ)上預(yù)訓(xùn)練擁有 1750 億參數(shù)的模型。

據(jù) OpenAI 測算,2012 年以來全球頭部 AI 模型訓(xùn)練算力需求 3-4 個月翻一番,每年頭部訓(xùn)練 模型所需算力增長幅度高達 10 倍,遠超摩爾定律的增長速度。

據(jù)此前 IDC 預(yù)測,預(yù)計到 2025 年,中國數(shù)據(jù)圈將增長至 48.6ZB,占全球數(shù)據(jù)圈的 27.8%,成為全球最大的數(shù)據(jù)圈。

AI 大算力的高需求將提升服務(wù)器性能,AI 服務(wù)器需搭載多個 CPU 和 GPU 處理器,同時服務(wù)器 CPU性能不斷升級,要求內(nèi)存技術(shù)同步升級。

DDR5、HBM、CXL、NVLink 等新興技術(shù)有望加速滲透,并充分受益于 AI 帶來的算力需求增長。

AI 服務(wù)器

服務(wù)器一般可分為通用服務(wù)器、云計算服務(wù)器、邊緣服務(wù)器、AI服務(wù)器等類型。

AI服務(wù)器專為人工智能訓(xùn)練和推理應(yīng)用而設(shè)計,大模型帶來算力的巨量需求,有望進一步推動AI服務(wù)器市場的增長。

其中,訓(xùn)練任務(wù)對服務(wù)器算力要求較高,需要訓(xùn)練型服務(wù)器提供高密度算力支持,典型產(chǎn)品有中科曙光X785-G30和華為昇騰Atlas 800(型號9000、型號9010)。

一個典型的人工智能服務(wù)器的 DRAM 容量是普通服務(wù)器的 8 倍,NAND 容量是普通服務(wù)器的 3 倍。

根據(jù)IDC數(shù)據(jù),2022年全球AI服務(wù)器市場規(guī)模202億美元,同比增長29.8%,占服務(wù)器市場規(guī)模的比例為16.4%,同比提升1.2pct。

TrendForce集邦咨詢統(tǒng)計,2022年AI服務(wù)器采購占比以北美四大云端業(yè)者Google、AWS、Meta、Microsoft合計占66.2%為最,而中國近年來隨著國產(chǎn)化力道加劇。國內(nèi)AI服務(wù)器頭部廠商包括:浪潮信息、超聚變、紫光股份(新華三)、中興通訊、中科曙光、工業(yè)富聯(lián)等。

資料來源:TrendForce

根據(jù) TrendForce,2023 年 ChatGPT 相關(guān)應(yīng)用有望再度刺激 AI 相關(guān)領(lǐng)域,預(yù)計 2023 年出貨量增長率可達8%,2022-2026 年復(fù)合成長率將達 10.8%。

01

DDR5: 新一代內(nèi)存接口芯片

海量數(shù)據(jù)對存儲的需求持續(xù)推動內(nèi)存接口芯片量價齊升和市場高速擴容。

持續(xù)受益于服務(wù)器出貨量增長和單臺服務(wù)器內(nèi)存模組用量不斷上升。

內(nèi)存接口是服務(wù)器 CPU 與內(nèi)存橋梁,當(dāng)前正迎來DDR5 升級。

從存儲的分類看,存儲主要可分為RAM(隨機存儲器)和ROM(只讀存儲器)。

RAM可分為SRAM(靜態(tài)隨機存儲器)和DRAM(動態(tài)隨機存儲器)。

SDRAM(同步動態(tài)隨機存取存儲器)是在DRAM的基礎(chǔ)上發(fā)展而來,為DRAM的一種。

DDR SDRAM(雙倍速率同步動態(tài)隨機存儲器)又在SDRAM的基礎(chǔ)上發(fā)展而來,為具有雙倍傳輸率的SDRAM,其數(shù)據(jù)傳輸速度為系統(tǒng)時鐘頻率的兩倍,由于速度增加,其傳輸性能優(yōu)于傳統(tǒng)的SDRAM。

DDR SDRAM經(jīng)歷了DDR2、DDR3、DDR4等幾代技術(shù)更迭,其差異性主要體現(xiàn)存儲器的電源電壓值越來越低,而數(shù)據(jù)傳輸速率卻是呈幾何倍數(shù)增長,同時存儲容量也隨之大幅增加。

DDR5 內(nèi)存性能遠超 DDR4 的規(guī)格上限,配套內(nèi)存接口芯片性能及技術(shù)難度隨之提升。

根據(jù)市場調(diào)研機構(gòu)推測,DDR5 已占據(jù)整個 DRAM 市場份額的 10%,2024年則將進一步擴大至 43%。服務(wù)器市場對高性能有著絕對的需求,可能最先推廣DDR5。

隨著新一代DDR產(chǎn)品的升級,內(nèi)存接口芯片有望迎來量價齊升,DRAM市場有望開啟新一輪增長。

數(shù)據(jù)來源:EEtop

內(nèi)存接口芯片行業(yè)壁壘高,競爭格局相對較好。國內(nèi)瀾起科技正在拓展津逮@服務(wù)器平臺&PCIe Retimer 和 AI 芯片產(chǎn)品線;聚辰股份SPD 受益于算力需求增加及 DDR5 升級。SPD 用于服務(wù)器等領(lǐng)域,受益于算力需求增加及 DDR5 升級。聚辰股份和瀾起科技合作開發(fā)配套新一代 DDR5 內(nèi)存條的 SPD 產(chǎn)品,該產(chǎn)品系列內(nèi)置 SPD EEPROM,系 DDR5 內(nèi)存模組不可或缺組件。

02

HBM:為大算力芯片提供支撐

高帶寬存儲器(HBM)是一款新型的CPU/GPU 內(nèi)存芯片,通過將多個DDR芯片堆疊在一起,實現(xiàn)大容量,高位寬的DDR組合陣列。

HBM 可支持更高速率的帶寬,并實現(xiàn)高于256GBps 的突破性帶寬,單顆粒的帶寬遠超過DDR4 和GDDR6。

HBM將為大算力芯片提供能力支撐,同時生成類模型也會加速 HBM內(nèi)存進一步增大容量和增大帶寬。

如今搭載于新興AI應(yīng)用的內(nèi)存芯片亟待升級,這種設(shè)計能夠大大提升信息交換的速率。

資料來源:AMD

從競爭格局來看,全球范圍內(nèi),HBM2內(nèi)存核心廠商主要包括SK海力士、三星、Altera、英特爾和超微半導(dǎo)體等。

全球第一梯隊廠商主要有SK海力士、三星、Altera和英特爾;第二梯隊廠商有超微半導(dǎo)體和美光。

海力士HBM技術(shù)起步早,占據(jù)較大市場,2018年發(fā)布HBM2,2021年發(fā)布全球首款HBM3,目前在研HBM4。

三星從HBM2開始布局,2016年量產(chǎn)HBM2,2021年2月,三星電子推出了HBM-PIM(存算一體),將內(nèi)存半導(dǎo)體和AI處理器合二為一,2022年HBM3已量產(chǎn)。

國內(nèi)布局廠商中,通富微電在Chiplet、WLP、SiP、Fanout、2.5D、3D堆疊等方面均有布局和儲備;深科技是國內(nèi)最大的獨立DRAM內(nèi)存芯片封測企業(yè),全球第二大硬盤磁頭制造商,全資子公司沛頓科技封裝技術(shù)包括 wBGA/FBGA 等,具備先進封裝 FlipChip/TSV 技術(shù)(DDR4 封裝)能力;長電科技具有高集成度的晶圓級WLP、2.5D/3D、系統(tǒng)級(SiP)封裝技術(shù)和高性能的Flip Chip和引線互聯(lián)封裝技術(shù);兆易創(chuàng)新是國內(nèi)存儲龍頭,是國內(nèi)技術(shù)最為先進的存儲廠商,NORFlash、NAND Flash及MCU為主要產(chǎn)品的業(yè)務(wù)板塊。

TrendForce 預(yù)估 2023-2025 年 HBM 市場年復(fù)合成長率有望成長至 40-45%以上。

03

CXL:存儲芯片界的CPO

隨著存儲成本不斷增加,傳統(tǒng)的PCI-e技術(shù)逐漸乏力。在此背景下,基于PCI-e協(xié)議的CXL技術(shù)應(yīng)運而生。

CXL全稱為ComputeExpressLink,是由英特爾于2019年3 月在 Interconnect Day 2019 上推出的一種開放性互聯(lián)協(xié)議,能夠讓 CPU 與 GPU、FPGA 或其他加速器之間實現(xiàn)高速高效的互聯(lián),從而滿足高性能異構(gòu)計算的要求。

快速成長的人工智能(AI)與機器學(xué)習(xí)(ML)新興任務(wù),持續(xù)激增的云端運算以及網(wǎng)絡(luò)和邊緣的“云端化”將成為推動CXL發(fā)展的重要因素之一。

CXL技術(shù)用途:

資料來源:CXL Consortium

CXL聯(lián)盟董事會成員包括Intel、Google、IBM、Facebook等科技巨擘,發(fā)起者Intel擁有80%服務(wù)器CPU市場份額。

CXL聯(lián)盟成員:

根據(jù)TrendForce,CXL導(dǎo)入將隨著未來CPU內(nèi)建CXL功能而普及化。同時CXL建立數(shù)據(jù)高速互聯(lián)性的優(yōu)點,有助于擴展AI算力,未來AI服務(wù)器將能見到更多采用CXL的設(shè)計。

瀾起科技推出首款支持CXL的MXC芯片并研發(fā)支持CXL的PCIe Retimer芯片。

美光科技在 22 年 5 月與投資者交流時曾預(yù)測 CXL 相關(guān)產(chǎn)品的市場規(guī)模,到 2025 年預(yù)計將達到 20 億美金,到 2030 年 可能超過 200 億美金。

04

NVLink:芯片互連技術(shù)

NVLink 是為了解決服務(wù)器內(nèi)部 GPU 之間點到點通訊的一種協(xié)議。

英偉達在2023年美國消費電子展(CES)上,發(fā)布了數(shù)據(jù)中心專屬CPU——“Grace CPU超級芯片”。該芯片由兩顆CPU芯片組成,其間通過NVLink-C2C技術(shù)進行互連。

NVLink-C2C技術(shù)是一種新型的高速、低延遲、芯片到芯片的互連技術(shù),可最大化提升系統(tǒng)吞吐量。

與Chiplet技術(shù)有異曲同工之妙,可支持定制裸片與GPU、CPU、DPU、NIC、SoC實現(xiàn)互連。

第四代 NVIDIA? NVLink?技術(shù)可為多 GPU 系統(tǒng)配置提供高于以往 1.5 倍的帶寬,以及增強的可擴展性,進而實現(xiàn)超快速的深度學(xué)習(xí)訓(xùn)練。

隨著模型參數(shù)數(shù)量增大,訓(xùn)練所需要算力不斷增長,英偉達有望進一步鞏固公司龍頭地位。

國內(nèi)廠商浪潮推出的NF5688M6是新一代NVLink AI 服務(wù)器,在超大規(guī)模數(shù)據(jù)中心研發(fā)的同時擁有高性能,高兼容,強擴展性能。在6U空間內(nèi)支持2顆Intel最新的Ice Lake CPU和8顆NVIDIA最新的NVSwitch全互聯(lián) A800 GPU,結(jié)合AI算力資源調(diào)度平臺AIStation,能夠釋放強大AI計算性能。

隨著人工智能、機器學(xué)習(xí)、高性能計算、數(shù)據(jù)中心等應(yīng)用市場的興起,內(nèi)存產(chǎn)品設(shè)計的復(fù)雜性正在快速上升,并對帶寬提出了更高的要求。海量的算力數(shù)據(jù)和不斷上升的寬帶需求持續(xù)驅(qū)動人工智能新技術(shù)發(fā)展。

1.ChatGPT:人工智能新興賽道,核心環(huán)節(jié)全梳理

2.機器視覺:AI高成長賽道,產(chǎn)業(yè)鏈全景解析

3.邊緣計算:AI算力新風(fēng)口,核環(huán)節(jié)全梳理

4.MLOps框架全解析

5.人工智能芯片:高算力核心底座

6.AIGC(人工智能生成內(nèi)容)白皮書

7.AI頂規(guī)芯片:人工智能稀缺賽道

關(guān)鍵詞:
圖片版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系我們,我們立刻刪除。
新化月報網(wǎng)報料熱線:886 2395@qq.com

相關(guān)文章

你可能會喜歡

最近更新

推薦閱讀