

股票名稱 | 報價日期 | 今買均 | 買高 | 昨買均 | 實收資本額 |
---|---|---|---|---|---|
集邦科技 | 2025/06/21 | 議價 | 議價 | 議價 | 142,598,530 |
統一編號 | 董事長 | 今賣均 | 賣低 | 昨賣均 | 詳細報價連結 |
70566970 | 林啓東 | 議價 | 議價 | 議價 | 詳細報價連結 |
星期三
集邦科技:AI伺服器推動記憶體產業興盛|集邦科技
集邦科技最新調查報告顯示,隨著人工智慧(AI)技術的發展,伺服器記憶體需求將迎來新一波成長。根據報告,AI伺服器的DRAM平均容量預計將達到1.2~1.7TB,而企業用固態硬碟(Enterprise SSD)的容量提升則呈現非必要擴大的趨勢,但在傳輸介面上將優先採用PCIe 5.0以滿足高速運算需求。 報告指出,由於AI伺服器對速度的要求更高,因此會優先使用DRAM或高頻寬記憶體(HBM),而SSD的容量提升則不會成為首要考慮。AI伺服器在單條模組上多採用64~128GB,而NVIDIA A100 80GB配置四張或八張卡時,HBM用量約為320~640GB。隨著AI模型的複雜化,預計將推升伺服器DRAM容量達2.2~2.7TB、企業用SSD容量倍增至8TB、及HBM搭載容量倍增至512~1024GB。 在AI伺服器的市場方面,NVIDIA定義的深度學習及機器學習(DL/ML)型AI伺服器平均每台搭載四張或八張高階顯卡,並搭配兩顆主流型號的x86伺服器CPU。主要購買力來自美系雲端業者,如Google、亞馬遜AWS、Meta與微軟等。 集邦統計,2022年高階搭載GPGPU的伺服器出貨量年增約9%,其中近80%的出貨量集中在中國及美國八大雲端業者。展望2023年,預計AI伺服器出貨量年增率可達15.4%,2023年至2027年AI伺服器出貨量年複合成長率(CAGR)約12.2%。 在HBM市場方面,去年三大原廠市占率分別為SK海力士的50%、三星的40%、及美光的10%。隨著NVIDIA H100與AMD MI300的推出,三大原廠已規劃相對應規格HBM3的量產。SK海力士為目前唯一量產新世代HBM3產品的供應商,整體HBM市占率可望提升至53%,而三星、美光則預計陸續在今年底至明年初量產,市占率分別為38%及9%。
上一則:AI伺服器 帶旺記憶體需求
下一則:南亞科DDR5產品拚下半年量產