Cerebras(CBRS)搶下OpenAI大單、啟動IPO:能真正威脅輝達(NVDA)嗎?
談到「Cerebras 能不能挑戰 NVDA」,關鍵不在單一技術指標,而是整體生態與商業可持續性。Cerebras 的晶圓級引擎在硬體規格上確實極具話題:單顆晶片尺寸遠超 B200、記憶體頻寬也大幅領先,並宣稱解決了長年困擾產業的晶圓級整合問題。再配合自家系統與軟體堆疊,形成從晶片到資料中心的一體化方案,這種垂直整合模式,理論上能在特定 AI 工作負載(特別是大型模型推論)上提供極具競爭力的效能與能效。然而,要挑戰 NVDA,不只比效能,更要比開發者生態、工具鏈成熟度、產能與供應鏈彈性。GPU 已在 AI 訓練與推論上建立完整軟體與開發社群,Cerebras 要突破,就必須說服更多企業願意承擔從 GPU 架構轉移的學習與導入成本。
OpenAI 200億美元大單與AWS合作,意味著什麼競爭位置?
Cerebras 與 OpenAI 簽下三年 200 億美元總值合約,加上約 10 億美元資料中心投資承諾,確實在市場上投下震撼彈,象徵其技術已獲頂級 AI 開發者實際採用,而非只停留在概念驗證。另外,與 AWS 的合作,將其系統與 AWS Trainium、網路技術整合,切入雲端推論市場,代表它並非試圖單打獨鬥,而是嵌入既有雲服務供應商的版圖中。從財務數字看,2025 年營收年增 76%、成功轉虧為盈,顯示在 AI 推論需求爆發下,它找到了明確的成長曲線。但從競爭格局來看,它目前更像是「在特定應用與客戶群快速崛起的利基玩家」,而不是全面取代 NVDA 的主流選擇;真正值得觀察的是,這些合作能否擴散成更大的客戶與開發者生態,而非集中在少數標誌性合約。
面對Cerebras(CBRS) IPO:該等觀察還是直接申購?
如果你在思考「要不要追 CBRS IPO」,可以先把問題拆成幾個層次:第一,這間公司目前的成長高度,是否已在短期大型合約中被充分反映,未來一旦單一客戶需求變動,對營收與獲利的影響風險有多大?第二,它主打的 AI 推論市場雖具成長性,但 NVDA、AMD 與其他專用 AI 晶片廠也都在積極布局,價格與技術迭代可能壓縮長期毛利。第三,Cerebras 曾因 G42 合作爭議而撤回 IPO,如今雖已排除疑慮重新申請,仍值得持續關注未來是否還會遭遇地緣政治或監管變數。對多數投資人而言,與其只被 OpenAI 合約或技術規格吸引,不妨思考:你是否理解其商業模式的可持續性、客戶集中度與競爭優勢能維持多久?在 IPO 熱度退燒、更多公開財報與市場反饋出現後,再評估是否參與,往往能做出更符合自身風險承受度的決策。
FAQ
Q:Cerebras 的優勢主要在 AI 訓練還是推論?
A:目前公司重心在 AI 推論,強調在大型模型推論場景中提供比傳統 GPU 解決方案更高效能與能效。
Q:OpenAI 合約對 Cerebras 的風險是什麼?
A:合約帶來成長動能,但也提高客戶集中度風險,一旦合作條件或需求改變,可能對營收波動造成影響。
Q:與 AWS 合作是否能保證長期成長?
A:合作拓展了雲端市場入口,但能否轉化為大規模、穩定的客戶採用,仍取決於實際成本效益與開發者接受度。
你可能想知道...
相關文章
Cerebras(CBRS)預估115–125美元IPO、估值衝400億,美股AI晶片新股現在該追嗎?
輝達(NVDA)的強勁競爭對手、AI晶片製造商 Cerebras(CBRS) 計畫於本週一正式啟動 IPO 法說會。根據消息人士透露,這次上市的發行價預計將落在 115 至 125 美元之間。這也是 Cerebras(CBRS) 繼去年10月撤回上市申請後,第二度挑戰叩關美股市場,預計將在納斯達克交易所掛牌上市。 籌資規模上看40億美元,目標估值直逼400億大關 針對本次重啟 IPO 規劃,Cerebras(CBRS) 目前尚未對外做出官方回應。不過根據近期報導指出,這家備受市場矚目的 AI 晶片公司,此次上市有望籌集高達 40 億美元的資金。若以籌資規模推算,公司的目標估值預計將達到 400 億美元左右,展現出強烈的市場企圖心。 專攻大型AI模型運算,核心技術直球對決輝達(NVDA) 總部位於加州的 Cerebras(CBRS),在市場上最為人熟知的便是其獨家研發的「晶圓級引擎晶片」。這項核心技術專門針對大型 AI 模型的訓練與推論進行加速優化,藉由提供更龐大的算力與更高的效率,讓公司能直接與輝達(NVDA)等 AI 硬體巨頭在熱門的運算賽道上展開激烈競爭。 獲利能力大幅躍進,年度EPS達1.38美元成功轉虧為盈 除了具備技術優勢,Cerebras(CBRS) 在財務表現上同樣繳出亮眼成績單。截至去年12月31日的年度財報顯示,公司的年度營收從前一年的 2.903 億美元大幅增長至 5.1 億美元。更令投資人振奮的是,其每股盈餘(EPS)達到 1.38 美元,成功扭轉了前一年高達 9.90 美元的每股虧損困境,展現出強大的獲利爆發力。 華爾街頂級投行護航,四大承銷商助攻IPO之路 為了確保這次重返資本市場的計畫能夠順利推行,Cerebras(CBRS) 找來了華爾街陣容堅強的投資銀行團隊。本次 IPO 發行將由摩根士丹利(MS)、花旗(C)、巴克萊(BCS)以及瑞銀(UBS)擔任主要承銷商。透過這四大投行的專業護航與市場網絡,Cerebras(CBRS) 期望能在 AI 投資熱潮中,順利吸引更多資金挹注。
Cerebras IPO 估值飆到 70 倍營收,對壓寶 Nvidia、SK Hynix 的 AI 晶片投資還撐得住嗎?
2026 年首樁矚目 AI 晶片 IPO 由 Cerebras 打頭陣,端出與 OpenAI 2,460 億美元合約與超大型晶圓級晶片搶市,但估值高達約 70 倍營收、產能與單一客戶風險巨大。同時,Nvidia 下一代 Vera Rubin 平台高度仰賴 SK Hynix 主導的 HBM4 供應鏈,AI 算力競賽正從 GPU 延伸到記憶體與晶圓代工全產業鏈。 生成式 AI 帶動的算力戰,正從「誰的 GPU 更快」悄悄轉向「誰能做出更快、更省電、供貨最穩的 AI 系統」。2026 年第一樁話題 AI 晶片 IPO,即將由新創公司 Cerebras 打頭陣,挑戰資料中心霸主 Nvidia (NASDAQ: NVDA)。同一時間,Nvidia 自家下一代 Vera Rubin 平台,又在高速記憶體 HBM4 上高度押注 SK Hynix,讓整條供應鏈面臨前所未有的集中風險。 Cerebras 近日已向美國證券交易委員會(SEC)遞交 S-1 文件,顯示上市腳步逼近。這家公司最大的賣點,是它完全顛覆傳統 GPU 的「晶圓級」AI 晶片架構。一般 GPU 是把一片矽晶圓切成多顆晶片,Cerebras 則反其道而行,把整片晶圓當作一顆超大型晶片使用。根據其申報資料,這種 wafer-scale engine 尺寸約為 Nvidia Blackwell B200 封裝的近 30 倍,晶體管數量更高出 19 倍,將大量運算核心與記憶體直接整合在同一片矽上。 這種設計的核心訴求,是大幅降低 AI 模型運算時的資料傳輸成本。傳統資料中心往往需要部署數千顆 GPU,相互之間透過高速網路交換資料,不只耗電、延遲高,整體系統打造與維運成本驚人。Cerebras 主張,把更多核心與記憶體鎖在同一顆晶片內,可節省大量外部網通與封裝開銷,在推論(inference)場景上速度可達主流 GPU 解決方案的 15 倍,且更省電、更易管理,對講求回應時間的「推理模型」尤其關鍵。 也因為技術敘事強烈,Cerebras 已拿下兩筆重量級合約。其一是與 OpenAI 達成總額約 2,000 億美元等級的長約,自 2026 至 2028 年提供 750 MW 推論算力,並有機會在 2030 年前再追加 1.25 GW 容量;其二則是與 Amazon (NASDAQ: AMZN) 合作,將 Cerebras 的 CS-3 系統導入雲端平台 AWS,並與其自研 Trainium3 晶片整合。憑藉這兩大客戶,其財報中「尚未履約義務」帳面金額高達 246 億美元,對去年營收僅 5.1 億美元的新創而言,是極具想像空間的「爆發庫存」。 然而,這些數字現在都還不是收入,而是需要多年兌現的承諾。風險首先來自執行難度。要在短時間內為 OpenAI 擴建龐大資料中心、佈建電力與冷卻、確保系統穩定運轉,對過去沒有同等規模經驗的 Cerebras,是極具挑戰的工程。任何交付延宕或效能不如預期,都可能讓 OpenAI 調降採購,進而侵蝕整個商業故事的基礎。 第二個關鍵風險在供應鏈。Cerebras 的晶圓級晶片完全仰賴 Taiwan Semiconductor Manufacturing (NYSE: TSM) 生產,目前使用 5 奈米製程,未來還得跟著 TSMC 一同轉向 3 奈米。由於 wafer-scale 良率天生較低,一個微小瑕疵就可能報廢整片晶圓,再加上 TSMC 需要兼顧包括 Nvidia 在內多家大型客戶的高階產能分配,Cerebras 想要順利擴產,恐怕得在價格與交期上付出不小代價。 再者,Cerebras 的營運高度集中於 OpenAI 單一客戶,其龐大訂單固然讓財報看起來亮眼,卻也埋下「客戶集中度過高」的結構風險。若未來無法快速擴大其他雲端客戶或企業採用,任何 OpenAI 策略調整,都可能對公司營運造成致命衝擊。市場傳出,Cerebras IPO 估值可能上看 350 億美元,約為過去一年營收 70 倍本益比,遠高於 Nvidia 目前約 23 倍的歷史營收倍率,也顯示估值中已高度反映未來成長預期。 與此同時,身為既有霸主的 Nvidia 則把籌碼押在下一代 Vera Rubin 平台上,盼進一步鞏固資料中心市占。但 Vera Rubin 真正關鍵並不在 GPU 本身,而在其背後的高速記憶體 HBM4。該平台要達成外界預期的效能指標,必須搭配速率超過 10Gb/s 的新一代 HBM4 堆疊記憶體,否則整體算力與能效都難以完全發揮。 問題在於,現階段能夠量產 HBM4 的廠商屈指可數,且市況已呈現高度集中。業界訊息顯示,SK Hynix 目前掌握約 70% 初期 HBM4 供給份額,Samsung Electronics 雖已通過 Nvidia 認證,但先前在良率與認證節奏上的落後,讓其在初期供應上仍屬次要角色;Micron Technology 雖宣布啟動 HBM4 量產,但在供應比重上仍難撼動 SK Hynix 與 Samsung 的領先地位。 SK Hynix 為搶下這波 AI 記憶體紅利,大手筆在清州興建名為 P&T7 的先進封裝巨型廠,投資金額高達約 128.5 億美元,並與 TSMC 共同開發 HBM4 基板與邏輯製程整合,希望把 HBM 堆疊與 GPU/邏輯晶片封裝集中在同一個產線,縮短交期、提升封裝效率。這讓 SK Hynix 深度鎖進 Nvidia 的核心製造鏈條,從 GPU 設計、邏輯製程到記憶體封裝緊密串連。 風險在於,這同樣是一場「押上全部」的大賭注。若 HBM4 良率不如預期,或與 TSMC 的整合出現瑕疵,SK Hynix 的供應優勢恐怕瞬間瓦解。但迄今為止,市場數據顯示,該公司在第一季交出高達 72% 的營業利益率,已遠超多數半導體同業,凸顯 AI 記憶體從週期性商品,正快速轉型為具定價權的「關鍵基礎設施」。 綜合來看,AI 晶片戰局已不再只是單純的「誰的 GPU 更強」。Cerebras 嘗試用革命性的晶圓級架構與 OpenAI 超大合約突圍,但必須面對產能、單一客戶與估值過熱三重壓力;Nvidia 則在穩固霸主地位的同時,把命脈綁在 SK Hynix 與 HBM4 供應鏈上,一旦良率或擴產出現意外,整個 Vera Rubin 節奏都可能被打亂。 對投資人而言,當前 AI 硬體賽局的關鍵不只在技術參數,更在於供應鏈掌控力與執行力。Cerebras 能否如期兌現 2,460 億美元級別的履約義務?SK Hynix 是否能持續維持超高毛利與主導地位?Nvidia 又能否在依賴關鍵供應商的前提下維持產品節奏?這些問號,將在未來幾季的產能爬坡、實際交付與新一輪財報中,逐一揭曉。眼下可以確定的是,AI 晶片的勝負,已經從實驗室走向工廠產線,也從單一公司擴散為整條產業鏈的聯合作戰。
台積電ADR守在404美元上方,Cerebras IPO在即:5奈米產能卡位戰,現在跟單還來得及嗎?
Cerebras(美國AI晶片新創,以全晶圓尺寸芯片為核心技術)即將在2026年完成首次公開募股,被外界視為年度最受矚目的AI IPO。它的核心客戶是OpenAI,但整條商業模式只靠一家晶圓廠撐著,那就是台積電。問題來了:台積電現在真的有空嗎? Cerebras的生意能不能做大,台積電說了算 Cerebras的晶片設計打破傳統,把整片晶圓當成一顆晶片來用。這種「全晶圓級晶片」(Wafer-Scale Engine,整片矽晶圓直接製成單一芯片)全球只有台積電的5奈米製程能生產,沒有備援、沒有替代廠商。OpenAI的算力訂單一旦放大,Cerebras的產能瓶頸就直接卡在台積電的排程上。 台積電正在把5奈米產能轉去餵輝達,Cerebras排在哪裡 台積電目前的優先順序清楚:5奈米正在轉型升級至3奈米,騰出的資源首先服務輝達(Nvidia)等頭部客戶的高階AI加速器訂單。Cerebras使用的是5奈米,在客戶排序上不佔優勢。更麻煩的是,全晶圓級晶片的良率(wafer yield,晶圓上可用芯片的比例)天生就比小晶片低,因為一片晶圓上只要有一個缺陷,整片報廢。放量生產的成本壓力,比一般晶片高出好幾個等級。 台積電股價漲0.63%,但這個風險還沒被定價 台積電ADR(美國存託憑證,讓美國投資人買台股的交易工具)27日收在404.98美元,單日上漲0.63%。市場目前的定價邏輯是:台積電是AI唯一贏家,所有訂單都得進門。Cerebras的挑戰反而是台積電的隱性籌碼,因為沒人能取代它。但這個邏輯有個反面:當Cerebras在IPO後真的要快速放量,台積電的5奈米產能若無法配合,Cerebras的業績就會直接踩煞車,進而讓外界重新審視台積電替新客戶調度產能的彈性。 台積電在美股漲,台股先別急著跟單 台積電是台股最大市值個股,兩地股價高度連動。這篇報導對台股最直接的意義是:市場開始用Cerebras的放量能力,來側面檢驗台積電5奈米的實際剩餘產能。若台積電法說會上出現5奈米訂單能見度收窄的跡象,供應鏈的PCB、CoWoS先進封裝廠商都會同步承壓。 Cerebras若衝量失敗,台積電不賠錢但市場會重新算帳 Cerebras上市後最大的外溢效應不是訂單,而是「資訊揭露」。一旦Cerebras成為公開上市公司,它每季的財報都會揭露台積電的交貨能力、生產良率壓力,這些數字過去完全不透明。整條AI晶片供應鏈,從台積電到封裝測試,都將增加一個新的外部觀察窗口。 股價守在400美元之上,市場還沒把這個風險當真 Cerebras IPO消息出來後,台積電ADR未見到波動放大,代表市場目前把它當成「需求再添一筆」的正面訊號。如果Cerebras上市後首季財報顯示OpenAI訂單準時出貨,代表市場把台積電的產能調度能力當成既定事實。如果Cerebras揭露交貨延遲或良率問題導致成本暴衝,代表市場擔心台積電在5奈米的排程已經沒有緩衝空間。 看這三件事,才知道Cerebras的風險有沒有燒到台積電 看Cerebras IPO招股書中台積電的採購承諾金額與交貨時程:若採購金額超過10億美元且交貨集中在2026年下半年,代表台積電5奈米產能壓力在年底前就會浮現。 看台積電下季法說會對5奈米稼動率的說明:若稼動率維持95%以上且客戶組合未改變,偏多;若提到需要「重新協調」特定製程產能,偏空。 看Cerebras上市後前兩季的毛利率:若毛利率低於40%,代表全晶圓良率壓力已轉嫁至成本,台積電的生產條件比市場預期更緊張。 現在買台積電的人在賭AI新客戶不斷湧入就是漲價籌碼;現在等的人在看5奈米產能有沒有已經排滿、新訂單只能往後擠。 以下細節待後續公告確認:Cerebras IPO最終定價區間、台積電對Cerebras的合約產能配額。 延伸閱讀: 【美股動態】Musk要自建晶圓廠,台積電的30%成長還守得住嗎? 【美股動態】台積電Arizona封裝廠2029年啟動,CoWoS留台還是出走? 【美股動態】停火只給10天,美股台股先搶航空還是AI? 版權聲明 本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。 免責宣言 本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。 文章相關標籤
Cerebras(CBRS)吃下200億美元OpenAI大單、2025年轉盈IPO在即,現在敢搶AI晶片新股嗎?
AI晶片製造商Cerebras(CBRS)在近期與OpenAI及亞馬遜(AMZN)旗下AWS達成重大合作協議後,正式向美國證券交易委員會提交首次公開募股申請。該公司主力產品晶圓級引擎處理器專為處理龐大的AI工作負載而設計,將直接與科技巨頭輝達(NVDA)及超微(AMD)展開競爭,而超微(AMD)同時也是Cerebras的投資人之一。 WSE晶片效能輾壓對手解決整合難題 根據招股說明書的資料顯示,被稱為晶圓級引擎的處理器,體積是輝達(NVDA) B200晶片的58倍,記憶體頻寬更是包含兩顆獨立晶片的B200封裝的2625倍。公司強調,為了打造這款晶片,他們解決了計算機產業長達75年來在晶圓級整合上的難題,成功處理了這種尺寸晶片的生產、良率、供電與散熱問題。 透過將龐大的運算能力與記憶體整合在單一矽晶片上,並結合專屬構建的系統與軟體堆疊,Cerebras得以提供極其驚人的運算速度。這使得客戶無論是透過本地端部署或是雲端服務,都能享受到卓越的AI處理效能。 簽下OpenAI大單攜手亞馬遜攻推論市場 在本週稍早,Cerebras成功與OpenAI簽署了一項為期三年、總價值高達200億美元的合約,將負責提供搭載自家晶片的伺服器。此外,OpenAI也同意提供約10億美元的資金,協助Cerebras開發能夠運行其AI產品的資料中心。 另一方面,亞馬遜(AMZN)旗下AWS在上個月也宣布了與Cerebras的全新合作夥伴關係。這項結盟讓AWS成為首家提供這家新興AI晶片商分離式推論解決方案的大型雲端供應商。雙方將結合搭載AWS Trainium的伺服器、Cerebras CS-3系統以及Elastic Fabric Adapter網路技術,共同搶攻龐大的雲端商機。 2025年營收飆升轉虧為盈專注AI推論 受惠於強勁的市場需求,招股書顯示Cerebras在2025年的營收達到5.1億美元,較前一年同期大幅成長76%。財務狀況也出現顯著好轉,成功從2024年的淨虧損4.816億美元,在2025年繳出淨利2.378億美元的亮眼成績單,順利實現轉虧為盈。 目前公司的晶片主要聚焦於AI推論領域,這正是越來越多AI工作負載所急需的核心能力。Cerebras指出,公司正在打造全球最快的商業AI基礎設施,其軟硬體平台在執行AI任務時,比同類基於GPU的解決方案更快且更有效率。目前客戶已可透過AWS、微軟(MSFT) Marketplace、IBM(IBM) watsonx等多元管道取得系統服務。 排除G42審查疑慮重啟那斯達克上市 這其實並非Cerebras首次嘗試掛牌上市。該公司最初曾在2024年9月提交公開發行申請,但當時因美國聯邦政府審查其與阿布達比AI公司G42的關聯,導致上市進程陷入停滯,並於2025年10月一度撤回IPO計畫。 不過就在上個月,Cerebras明確對外表示這項問題已獲得解決,G42不再被列為公司的商業合作夥伴與少數股權投資人。若此次申請順利獲得批准,Cerebras的股票將以CBRS為代號在那斯達克全球精選市場掛牌交易,此次發行將由摩根士丹利、花旗集團、巴克萊銀行以及瑞銀集團共同領銜主辦。
營收飆到5.1億、簽下200億美元OpenAI大單的Cerebras IPO在即,高風險AI晶片新勢力值得追嗎?
專攻AI推論運算的晶片新創Cerebras再度申請赴那斯達克掛牌,端出與OpenAI簽下高達200億美元伺服器大單、並與Amazon Web Services結盟的強勢戰略,正面迎戰Nvidia與AMD,重塑雲端與AI晶片版圖。 在Nvidia(NVDA)幾乎壟斷AI運算版圖之際,一家自稱能打造「全球最快商用AI基礎設施」的新創再度敲門資本市場。AI晶片公司Cerebras(CBRS)向美國證券交易委員會(SEC)重新遞交IPO申請,準備登上Nasdaq Global Select Market,矛頭直指Nvidia與AMD(AMD)在AI晶片的既有優勢。 Cerebras本次重啟IPO,關鍵在於一連串重量級合作加持。公司在申報文件中揭露,已與OpenAI(OPENAI)簽署一筆金額高達200億美元的伺服器供應協議,將在未來三年提供搭載自家晶片的伺服器。同時,OpenAI也承諾投入約10億美元,協助Cerebras興建專用資料中心,以運行其AI產品。對一家仍屬新興的晶片供應商而言,這等級的長約訂單與資本支持,堪稱翻身關鍵。 另一個關鍵盟友則是雲端巨頭Amazon Web Services(AMZN)。AWS上月宣布與Cerebras建立合作關係,成為首家提供其「拆分式推論(disaggregated inference)解決方案」的主流雲服務商。雙方將結合AWS自家Trainium伺服器、Cerebras CS-3系統以及Elastic Fabric Adapter網路技術,瞄準的是生成式AI爆發下,客戶對高效率推論運算的龐大需求。 技術面上,Cerebras最具話題性的武器是其Wafer-Scale Engine(WSE)晶片。公司在文件中強調,這枚晶片面積是Nvidia最新B200晶片的58倍,記憶體頻寬更高出2,625倍。Cerebras宣稱,透過解決業界長達75年無法量產的「晶圓級整合(wafer-scale integration)」難題,得以在單一晶片上整合龐大運算與記憶體,並搭配特製系統與軟體堆疊,為客戶提供遠優於傳統GPU架構的AI速度。 與市場多數競逐訓練晶片的玩家不同,Cerebras刻意將重心放在AI推論(inference)工作負載。公司指出,未來AI運算的主戰場,將從少數超大型訓練,轉向海量、持續運行的推論服務,因此在能源效率、延遲與整體擁有成本(TCO)上,必須與現行GPU方案拉開差距。其AI超級電腦可在客戶資料中心內部署、透過Cerebras Cloud提供,或藉由合作雲端上架,試圖以「全堆疊」模式鎖住企業客戶。 營運數據顯示,Cerebras已不再是燒錢無底洞。2025年公司營收年增76%至5.1億美元,成功由虧轉盈,從2024年的4.816億美元淨損,翻轉為2025年淨利2.378億美元。這一轉變,不僅反映AI基礎設施需求升溫,也顯示其商業模式開始跑通。加上Cerebras的股東陣容包括競爭對手AMD,顯示傳統GPU巨頭也不得不押注這種新型架構的潛力。 Cerebras此次上市計畫並非初次嘗試。早在2024年9月,公司就曾提交IPO申請,但因美國聯邦機構審查其與阿布達比AI公司G42之關係而受挫,最終於2025年10月撤回。直到今年3月,Cerebras才對外表示相關問題已獲解決,G42也不再是其商業夥伴與少數股東,為重啟IPO掃除監管陰影。 在市場佈局上,Cerebras採取「多雲多入口」策略,降低單一平台風險。除了AWS Marketplace,其系統也可透過Microsoft(MSFT)的Marketplace、IBM(IBM)的watsonx Model Gateway,以及Vercel AI Gateway、OpenRouter與Hugging Face等管道取得,讓開發者與企業客戶能在熟悉的雲端與工具環境中試用與導入其方案,避免與既有GPU供應鏈正面衝突的門檻過高問題。 然而,Cerebras能否在Nvidia與AMD的夾擊下殺出血路,市場仍存疑慮。一方面,Nvidia長年在軟體生態與開發者社群深耕,CUDA平台已形成強大鎖定效應,要說服客戶轉換架構並非易事。另一方面,雖然Cerebras強調能以更少伺服器提供同等性能,降低能源與冷卻成本,但真正的TCO優勢,仍需透過更多大規模商業案例驗證,投資人也會密切檢視其未來幾季訂單能見度。 從監管角度來看,Cerebras成功切割G42,也反映美國政府對AI晶片與國安、技術外流的敏感度大幅提升,新創若要成為全球供應鏈一環,必須提早布局合規與地緣政治風險。對投資人而言,這也意味著AI晶片股不僅是技術與成長故事,更夾帶政策變數。 展望後市,Cerebras若成功上市並在OpenAI與AMZN的加持下持續交出成長成績,勢必對Nvidia與AMD形成實質壓力,尤其是在高效推論市場。但反過來說,一旦AI景氣波動或大型合約執行遇阻,擴產與資料中心投資的資本密集特性,也可能反噬獲利表現。對投資人而言,Cerebras代表的是既高風險、也高潛在報酬的AI新世代晶片賭注,其能否真正改寫AI運算版圖,將是未來幾年科技股版圖變化的一大觀察焦點。 免責宣言 本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。
Cerebras 營收暴衝啟動 IPO、估募資 10 億美元:輝達 NVDA 壓力升溫還能追嗎?
放大鏡短評 Cerebras的IPO申請以及其快速增長的收入,顯示AI市場的需求正在強勁擴大,進一步強化了市場對AI相關技術的信心。AI需求推動科技股獲利成長,投資者看到AI獲利實現後,可能會更加積極投入AI產業,科技股股價有望受惠上揚。花旗集團(C)和巴克萊(BARC)這些公司作為Cerebras IPO的主要承銷商,將從IPO交易中獲益,並且IPO市場的繁榮有助於這些投行的收入提升,有助於其股價短期走升。 然而更多的AI技術不斷發展,晶片市場將出現更競爭的局勢。Cerebras 的上市可能對輝達(NVDA)構成了直接的競爭壓力,尤其是 Cerebras 強調其晶片在價格和效能上具備優勢時,輝達最受挑戰。如此不利於輝達的消息,可能使得輝達股價在短期內恐承壓。不過,輝達仍為AI晶片的先行者,且具有廣泛的客戶群,比 Cerebras 的集中客戶風險較小,且持續投入研發,故 Cerebras 對輝達所造成的長期威脅或為較小。 新聞資訊 營收激增,IPO計劃亮相美股市場 Cerebras Systems於10月初向美國提交IPO申請,揭露其在2023年的財務成果顯示營收增長顯著,年營收達到7,870萬美元,與前一年的2,460萬美元相比,增幅超過三倍。除了收入激增,Cerebras的虧損也有縮小跡象,每股虧損由上一年的4.28美元縮小至2.92美元,顯示公司在收入增長的同時也在積極改善成本控制。此次上市計劃由花旗銀行和巴克萊銀行擔任主要承銷商,預計在納斯達克交易所掛牌,股票代碼為“CBRS”。根據彭博新聞的報導,Cerebras可能籌資高達10億美元,但具體的IPO條件尚未公開。 AI市場機遇,與G42合作為關鍵 Cerebras在IPO說明書中強調,該公司全年83%的收入來自於AI技術集團G42,這是一家部分由阿布達比主權投資機構穆巴達拉持股的公司。這意味著G42不僅是Cerebras的重要合作夥伴,也是公司主要的收入來源,未來的業績表現將深受與G42合作的影響。 此外,Cerebras在IPO文件中表示,AI運算市場有望從2024年的1,310億美元增長到2027年的4,530億美元,年均增長率非常可觀,這為Cerebras的成長提供了豐富的機會。隨著AI技術需求持續增長,特別是大型語言模型的普及,這類市場的規模不斷擴大,Cerebras希望通過此次IPO,籌集資金來加速技術研發,增強自身競爭力。 技術挑戰,與輝達正面競爭 Cerebras的發展重點在於挑戰AI晶片市場的霸主輝達(NVDA)。輝達目前是全球AI晶片領域的領導者,其先進的硬體技術被OpenAI等公司用來開發支持應用程式(如ChatGPT)的底層軟體。Cerebras的技術策略是推出比輝達傳統集群晶片更大、更強的單片AI晶片,這顆大型晶片具有更高的運算效率,旨在打破輝達的市場壟斷。Cerebras於八月推出了一款供AI開發者使用的新工具,允許開發者訪問其超大晶片以運行應用程序,並強調其成本較輝達的處理器低廉。這一舉措表明,Cerebras不僅要在技術上超越輝達,還要在價格上提供更具吸引力的選擇,吸引那些有高效能需求但成本敏感的企業客戶。 IPO市場回溫,AI領域受投資人青睞 美國IPO市場在經歷了兩年的低迷後,於2024年出現復甦趨勢,這主要受到經濟軟著陸預期及股市創新高的推動。隨著市場對未來經濟前景的樂觀情緒上升,投資者對科技公司的興趣逐漸恢復。特別是AI領域,由於這一技術具有高度成長性和潛在的革命性應用,因此特別受到市場的青睞。AJ Bell的投資分析師Dan Coatsworth認為,Cerebras正好趕上了市場對AI技術和新創公司的強烈需求。 延伸閱讀: 【美股盤勢分析】伊朗飛彈擊落美股,惟Meta逆勢收紅!(2024.10.02) 【美股新聞】美中科技戰火加劇!中國力阻企業購買輝達H20晶片,恐面臨巨額損失 【美股新聞】輝達股價震盪不止,美光助力AI信心,分析師維持強烈買入評級 【美股新聞】全球AI晶片需求超旺,輝達看多理由又增! 【美股新聞】輝達擴大投資AI,擬收購OctoAI強化AI與雲端運算技術 版權聲明 本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。 免責宣言 本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。 文章相關標籤 本文內容轉載於此
輝達(NVDA) 豪砸 200 億美元買 Groq 技術!GTC 前夕鋪局 AI 推論新戰場
GTC 大會聚焦推論晶片新佈局 在去年聖誕節前夕,輝達(NVDA)斥資約 200 億美元,取得晶片新創公司 Groq 的技術授權,並延攬包含前執行長在內的關鍵員工。這項在 AI 淘金熱中極具競爭影響力的決策,隨著輝達(NVDA)即將於下週在加州聖荷西舉辦年度 GTC 大會,再度成為市場焦點。執行長黃仁勳預計將在主題演講中,分享如何將 Groq 的晶片技術整合至其主導的 AI 運算生態系統中。 這場為期四天的盛會被業界譽為「AI 界的超級盃」,市場預期輝達(NVDA)也將更新其核心產品繪圖處理器(GPU)的發展藍圖,包含新一代 Vera Rubin 架構。華爾街分析師指出,輝達(NVDA)積極引進 Groq 技術的主要動機,極有可能是為了打造一款專攻 AI 模型日常應用的全新晶片,也就是業界所稱的「推論」階段。 AI 推論成巨頭必爭之地 隨著 AI 應用逐漸普及,推論市場正成為 AI 運算領域中競爭最激烈、成長最快的區塊,這同時也是輝達(NVDA)資料中心客戶的主要營收來源。雖然輝達(NVDA)在 AI 模型「訓練」階段佔有絕對優勢,但推論市場的競爭者眾多,客戶正積極尋求更具成本效益的解決方案來應對龐大需求。 目前市場上的挑戰者包含排名第二的 GPU 製造商超微(AMD),該公司近期與 Meta(META) 達成合作協議。此外,Google(GOOGL) 與博通(AVGO) 共同設計的張量處理單元(TPU) 也是強勁對手,其支援的 Gemini 聊天機器人成功提升了 TPU 的市場地位。同時,亞馬遜(AMZN) 的 Trainium 晶片,以及近期被甲骨文(ORCL) 提及的新創公司 Cerebras,都在積極搶攻這塊大餅。 輝達捍衛 AI 推論霸主地位 面對激烈競爭,輝達(NVDA)在推論領域依然展現強大實力。根據 2024 年的數據顯示,推論業務佔其總營收約百分之四十。執行長黃仁勳曾向分析師強調,現今全球絕大多數的推論工作負載都在輝達(NVDA)的設備上運行。 在二月下旬的財報會議上,財務長指出,半導體產業研究機構 SemiAnalysis 近期將輝達(NVDA)評為「推論之王」,主因是其最新一代 Grace Blackwell 架構 GPU 在效能上,較前一代 Hopper 架構有著顯著的提升。這顯示輝達(NVDA)不僅在訓練領域稱霸,也正積極鞏固推論市場的領先地位。 聯手 Groq 突破運算速度瓶頸 為了進一步提升推論能力,輝達(NVDA)透過非專屬授權協議引進 Groq 技術,藉此避開反壟斷審查。在這筆交易中,Groq 創辦人 Jonathan Ross 轉戰輝達(NVDA)擔任首席軟體架構師。Ross 先前曾在 Google(GOOGL) 參與開發初代 TPU,隨後創辦 Groq 並推出專為推論設計的語言處理單元(LPU)。 GPU 的優勢在於平行處理能力,適合處理龐大訓練資料;而推論則需要循序漸進的運算,速度是關鍵。Groq 的 LPU 採用直接內建於晶片引擎的靜態隨機存取記憶體(SRAM),運算速度極快;相較之下,GPU 使用的高頻寬記憶體(HBM) 不僅面臨供應短缺,價格也水漲船高。這項技術互補成為雙方合作的核心契機。 LPU 與 GPU 互補發揮加速效益 在加入輝達(NVDA)之前,Ross 曾在受訪時明確表示,Groq 的技術與輝達(NVDA)的核心 GPU 產品能產生強大的互補效應。他指出,LPU 的運算速度遠勝 GPU,若將 AI 模型的特定部分交由 LPU 執行,其餘部分保留在 GPU 上運行,將能大幅提升整體系統的運作效率與經濟效益。 Ross 進一步說明,考量到市場上已經部署了大量的 GPU 設備,一個可行的應用場景是將 LPU 作為現有 GPU 的「氮氣加速器」,在不汰換既有設備的情況下,顯著提升推論階段的運算表現。這種軟硬體結合的潛力,讓外界對黃仁勳即將發表的願景充滿期待。 併購綜效有望複製 Mellanox 成功經驗 隨著 AI 技術演進,輝達(NVDA)朝向更專業化的晶片發展是合理的策略佈局。黃仁勳在財報會議中透露,整合 Groq 技術作為加速器的方式,將與六年前收購網通設備商 Mellanox 的成功模式非常相似。當年這筆收購讓輝達(NVDA)從單純的晶片設計商,成功轉型為提供 AI 運算一站式服務的巨頭。 數據顯示,在 2026 會計年度第四季,輝達(NVDA)的網通業務營收已達約 110 億美元,幾乎與超微(AMD)的整體營收相當;而公司第四季總營收更較前一年同期飆升百分之七十三,達到 681.3 億美元。市場正密切關注,這次與 Groq 的百億美元級別合作,是否能為輝達(NVDA)創造下一個爆發性的成長動能。 文章相關標籤
【美股新聞】Arm(ARM) 殺進自研 AI 伺服器晶片,Meta(META) 搶當首批客戶,輝達(NVDA) 壓力來了?
1. Arm 宣布自研晶片、股價跳漲約 6% Arm (ARM) 宣布進軍自研晶片市場後,市場反應正面,股價單日上漲約 6%,顯示投資人對 Arm 擴展業務模式充滿期待,尤其是 AI 伺服器市場的成長潛力巨大。不過,這也意味著 Arm 將與輝達 (NVDA) 等大客戶形成競爭關係,短期可能引發市場不確定性。若 Arm 能順利推出高效能晶片並獲得更多客戶支持,長期成長動能值得關注。 目前股價已因消息上漲,但長期趨勢仍取決於晶片研發與市場接受度。對於長線投資者,若 Arm 能成功建立 AI 伺服器晶片市場地位,則具備良好成長潛力,可逢回調布局。但短期內,市場仍需觀察新晶片的實際效能與客戶採用情況,若競爭壓力加劇或訂單不如預期,股價可能出現波動。 2. Arm 為何決定自研晶片? Arm 長期以來透過授權其晶片架構給其他企業來獲利,並未直接參與晶片製造。然而,隨著 AI 運算需求激增,該公司希望進一步擴展其業務模式,直接參與 AI 晶片市場,以獲取更大收益。根據報導,Arm 的第一款自家晶片將是一款針對伺服器的中央處理器 (CPU),並將由台積電 (TSMC) 等代工生產。 3. Meta 為何成為 Arm 首批客戶? Meta (META) 正積極擴展其 AI 基礎設施,尋求更多供應鏈選擇,以減少對輝達 (NVDA) 等主要晶片供應商的依賴。與 Arm 合作,Meta 可獲得高度客製化的伺服器晶片,以優化 AI 運算效能。此外,Arm 的技術授權模式使其能夠為 Meta 量身打造更符合其需求的產品。 4. Arm 與輝達、高通會發生競爭衝突嗎? Arm 過去主要負責提供架構設計,而輝達 (NVDA)、高通 (QCOM) 等公司則基於 Arm 架構設計自己的晶片。如今,Arm 親自涉足晶片製造,勢必與這些客戶形成競爭關係,特別是在 AI 伺服器市場,可能會影響與現有客戶的合作關係。 5. 軟銀 AI 戰略如何影響 Arm? Arm 的母公司軟銀正在積極佈局 AI 基礎設施,並準備收購由甲骨文 (ORCL) 支持的晶片設計公司 Ampere,這將進一步強化 Arm 在 AI 領域的競爭力。透過這次轉型,軟銀希望使 Arm 不僅是架構供應商,更成為 AI 晶片市場的核心參與者。 延伸閱讀(原文列示標題): 【美股盤勢分析】川普緩徵新關稅,美股全面走揚!(2025.02.14) 【美股研究報告】亞馬遜 24Q4 駕著多頭馬車,回檔就是上車機會? 【美股研究報告】AMD 資料中心營收未達預期,DeepSeek 或加劇競爭壓力,股價恐一蹶不振? 【美股新聞】川普擬推互惠關稅,美國通膨恐加劇,這些產業仍有望受惠! 【美股新聞】思科上調全年財測,股價飆升近 7%,值得買入嗎? 版權聲明 本文章之版權屬撰文者與 CMoney 全曜財經,未經許可嚴禁轉載,否則不排除訴諸法律途徑。 免責宣言 本網站所提供資訊僅供參考,並無任何推介買賣之意,投資人應自行承擔交易風險。
【即時新聞】甲骨文(ORCL) 豪押 OpenAI 3,000 億美元雲端合約,燒錢三倍擴產還撐得住基本面嗎?
AI 基礎建設的軍備競賽已進入白熱化的「燒錢」階段,甲骨文(ORCL) 正試圖在這場賽局中透過極高槓桿的策略豪賭翻身。根據市場最新消息,OpenAI 已與甲骨文簽署了一項長達五年、總值高達 3,000 億美元的雲端基礎設施承諾,這顯示出這家老牌軟體巨頭在大型語言模型(LLM)算力戰場上的野心。然而,這背後釋出的財務信號卻令部分資深投資人感到不安:為了承接這項承諾,甲骨文的資本支出(Capex)在上季激增至 120 億美元,年增率高達三倍,資金主要用於建置昂貴的 GPU 算力中心、網路設備與冷卻系統。 有趣的是,市場資金對於這場豪賭的風險承受度出現分歧。相較於競爭對手微軟(Microsoft)單季能創造 250 億美元的自由現金流來「自體造血」支應支出,甲骨文上季卻是面臨 100 億美元的現金消耗(Cash Burn),必須依賴發行長期債務來支撐這場擴張戰。這種近乎「梭哈」的策略大幅推升了客戶集中度風險,一旦 OpenAI 的成長動能遭遇逆風或削減支出,甲骨文(ORCL) 將面臨龐大的閒置產能與沉重的債務壓力,這與微軟擁有分散且強健的軟體業務現金流形成了強烈對比。 甲骨文(ORCL):個股分析 基本面亮點 成立於 1977 年的甲骨文(ORCL),奠基於其開創性的 SQL 關聯式資料庫管理系統,目前在全球 175 個國家擁有高達 43 萬名客戶,構築了深厚的護城河。近年來公司積極轉型,其業務重心已從傳統的地端資料庫,轉向雲端基礎設施與企業資源規劃(ERP)平台。這些基礎建設如今扮演關鍵角色,成為支援全球大型企業進行高負載線上交易處理,以及大型語言模型訓練與推論的核心引擎。 近期股價變化 觀察 2026 年 1 月 16 日的最新交易數據,股價呈現高檔震盪格局。當日開盤價為 189.91 美元,盤中一度下探 186.53 美元後獲得支撐,最高來到 191.87 美元,終場收在 191.09 美元,上漲 1.24 美元,漲幅為 0.65%。值得留意的是,成交量放大至 1,922 萬股,量能較前一日顯著增加了 17.09%,顯示多空雙方在 190 美元關卡附近交戰激烈,籌碼換手積極。 總結 目前市場給予甲骨文(ORCL) 約 28 倍的遠期本益比(Forward P/E),這一估值水準高於標普 500 指數,反映了資金對其 AI 轉型的高度期待。然而,隨著債務利息與鉅額折舊費用即將侵蝕利潤,淨利率恐怕在 短期內面臨壓縮。後續應密切觀察 OpenAI 的營收貢獻能否順利覆蓋不斷膨脹的資本支出,這將是支撐其高估值的關鍵壓力測試。
【即時新聞】甲骨文(ORCL) 目標價直衝 400 美元,卻被 OpenAI 大單與負現金流嚇到?
華爾街正對甲骨文(ORCL)展開激烈的多空論戰。儘管 Jefferies 與瑞穗證券(Mizuho)分析師 Siti Panigrahi 強力重申「買入」評級,Panigrahi 更喊出高達 400 美元的目標價,暗示股價仍有翻倍空間,但市場並未完全買單。 這波情緒分歧的引爆點,在於甲骨文先前財報揭露高達 4,550 億美元的剩餘履約義務(RPOs),數字雖驚人,但隨後傳出其中約 3,000 億美元來自與 OpenAI 的單一多年合約,引發市場對客戶過度集中及 OpenAI 自身資金實力的疑慮。 這背後釋出的信號是,為建設 AI 資料中心產生的龐大資本支出已導致近期自由現金流轉負,加上債務隱憂,致使股價自去年 9 月高點顯著回落。即便目前追蹤該股的 34 位分析師中有 24 位維持買進評級,機構法人對其高合約金額背後的兌現能力仍持觀望態度。 甲骨文(ORCL):個股分析 基本面亮點 甲骨文成立於 1977 年,不僅是 SQL 商業關聯式資料庫系統的開創者,如今更已轉型為涵蓋雲端基礎設施與 ERP 平台的科技巨頭。公司業務重心正從傳統地端部署軟體,加速轉向支援大型語言模型訓練與推理的雲端架構。 目前在全球 175 個國家擁有 43 萬名客戶,其在資料庫領域的護城河能否順利延伸至 AI 算力戰場,是支撐其基本面轉型的關鍵。 近期股價變化 觀察 2026 年 1 月 2 日交易數據,ORCL 以 197.47 美元開出後呈現震盪,盤中最高觸及 198.59 美元,但隨即面臨調節賣壓,最低下探 194.21 美元。終場收在 195.71 美元,微幅上漲 0.41%。 值得留意的是,當日成交量放大至 1,454 萬股,量能激增 40.61%,顯示多空雙方在此價位區間交火激烈,籌碼換手頻繁。 總結 雖然高達 4,550 億美元的 RPOs 為未來營收提供了極高的能見度,但「高資本支出」伴隨的「負自由現金流」現狀仍是市場痛點。後續觀察重點在於公司能否在維持債務評級的前提下,將龐大的 AI 基礎設施合約有效轉化為實質獲利,這將是股價能否重啟動能的關鍵指標。