“進軍 GPU 的最佳時機大概是兩年前,”葉夫根尼·波諾馬列夫說。“AI 需求正在爆發式成長——我們的客戶不斷要求 GPU 容量。這是水到渠成的下一步。“
多年來, 通量 一直在建立一個去中心化的雲層,挑戰像 AWS 或谷歌雲端這樣的超大規模雲端服務供應商。該公司最初以基於 CPU 的運算而聞名——為其分散式網路中的區塊鏈節點和資料處理工作負載提供支援。但現在,隨著人工智慧 (AI) 成為全球基礎設施討論的主導,Fluence 正大膽進軍 GPU 領域。
從節點到神經網路
「我們的第一個產品很簡單——虛擬伺服器,」Ponomarev 解釋道。 「人們可以運行資料庫、後端,甚至分析。但因為我們是本地人, Web3,我們的大多數客戶都使用 Fluence 來運行區塊鏈節點。 」
現在,許多相同的客戶需要 GPU功率 ——不僅用於人工智慧訓練,也用於支援依賴人工智慧驅動流程的新型區塊鏈協議。 「我們意識到有些節點實際上已經無法在沒有 GPU 的情況下運行了,」他說。 “因此,擴展我們的基礎設施既是客戶的需求,也是網路機會。”
超越成本:選擇與控制
通量通常被描述為高達 比集中式雲端便宜 85%但波諾馬列夫堅稱這只是故事的一部分。
「成本效益很重要,」他說,「但真正的價值在於 定制。“
他舉了一個例子:
想像一下,你需要在同一個資料中心裡,將十個 H100 GPU 與數 PB 的訓練資料並排放置。超大規模運算平台很少允許你自訂這樣的設定。在 Fluence,由於我們聚合了來自多個供應商和資料中心的硬件,因此我們實際上可以為您提供這種靈活性。
這是一個願景 計算多樣性 — 從人工智慧新創公司到研究實驗室的任何人都可以訪問他們所需的精確硬件,而無需看門人。
橋接 Web3 和AI
隨著分散協議開始與人工智慧系統融合,Fluence 發現自己正處於兩場大規模革命的交匯處。
「許多新 Web3 「協議包含需要 GPU 運算的 AI 元件,」Ponomarev 說。 “我們透過利用我們的 CPU 和 GPU 容量來運行節點,使這些網路保持去中心化。”
這種融合不僅僅是技術層面的,更是哲學層面的。人工智慧常常因中心化而受到批評,但現在它有了一個去中心化的基礎。
2026 願景:去中心化雲端堆疊
Fluence 的路線圖讀起來就像是一份開放基礎設施的宣言。
「到 2026 年,成功意味著 最小可行雲 “我們可以為任何客戶提供服務,”Ponomarev 說,“包括 CPU 和 GPU 實例、區塊存儲、負載平衡、託管 Kubernetes——全棧。”
但也有 代幣化經濟 幕後發展。
「如今,人們透過質押來保障運算能力並獲得獎勵。接下來,我們將推出以我們的代幣 FLT 為抵押的穩定幣,用於直接支付計算能力的費用,」他解釋道。 “我們也將硬體本身代幣化——這樣你就可以投資某些類型的機器,例如 GPU,並分享其收益。”
這是一個複雜的系統,但波諾馬列夫將其簡化為:
“我們正在將計算轉變為一個鏈上市場——任何人都可以參與、提供資源或使用資源。這就是雲端運算的未來。“
底線
Fluence 進軍 GPU 運算領域不僅是功能更新,更是明確的目標聲明。隨著 AI 對運算能力的渴求日益加深,像 Fluence 這樣的去中心化替代方案正在證明,規模、效率和開放性並非相互排斥。
“人們過去認為去中心化的基礎設施無法與超大規模基礎設施競爭,」波諾馬列夫說。「現在我們正在證明它在成本、靈活性和彈性方面可以勝過它們。“
免责声明:本文提供的信息不是交易建议。BlockWeeks.com不对根据本文提供的信息所做的任何投资承担责任。我们强烈建议在做出任何投资决策之前进行独立研究或咨询合格的专业人士。