3月27日,加速基建曙光存儲全新升級AI存儲方案,新范秉持“AI加速”理念,式曙升級面向AI訓練、光存AI推理和AI成本等需求,儲再全面重塑AI存儲架構。加速基建
曙光存儲副總裁張新鳳AI訓練再提速效率提升3倍以上
曙光存儲ParaStor F9000專(zhuān)為 AI訓練場(chǎng)景量身打造,新范針對AI訓練帶來(lái)的式曙升級GUP利用率低、KV Cache、光存向量數據庫存儲和檢索性能低等問(wèn)題,儲再升級后的加速基建ParaStor可整機柜交付,提供千卡/萬(wàn)卡/十萬(wàn)卡集群整機柜交付方案,新范輕松容納DeepSeek-R1這樣千億級參數的式曙升級大模型,部署時(shí)間縮短50%。光存
性能方面,儲再ParaStor F9000更是表現卓越,擁有500萬(wàn) IOPS的強大處理能力和190GB/s的高速帶寬。借助五級加速技術(shù)和秒級彈性擴容功能,可將GPT-4級別模型的訓練周期從原本的3個(gè)月大幅縮短至1周,加速AI技能迭代。
AI推理零卡頓時(shí)延降低80%
大模型實(shí)時(shí)推理往往帶來(lái)每秒千萬(wàn)級的并發(fā)請求,對存儲性能要求極高。FlashNexus集中式全閃存儲在A(yíng)I推理領(lǐng)域樹(shù)立了新的性能標桿,其32控配置可實(shí)現超3000萬(wàn) IOPS的驚人性能,時(shí)延低至0.202ms,在SPC-1基準評測中榮獲全球第一。
基于國內最新芯片級研發(fā)成果,優(yōu)化從處理器芯片、RDMA網(wǎng)絡(luò )芯片、PCIe芯片、NVMe控制器芯片的端到端協(xié)議路徑。微控架構建立無(wú)鎖化的數據IO“超級隧道”,將寫(xiě)性能提升2倍以上。為AI推理的向量數據庫、KV Cache長(cháng)文本存儲提供了更優(yōu)方案。此外,高性能數據加密、完善的數據保護等技術(shù)為用戶(hù)最關(guān)鍵的私域核心數據資產(chǎn)提供全方位保護。
面對大模型實(shí)時(shí)推理需求,該產(chǎn)品可“零幀起手”支撐每秒百萬(wàn)級并發(fā)需求;聚焦自動(dòng)駕駛決策實(shí)時(shí)性需求,可以毫秒級速度加載TB級路況數據;針對金融客戶(hù),可在高波動(dòng)市場(chǎng)環(huán)境下穩定處理高頻量化交易數據流,讓交易更高效、安全。
AI成本更優(yōu)解海量存儲再升級
升級后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撐千億參數歸檔。單框配置14塊NVMe盤(pán)和60塊SATA/SAS盤(pán),通過(guò)冷熱數據分層技術(shù)和智能數據調度功能,實(shí)現動(dòng)態(tài)優(yōu)化存儲資源的分配、跨形態(tài)熱溫冷數據無(wú)感流動(dòng),提高存儲資源的利用率。
通過(guò)與2U2N全閃節點(diǎn)的統一管理和使用,利用系統間無(wú)縫數據遷移等技術(shù),顯著(zhù)降低使用和運維成本
ParaStor高密存儲可滿(mǎn)足AI大模型的數據預處理以及模型、參數的歸檔,高端計算+AI科學(xué)計算數據湖應用等場(chǎng)景,顯著(zhù)降低AI大模型應用存儲系統的構建成本,是百PB-EB級超大規模AI基礎設施的更佳選擇。
曙光存儲通過(guò)不斷更新升級產(chǎn)品,帶來(lái)速度與容量的雙重革命。未來(lái),曙光存儲將始終以用戶(hù)需求為導向,以先進(jìn)存力筑基AI時(shí)代,為千行百業(yè)AI升級提供堅實(shí)的數據底座支撐。