<acronym id="0ccs2"><center id="0ccs2"></center></acronym><option id="0ccs2"><xmp id="0ccs2">
<tr id="0ccs2"></tr>
<sup id="0ccs2"></sup><acronym id="0ccs2"></acronym>
<rt id="0ccs2"></rt>
<acronym id="0ccs2"><small id="0ccs2"></small></acronym>
<samp id="0ccs2"><object id="0ccs2"></object></samp><acronym id="0ccs2"><center id="0ccs2"></center></acronym>
<sup id="0ccs2"></sup>

中國冷鏈物流網

詳解GPT算力賬單,人人都可以是程序員?

時間:2023-05-03 23:31:37來源:admin01欄目:餐飲美食新聞 閱讀:

 

打開鳳凰新聞,查看更多高清圖片

“我們正處于AI的‘iPhone時刻’。”78分鐘的GTC演講過程中,NVIDIA(英偉達)創始人兼首席執行官黃仁勛提了三次這一觀點。

正當一些行業人士感慨跑一次GPT4訓練需要龐大的資金成本支持時,英偉達自己來炸場了。面向迄今歷史上用戶數量增長最快的應用ChatGPT,英偉達發布了包括硬件迭代和云服務一系列組合,核心目的之一,就是加速運算速度、極大降低成本。

ChatGPT是迄今歷史上用戶數量增長最快的應用

圖源:英偉達發布會現場展示

黃仁勛表示,類似ChatGPT大型語言模型(LLM)的部署是一個重要的全新推理工作負載,為了支持這類模型推理,英偉達發布一款新GPU,是帶有雙GPU NVLink的H100 NVL。同時基于NVIDIA Hopper架構的H100配有一個Transformer引擎,是為處理驅動ChatGPT的類似模型,相比用于GPT3處理的HGX A100來看,配備四對H100和雙GPU NVLink的標準服務器速度最高可達10倍。“H100可以將大型語言模型的處理成本降低一個數量級。”他續稱。

為什么在AI變革進程中GPU尤為重要?這是源于AI大模型在訓練時,對基礎設施的要求是大規模并行計算,這也是GPU相比于其他類型計算芯片如CPU(串行運算為主)等的顯著優勢。當然計算的同時也需相應配套高速數據存儲、光模塊、通信等一系列能力。

其中對英偉達的訴求最為旺盛。今年2月份發布最新業績時,黃仁勛就曾表示:“AI正處于一個拐點,從初創企業到大型企業,我們看到生成式AI的多功能性和能力讓全球企業感受到開發和部署AI戰略的急迫性。”這也成為彼時業績交流中的核心關鍵詞。

在3月21日深夜的演講中,他再次提到這一點,并且指出,“生成式AI是一種新型計算機,一種我們可以用人類語言進行編程的計算機,與PC、互聯網、移動設備和云類似,每個人都可以命令計算機來解決問題,現在每個人都可以是程序員。”

黃仁勛認為生成式AI是一種新型計算機

圖源:英偉達發布現場

在英偉達和一眾合作伙伴的推動下,關于前兩天還在火熱探討的“GPT會取代哪些職業”這個話題,似乎也并不那么讓人困擾了。

算力賬單

先看看這次炸場之前,用英偉達GPU產品部署一次GPT訓練需要的實力。

CINNO Research半導體事業部總經理Elvis Hsu對21世紀經濟報道記者分析,2023年是ChatGPT元年,構成人工智能的三大要素包括:數據、算法、算力,其中尤以芯片的算力是最重要一環。由于模型訓練參數量的使用與算力成正相關,ChatGPT持續升級進程中,其參數使用量增長幅度不可謂不大,投入資金自然水漲船高。每一次模型訓練所需的資金從數百萬到千萬美金不等,隨著硬件和云計算服務的價格不斷變化。

GPT3論文概要,其參數使用量為1750億

圖源:Open AI官網公布

“英偉達GPU A100每片約1萬美金,除了投入的人力成本、網絡寬帶成本和數據儲存之外,最重要的就負責算力的芯片成本支出,如何降低成本與功耗便成為未來發展AI芯片的重要課題。”他總結道。

之所以現階段較難以準確預估訓練背后的整體成本,是因為OpenAI在最新關于GPT4的論文中,明確提到出于競爭和安全等因素考慮,相關模型具體信息選擇并不公開。由此業內目前對于GPT4背后的具體訓練參數量并沒有十分統一的測算結果,有認為是萬億級別,也有認為是百萬億級別。

GPT4論文中并未公布訓練量和模型架構等信息

圖源:Open AI官網公布

當然其中核心的成本考慮避不開GPU。IDC亞太區研究總監郭俊麗也對記者指出,算力是AI模型的能源,將最直接受益于人工智能的普及,也成為GPT4最重頭的成本投入。同時,想要訓練類似ChatGPT的大模型,除了芯片投入,還包括服務器、通信等基礎設施。

考慮到不同時期英偉達GPU相關芯片產品的價格有所波動,背后所需的軟件能力配置也有不同,造成其具體算力賬本一般是一個大概的構想。

郭俊麗進一步指出,基于參數數量和token數量估算,GPT-3訓練一次的成本約為140萬美元;對于一些更大的LLM模型,比如擁有2800億參數的Gopher和擁有5400億參數的PaLM,采用同樣的公式可得出,訓練成本介于200萬-1200萬美元之間。

“以GPT-3.5為模型的ChatGPT模型,都要460萬-500萬美元。據OpenAI測算,自2012年以來,全球頭部AI模型訓練算力需求每3-4個月翻一番,每年頭部訓練模型所需算力增長幅度高達10倍。以此來推測,GPT4的運行成本將大幅高于GPT3.5。對于想要切入該賽道的企業來說,資金成本將會是一個門檻。”她得出結論。

TrendForce集邦咨詢分析師曾伯楷綜合對記者分析,從GhatGPT開發歷程看,其在發展初期約采用1萬顆NVIDIA A100 GPU(以下簡稱“A100”),經擴充升級后,運算資源估計已等同2萬顆A100 GPU。目前ChatGPT并未實時更新文本數據,所有信息只涵蓋至2021年,GPT4也是如此,一旦ChatGPT開始更新數據、為用戶提供更長篇幅的生成內容,且用戶數持續成長至1.5億戶以上,則運算資源可能得再擴充1倍,屆時或許要增加1.5-2萬顆A100 GPU才能滿足算力需求。

“在此基礎上推估,大約到2025年,每一款類似ChatGPT的超大型AI聊天機器人算力需求,約等同2.5-4萬顆A100 GPU;若以每張A100 GPU顯卡價值2萬美元估算,總體GPU建置成本將落在5-8億美元。”他補充道,疊加考慮到GPT4相比前代升級為多模態(multimodal)模型,能分析文字輸入、也能進行圖片解讀,估計超大型AI聊天機器人的整體運算資源可能須再擴張5%左右。

從這個角度看,若是從無到有打造、訓練類似GPT4的超大型AI聊天機器人,并且能夠向全球用戶提供流暢的生成內容服務,其構建成本必然比ChatGPT 3.5高出一倍。“至于日后成本是否呈現倍數成長,仍取決于三方面:一是大型語言模型的發展趨勢,二是全球AI聊天機器人應用的使用情況,三是硬件資源分配優化方案的進展。”曾伯楷續稱。

在當前半導體行業仍沒有完全走出周期低點的過程中,AIGC對算力的需求無疑對英偉達的業績帶來較大支撐,但是對于其他芯片類型來說可能影響不會那么顯著。

Elvis對記者指出,由于在執行計算期間需要大容量、高速的存儲支持,預計高階的內存芯片需求將會擴大,短期對于低迷的市場助長有限,是因為普及度不夠,但有利于長期高性能高帶寬內存HBM及高容量服務器DRAM存儲器市場的增長,這對于訓練成本的下降稍有助益。

算生態

基于前面的計算和判斷,行業一種觀點認為,當前要部署相關AI大模型需要較大的資金實力和能力魄力。由此引發進一步思考:難道AI大模型就只能以如此高成本運行,一般企業根本無力應對嗎?

這在3月21日的發布中黃仁勛已經給出了答案:GPU本身已經在快速通過硬件產品和軟件生態服務等綜合方式,幫助更多AI大模型成長。

GTC期間,英偉達在硬件方面針對大型語言模型發布了新款GPU——帶有雙GPU NVLink的H100 NVL,配套Transformer引擎,相比前代用于處理GPT3的HGX A100相比,配置四對H100和雙GPU NVLink標準服務器的速度最高可達10倍,由此將大型語言模型的處理成本降低一個數量級。

新版本GPU產品將令AI大模型處理成本降低一個數量級

圖源:英偉達發布現場

同步發布的還有Grace Hopper超級芯片,黃仁勛指出這是處理超大型數據集的理想選擇,比如可以用于推薦系統的AI數據庫和大型語言模型。據介紹,通過900GB/s高速芯片對芯片的接口,英偉達Grace Hopper超級芯片可以連接Grace CPU和Hopper GPU。

為了加速生成式AI的工作,在軟件方面英偉達還發布了AI Foundations云服務系列,為需要構建、完善、運行自定義大型語言模型和生成式AI的客戶提供服務。

倘若換個角度,在目前全球GPU霸主英偉達之外,是否還能找到其他選擇,用以探索更低成本,或者其他計算能力構成的基礎設施模型?比如CPU+FPGA/ASIC,亦或是正在冉冉升起的技術路線Chiplet芯粒?

對此Elvis對記者分析,從技術架構來看,AI芯片一般可以分為GPU、FPGA、ASIC和類腦芯片四大類。GPU的關鍵性能是矩形并行計算,無論性能還是內存帶寬均遠大于同代的CPU,因此很適合人工智能發展。CPU因算力有限,但若能搭配開發周期短且靈活運用度高的FPGA,或是小型化、低功耗及高性能的ASIC,甚至是芯粒Chiplet的低成本優勢,也不失為良策。

曾伯楷則指出,AI模型訓練當前仍多以GPU為主,是因AI芯片功能各異、取向不同。比如GPU專為同時處理多重任務而設計,諸如處理圖形、圖像相關運算工作。由于該芯片采用統一渲染架構,能在算法尚未定型的領域中使用,故通用性程度較高、商業化較成熟。

相比之下,FPGA、ASIC雖然各有優缺點,但其歷史積累不夠。“即便CPU加FPGA或ASIC的單顆成本存在低于GPU的可能,但考慮芯片開發時間、通用性程度、算法成熟度等因素,仍以GPU為主流采用芯片。”他分析道。

這里需要補充的是,英偉達之所以能夠制霸GPU領域多年,除了其很早就選擇了這一路線外,也由此搭建了十分豐富的CUDA生態,這是GPU領域后來者尤為缺失的一項競爭力。

黃仁勛稱英偉達構建了加速計算的良性循環

圖源:英偉達發布現場

大模型未來

一方面底層基礎設施隨著軟硬件持續迭代升級,匹配應用場景增加,成本已經快速下降;另一方面隨著微軟發布Microsoft 365 Copilot,應用到了GPT4的能力這一舉動,則體現出應用端對于大模型的思考。

正式推出市場幾個月至今,GPT本身就在演繹著關于商業化的探索以及實戰訓練的迭代。作為一項尤為強悍的智能工具,距離“我們都可以是程序員”這件事,還有多遠?

郭俊麗對記者分析,相比ChatGPT之前版本,GPT4具備四大優點:更可靠、更有創造力,可以理解并處理指令的微妙之處;具備更高智能,在學術和專業考試中表現接近人類最好水平;接受圖文類模特輸入,可將應用范圍拓展至機器人、智能駕駛等領域;利用模型調試、工程補丁、眾包測評等方式減少謬誤性顯示,解決體驗痛點。

綜合這些都顯示出AI大模型未來將對各種行業帶來的模式重塑。本質上從訓練成本到應用成本的雙雙下滑,將有望更快讓我們真正擁抱AI大時代,包括其將進一步對工業、醫療等各行各業的提升。

GPT本身正在積極向外擁抱。2月,OpenAI 推出ChatGPT的付費訂閱版ChatGPT Plus,提供比免費版更快速的服務以及新功能優先試用權,月費20美元。

3月初,官方再度宣布開放API應用程序接口,允許第三方開發者通過API將ChatGPT集成至他們的應用程序和服務中。按照每一千個Tokens/0.002美元收費,相比此前的GPT3,費用下降90%。

IDC中國研究總監盧言霞對21世紀經濟報道記者分析,“個人認為,降低定價才能提高該產品的用量,如此也能讓算法模型快速迭代。用量起來反哺模型,該產品的準確度會越來越高。”

她進一步指出,一般來說,AI大模型的變現有3種路線:賣算力,大模型用戶自己訓練自己部署;賣模型與算力高度結合,軟硬一體優化方案;模型即服務,就是開放API。

“目前來看Open AI采用該兩種模式面向的對象不同。Plus訂閱可能傾向于面向個人,后續開放API則是面向企業級客戶。由于面向的對象不一樣,就談不上對比哪種方式更容易變現。”她續稱。

隨著核心且高昂的算力基礎設施已經在積極提速降本、擁抱各行各業伙伴,我們距離黃仁勛提出的暢想似乎又接近了一些。

冷鏈服務業務聯系電話:13613841283

鄭重聲明:部分文章來源于網絡,僅作為參考,如果網站中圖片和文字侵犯了您的版權,請聯系我們處理!

標簽:

食品安全網https://www.food12331.com

上一篇:安裝氣墊的海上巡邏機,海上陸上都可起降

下一篇:@淄博居民 居家期間這些業務都可“掌上辦”

相關推薦
  • 預制菜5項大獎出爐,華鼎供應鏈榮獲“最具競
  • 新春將至,鍋圈食匯預制菜持續升溫
  • 餐飲怎么做?難做?沒搞懂這5點,千萬別做餐飲
返回頂部
?
天天色站