chatGPT要用什么節點 ChatGPT階段大贏家是誰?
雖然公眾不清楚的出現,對日常生活,到底意味著何等巨大的改變,但這不影響全球科技大小公司集體“蹭”點的熱情。
在A股市場,概念股被持續做多,在美國也一樣。最具AI色彩和技術能力的英偉達公司,股價從美股在2023年第一個交易日——1月3日的143.15美元,靠著的助推之下,截至2月14日收盤chatGPT要用什么節點,漲幅高達52.20%。這是在半導體行業進入下行周期的背景下取得的。
需要什么樣的AI芯片?為什么贏麻的是英偉達?
為什么GPU是首選?
看上去很美的AI技術chatGPT要用什么節點,商業化落地進展總是不及預期。但是,掀起的熱潮,卻成為AI未來商業化空間的最新想象。
是公司于2022年11月發布的一款AI應用產品——對話機器人,能通過學習和理解人類語言實現人機對話。
與此前早已出現的如蘋果Siri最大的不同,的人機對話并不單調/弱智,能根據人類的反應做出富有邏輯性的上下文信息互動。
因此,不僅能做個性化搜索任務,也能做邏輯解析,甚至可根據不同的主題,自動生成不遜于人類智力水準的各種文件,如論文、新聞和各類報告等,還能完成高級輔助編程等自然語言任務。
如此“高智能”的應用工具,其爆發性無與倫比:發布兩個月,月活用戶就達到1億,成為史上增長最快的消費者應用程序。
這種“熾熱”不止C端用戶獨有,全球頂級科技巨頭微軟和谷歌等,包括國內的百度、阿里等科技公司,都先后宣布在領域的資金和技術布局,比如微軟以100億美元入股,谷歌剛發布了自研的BARD模型。
從底層技術角度看,是一種基于架構的預訓練語言模型。這套模型,能通過海量語料數據,自動訓練生成語法結構和語句結構,這被稱為“生成類模型”。
應用和AI表達路徑,或語言模型主要功能,就是通過巨量數據做預訓練,之后就能理解C端用戶的語言指令,或更進一步根據用戶指令,生成相關文字結果并做文本輸出。
當前,AI生成類模型主要分兩類,一類是以為代表的語言類,另一種是以擴散模型()為代表的圖像類。
若要保證的(語義理解和形成有邏輯的語言輸出)效果,就必須擁有一個超大語言模型,即LLM( )。這個大模型有著極多的標簽參數,便于NPU調用。技術論文顯示,參數量達到了驚人的1750億。若使用標準浮點數,則占用的存儲空間能達到。
如的參數量級,以及需要的效果,則運算硬件單元需要什么樣的類型或技術要求?
簡單來說,這需要三方面要求:分布式計算、內存容量/帶寬、算力。
首先,單機訓練顯然無法勝任的效果要求,因此需要使用分布式計算;其次,在大規模分布式計算過程中,除了高算力,分布式計算節點之間的數據傳輸也極為重要。這對節點數據互聯帶寬提出了極高的要求。
第三,內存容量,這個相對容易理解。做海量數據訓練,分布式計算節點的存儲空間,決定了節點數據量的多少。數據量級越大,AI訓練效率越高,結果自然也會相應越好。
如此就很清楚,符合需求的AI芯片主要不是CPU,而是包含NPU的GPU。所謂NPU,即嵌入式神經網絡處理器(- )。神經網絡并不是指算法,而是一種特征提取方法。
決定神經網絡優劣的核心因素,在于擁有多少可供訓練的數據量。事實上,現在建模拼的不是算法,而是數據量級。
簡單來說,深度學習會把特征當作黑盒子,對原始數據做非常復雜的變換操作:輸入數據后,神經網絡會自動提取特征。這些特征會讓機器認識其含義,根據不同的技術目標識別和學習到什么特征最合適。所以,深度學習解決的核心問題是提取特征。
英偉達成階段大贏家
的效果,需要分布式計算、內存容量/帶寬和算力做保障。這決定了的算力硬件需求更多的是GPU。
除了上文提到的原因,還有一個要點在于,CPU發展到本世紀初,已越來越難以繼續維持每年50%的性能提升;此時,內部包含數千個核心的GPU,卻能利用內在的并行性,繼續提升性能。
更重要的是,GPU的眾核結構更適合高并發的深度學習任務。比如基于眾核結構,英偉達推出的解決方案。
這套支持分布式訓練和分布式推理,能將一個大型模型的算力分解成多個部分,分配到多個GPU做相應處理,從而解決因參數量過大,導致的單個GPU主存無法容納的問題。
此外,語言類生成模型的主要計算類型是矩陣計算,而矩陣計算一直是GPU的強項。
值得一提的是,GPU這個縮寫,首創或定義公司即英偉達。
1993年,黃仁勛等三位電氣工程師聯合成立英偉達,主要面向游戲市場供應圖形處理器。1999年,英偉達推出顯卡 256,第一次將圖形處理器定義為“GPU”。
但是,讓GPU成為AI訓練首選芯片的除了硬件本身,還有英偉達在2006年推出的CUDA軟件開發平臺,以支持開發者用熟悉的CPU高級程序語言(如C語言/Java)開發深度學習模型chatGPT要用什么節點,靈活調用英偉達GPU算力,還配套提供數據庫、排錯程序和API接口等一系列工具。
可以說,英偉達在深度學習和AI訓練計算領域的技術儲備,全球罕有對手。因此,在剛邁出商業化探索第一步之時,就被業界寄予厚望。
IDC亞太區研究總監郭俊麗近日對媒體稱,就現階段表現的AI水平,其總算力消耗高達-days,需要至少1萬顆英偉達高端GPU做支撐。所謂-days,即每秒計算一千萬億次,需要持續運行3640天。
郭俊麗由此做出預計,在12個月內,很可能推動英偉達相關產品實現銷售額達35億-100億美元之巨。
看上去英偉達成了最大贏家,但對手也不是沒有,比如AMD。這家公司近年來在通用GPU領域,一直緊追英偉達,成長速度極快。2022年,AMD數據中心事業部營業額實現64%的同比高速增長。
此外還有英特爾。目前英特爾在GPU市場,已推出面向數據中心和AI的Xe HP架構,還有面向高性能計算的Xe HPC架構。
當然,就英偉達GPU具有的標準通用屬性看,這家公司大概率會是在商業化初期較長時間內的主要受益方。
英偉達CEO黃仁勛近期針對發表看法時指出,“ 的出現對人工智能領域的意義,類似手機領域‘’的出現。這一刻在科技領域具有里程碑的意義,因為現在大家可以將所有關于移動計算的想法,匯集到了一個產品中。”
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。
聲明:本站所有文章資源內容,如無特殊說明或標注,均為采集網絡資源。如若本站內容侵犯了原著者的合法權益,可聯系本站刪除。