來源:騰訊科技
英偉達聯合創始人兼首席執行官黃仁勳在Computex 2024(2024台北國際電腦展)上發表主題演講,分享了人工智能時代如何助推全球新產業革命。
以下爲本次演講的要點:
①黃仁勳展示了最新量產版Blackwell芯片,並稱將在2025年推出Blackwell Ultra AI芯片,下一代AI平台命名爲Rubin,2027年推Rubin Ultra,更新節奏將是“一年一次”,打破“摩爾定律”。
② 黃仁勳宣稱英偉達推動了大語言模型誕生,其在2012年後改變了GPU架構,並將所有新技術集成在單台計算機上。
③ 英偉達的加速計算技術幫助實現了100倍速率提升,而功耗僅增加到原來的3倍,成本爲原來的1.5倍。
④ 黃仁勳預計下一代AI需要理解物理世界。他給出的方法是讓AI通過視頻與合成數據學習,並讓AI互相學習。
⑤ 黃仁勳在PPT裏甚至給token敲定了一個中文譯名——詞元。
⑥ 黃仁勳表示,機器人時代已經到來,將來所有移動的物體都將實現自主運行。
以下是騰訊科技整理的兩小時演講全文實錄:
尊敬的各位來賓,我非常榮幸能再次站在這裏。首先,我要感謝台灣大學爲我們提供這個體育館作爲舉辦活動的場所。上一次我來到這裏,是我從台灣大學獲得學位的時候。今天,我們即將探討的內容很多,所以我必須加快步伐,以快速而清晰的方式傳達信息。我們有很多話題要聊,我有許多激動人心的故事要與大家分享。
我很高興能夠來到中國台灣,這裏有我們很多合作夥伴。事實上,這裏不僅是英偉達發展歷程中不可或缺的一部分,更是我們與合作夥伴共同將創新推向全球的關鍵節點。我們與許多合作夥伴共同構建了全球範圍內的人工智能基礎設施。今天,我想與大家探討幾個關鍵議題:
1)我們共同的工作正在取得哪些進展,以及這些進展的意義何在?
2)生成式人工智能到底是什么?它將如何影響我們的行業,乃至每一個行業?
3)一個關於我們如何前進的藍圖,我們將如何抓住這個令人難以置信的機遇?
接下來會發生什么?生成式人工智能及其帶來的深遠影響,我們的战略藍圖,這些都是我們即將探討的令人振奮的主題。我們正站在計算機行業重啓的起點上,一個由你們鑄就、由你們創造的新時代即將开啓。現在,你們已經爲下一段重要旅程做好了准備。
1. 新的計算時代正在开始
但在开始深入討論之前,我想先強調一點:英偉達位於計算機圖形學、模擬和人工智能的交匯點上,這構成了我們公司的靈魂。今天,我將向大家展示的所有內容,都是基於模擬的。這些不僅僅是視覺效果,它們背後是數學、科學和計算機科學的精髓,以及令人嘆爲觀止的計算機架構。沒有任何動畫是預先制作的,一切都是我們自家團隊的傑作。這就是英偉達的領會,我們將其全部融入了我們引以爲傲的Omniverse虛擬世界中。現在,請欣賞視頻!
全球數據中心的電力消耗正在急劇上升,同時計算成本也在不斷攀升。我們正面臨着計算膨脹的嚴峻挑战,這種情況顯然無法長期維持。數據將繼續以指數級增長,而CPU的性能擴展卻難以像以往那樣快速。然而,有一種更爲高效的方法正在浮現。
近二十年來,我們一直致力於加速計算的研究。CUDA技術增強了CPU的功能,將那些特殊處理器能更高效完成的任務卸載並加速。事實上,由於CPU性能擴展的放緩甚至停滯,加速計算的優勢愈發顯著。我預測,每個處理密集型的應用都將實現加速,且不久的將來,每個數據中心都將實現全面加速。
現在,選擇加速計算是明智之舉,這已成爲行業共識。想象一下,一個應用程序需要100個時間單位來完成。無論是100秒還是100小時,我們往往無法承受運行數天甚至數月的人工智能應用。
在這100個時間單位中,有1個時間單位涉及需要順序執行的代碼,此時單线程CPU的重要性不言而喻。操作系統的控制邏輯是不可或缺的,必須嚴格按照指令序列執行。然而,還有許多算法,如計算機圖形學、圖像處理、物理模擬、組合優化、圖處理和數據庫處理,特別是深度學習中廣泛使用的线性代數,它們非常適合通過並行處理進行加速。爲了實現這一目標,我們發明了一種創新架構,將GPU與CPU完美結合。
專用的處理器能夠將原本耗時的任務加速至令人難以置信的速度。由於這兩個處理器能並行工作,它們各自獨立且自主運行。這意味着,原本需要100個時間單位才能完成的任務,現在可能僅需1個時間單位即可完成。盡管這種加速效果聽起來令人難以置信,但今天,我將通過一系列實例來驗證這一說法。
這種性能提升所帶來的好處是驚人的,加速100倍,而功率僅增加約3倍,成本僅上升約50%。我們在PC行業早已實踐了這種策略。在PC上添加一個價值500美元的GeForce GPU,就能使其性能大幅提升,同時整體價值也增加至1000美元。在數據中心,我們也採用了同樣的方法。一個價值十億美元的數據中心,在添加了價值5億美元的GPU後,瞬間轉變爲一個強大的人工智能工廠。今天,這種變革正在全球範圍內發生。
節省的成本同樣令人震驚。每投入1美元,你就能獲得高達60倍的性能提升。加速100倍,而功率僅增加3倍,成本僅上升1.5倍。節省的費用是實實在在的!
顯然,許多公司在雲端處理數據上花費了數億美元。當數據得到加速處理時,節省數億美元就變得合情合理。爲什么會這樣呢?原因很簡單,我們在通用計算方面經歷了長時間的效率瓶頸。
現在,我們終於認識到了這一點,並決定加速。通過採用專用處理器,我們可以重新獲得大量之前被忽視的性能提升,從而節省大量金錢和能源。這就是爲什么我說,你購买得越多,節省得也越多。
現在,我已經向你們展示了這些數字。雖然它們並非精確到小數點後幾位,但這准確地反映了事實。這可以稱之爲“CEO數學”。CEO數學雖不追求極致的精確,但其背後的邏輯是正確的——你購买的加速計算能力越多,節省的成本也就越多。
2. 350個函式庫幫助开拓新市場
加速計算帶來的結果確實非凡,但其實現過程並不容易。爲什么它能節省這么多錢,但人們卻沒有更早地採用這種技術呢?原因就在於它的實施難度太大。
沒有現成的軟件可以簡單地通過加速編譯器運行,然後應用程序就能瞬間提速100倍。這既不符合邏輯也不現實。如果這么容易,那么CPU廠商早就這樣做了。
事實上,要實現加速,軟件必須進行全面重寫。這是整個過程中最具挑战性的部分。軟件需要被重新設計、重新編碼,以便將原本在CPU上運行的算法轉化爲可以在加速器上並行運行的格式。
這項計算機科學研究雖然困難,但我們在過去的20年裏已經取得了顯著的進展。例如,我們推出了廣受歡迎的cuDNN深度學習庫,它專門處理神經網絡加速。我們還爲人工智能物理模擬提供了一個庫,適用於流體動力學等需要遵守物理定律的應用。另外,我們還有一個名爲Aerial的新庫,它利用CUDA加速5G無线電技術,使我們能夠像軟件定義互聯網網絡一樣,用軟件定義和加速電信網絡。
這些加速能力不僅提升了性能,還幫助我們將整個電信行業轉化爲一種與雲計算類似的計算平台。此外,Coolitho計算光刻平台也是一個很好的例子,它極大地提升了芯片制造過程中計算最密集的部分——掩模制作的效率。台積電等公司已經开始使用Coolitho進行生產,不僅顯著節省了能源,而且大幅降低了成本。他們的目標是通過加速技術棧,爲算法的更進一步發展和制造更深更窄的晶體管所需的龐大計算能力做好准備。
Pair of Bricks是我們引以爲傲的基因測序庫,它擁有世界領先的基因測序吞吐量。而Co OPT則是一個令人矚目的組合優化庫,能夠解決路线規劃、優化行程、旅行社問題等復雜難題。人們普遍認爲,這些問題需要量子計算機才能解決,但我們卻通過加速計算技術,創造了一個運行極快的算法,成功打破了23項世界紀錄,至今我們仍保持着每一個主要的世界紀錄。
Coup Quantum是我們开發的量子計算機仿真系統。對於想要設計量子計算機或量子算法的研究人員來說,一個可靠的模擬器是必不可少的。在沒有實際量子計算機的情況下,英偉達CUDA——我們稱之爲世界上最快的計算機——成爲了他們的首選工具。我們提供了一個模擬器,能夠模擬量子計算機的運行,幫助研究人員在量子計算領域取得突破。這個模擬器已經被全球數十萬研究人員廣泛使用,並被集成到所有領先的量子計算框架中,爲世界各地的科學超級計算機中心提供了強大的支持。
此外,我們還推出了數據處理庫Kudieff,專門用於加速數據處理過程。數據處理佔據了當今雲支出的絕大部分,因此加速數據處理對於節省成本至關重要。QDF是我們开發的加速工具,能夠顯著提升世界上主要數據處理庫的性能,如Spark、Pandas、Polar以及NetworkX等圖處理數據庫。
這些庫是生態系統中的關鍵組成部分,它們使得加速計算得以廣泛應用。如果沒有我們精心打造的如cuDNN這樣的特定領域庫,僅憑CUDA,全球深度學習科學家可能無法充分利用其潛力,因爲CUDA與TensorFlow、PyTorch等深度學習框架中使用的算法之間存在顯著差異。這就像在沒有OpenGL的情況下進行計算機圖形學設計,或是在沒有SQL的情況下進行數據處理一樣不切實際。
這些特定領域的庫是我們公司的寶藏,我們目前擁有超過350個這樣的庫。正是這些庫讓我們在市場中保持开放和領先。今天,我將向你們展示更多令人振奮的例子。
就在上周,谷歌宣布他們已經在雲端部署了QDF,並成功加速了Pandas。Pandas是世界上最受歡迎的數據科學庫,被全球1000萬數據科學家所使用,每月下載量高達1.7億次。它就像是數據科學家的Excel,是他們處理數據的得力助手。
現在,只需在谷歌的雲端數據中心平台Colab上點擊一下,你就可以體驗到由QDF加速的Pandas帶來的強大性能。這種加速效果確實令人驚嘆,就像你們剛剛看到的演示一樣,它幾乎瞬間就完成了數據處理任務。
3. CUDA實現良性循環
CUDA已經達到了一個人們所稱的臨界點,但現實情況比這要好。CUDA已經實現一個良性的發展循環。回顧歷史和各種計算架構、平台的發展,我們可以發現這樣的循環並不常見。以微處理器CPU爲例,它已經存在了60年,但其加速計算的方式在這漫長的歲月裏並未發生根本性改變。
要創建一個新的計算平台往往面臨着“先有雞還是先有蛋”的困境。沒有开發者的支持,平台很難吸引用戶;而沒有用戶的廣泛採用,又難以形成龐大的安裝基礎來吸引开發者。這個困境在過去20年中一直困擾着多個計算平台的發展。
然而,通過持續不斷地推出特定領域的庫和加速庫,我們成功打破了這一困境。如今,我們已在全球擁有500萬开發者,他們利用CUDA技術服務於從醫療保健、金融服務到計算機行業、汽車行業等幾乎每一個主要行業和科學領域。
隨着客戶群的不斷擴大,OEM和雲服務提供商也开始對我們的系統產生興趣,這進一步推動了更多系統進入市場。這種良性循環爲我們創造了巨大的機遇,使我們能夠擴大規模,增加研發投入,從而推動更多應用的加速發展。
每一次應用的加速都意味着計算成本的顯著降低。正如我之前展示的,100倍的加速可以帶來高達97.96%,即接近98%的成本節省。隨着我們將計算加速從100倍提升至200倍,再飛躍至1000倍,計算的邊際成本持續下降,展現出了令人矚目的經濟效益。
當然,我們相信,通過顯著降低計算成本,市場、开發者、科學家和發明家將不斷發掘出消耗更多計算資源的新算法。直至某個時刻,一種深刻的變革將悄然發生。當計算的邊際成本變得如此低廉時,全新的計算機使用方式將應運而生。
事實上,這種變革正在我們眼前上演。過去十年間,我們利用特定算法將計算的邊際成本降低了驚人的100萬倍。如今,利用互聯網上的所有數據來訓練大語言模型已成爲一種合乎邏輯且理所當然的選擇,不再受到任何質疑。
這個想法——打造一台能夠處理海量數據以自我編程的計算機——正是人工智能崛起的基石。人工智能的崛起之所以成爲可能,完全是因爲我們堅信,如果我們讓計算變得越來越便宜,總會有人找到巨大的用途。如今,CUDA的成功已經證明了這一良性循環的可行性。
隨着安裝基礎的持續擴大和計算成本的持續降低,越來越多的开發者得以發揮他們的創新潛能,提出更多的想法和解決方案。這種創新力推動了市場需求的激增。現在我們正站在一個重大轉折點上。然而,在我進一步展示之前,我想強調的是,如果不是CUDA和現代人工智能技術——尤其是生成式人工智能的突破,以下我所要展示的內容將無法實現。
這就是“地球2號”項目——一個雄心勃勃的設想,旨在創建地球的數字孿生體。我們將模擬整個地球的運行,以預測其未來變化。通過這樣的模擬,我們可以更好地預防災難,更深入地理解氣候變化的影響,從而讓我們能夠更好地適應這些變化,甚至現在就开始改變我們的行爲和習慣。
“地球2號”項目可能是世界上最具挑战性、最雄心勃勃的項目之一。我們每年都在這個領域取得顯著的進步,而今年的成果尤爲突出。現在,請允許我爲大家展示這些令人振奮的進展。
在不遠的將來,我們將擁有持續的天氣預報能力,覆蓋地球上的每一平方公裏。你將始終了解氣候將如何變化,這種預測將不斷運行,因爲我們訓練了人工智能,而人工智能所需的能量又極爲有限。這將是一個令人難以置信的成就。我希望你們會喜歡它,而更加重要的是,這一預測實際上是由Jensen AI做出的,而非我本人。我設計了它,但最終的預測由Jensen AI來呈現。
由於我們致力於不斷提高性能並降低成本,研究人員在2012年發現了CUDA,那是英偉達與人工智能的首次接觸。那一天對我們而言至關重要,因爲我們做出了明智的選擇,與科學家們緊密合作,使深度學習成爲可能。AlexNet的出現實現了計算機視覺的巨大突破。
4. AI超算的崛起,起初並不被認同
但更爲重要的智慧在於我們退後一步,深入理解了深度學習的本質。它的基礎是什么?它的長期影響是什么?它的潛力是什么?我們意識到,這項技術擁有巨大的潛力,能夠繼續擴展幾十年前發明和發現的算法,結合更多的數據、更大的網絡和至關重要的計算資源,深度學習突然間能夠實現人類算法無法企及的任務。
現在,想象一下,如果我們進一步擴大架構,擁有更大的網絡、更多的數據和計算資源,將會發生什么?因此,我們致力於重新發明一切。自2012年以來,我們改變了GPU的架構,增加了張量核心,發明了NV-Link,推出了cuDNN、TensorRT、Nickel,還收購了Mellanox,推出了Triton推理服務器。
這些技術集成在一台全新的計算機上,它超越了當時所有人的想象。沒有人預料到,沒有人提出這樣的需求,甚至沒有人理解它的全部潛力。事實上,我自己也不確定是否會有人會想买它。
但在GTC大會上,我們正式發布了這項技術。舊金山一家名叫OpenAI的初創公司迅速注意到了我們的成果,並請求我們提供一台設備。我親自爲OpenAI送去了世界上首台人工智能超級計算機DGX。
2016年,我們持續擴大研發規模。從單一的人工智能超級計算機,單一的人工智能應用,擴大到在2017年推出了更爲龐大且強大的超級計算機。隨着技術的不斷進步,世界見證了Transformer的崛起。這一模型的出現,使我們能夠處理海量的數據,並識別和學習在長時間跨度內連續的模式。
如今,我們有能力訓練這些大語言模型,以實現自然語言理解方面的重大突破。但我們並未止步於此,我們繼續前行,構建了更大的模型。到了2022年11月,在極爲強大的人工智能超級計算機上,我們使用數萬顆英偉達GPU進行訓練。
僅僅5天後,OpenAI宣布ChatGPT已擁有100萬用戶。這一驚人的增長速度,在短短兩個月內攀升至1億用戶,創造了應用歷史上最快的增長記錄。其原因十分簡單——ChatGPT的使用體驗便捷而神奇。
用戶能夠與計算機進行自然、流暢的互動,仿佛與真人交流一般。無需繁瑣的指令或明確的描述,ChatGPT便能理解用戶的意圖和需求。
ChatGPT的出現標志着一個劃時代的變革,這張幻燈片恰恰捕捉到了這一關鍵轉折。請允許我爲大家展示下。
直至ChatGPT的問世,它才真正向世界揭示了生成式人工智能的無限潛能。長久以來,人工智能的焦點主要集中在感知領域,如自然語言理解、計算機視覺和語音識別,這些技術致力於模擬人類的感知能力。但ChatGPT帶來了質的飛躍,它不僅僅局限於感知,而是首次展現了生成式人工智能的力量。
它會逐個生成Token,這些Token可以是單詞、圖像、圖表、表格,甚至是歌曲、文字、語音和視頻。Token可以代表任何具有明確意義的事物,無論是化學物質、蛋白質、基因,還是之前我們提到的天氣模式。
這種生成式人工智能的崛起意味着,我們可以學習並模擬物理現象,讓人工智能模型理解並生成物理世界的各種現象。我們不再局限於縮小範圍進行過濾,而是通過生成的方式探索無限可能。
如今,我們幾乎可以爲任何有價值的事物生成Token,無論是汽車的轉向盤控制、機械臂的關節運動,還是我們目前能夠學習的任何知識。因此,我們所處的已不僅僅是一個人工智能時代,而是一個生成式人工智能引領的新紀元。
更重要的是,這台最初作爲超級計算機出現的設備,如今已經演化爲一個高效運轉的人工智能數據中心。它不斷地產出,不僅生成Token,更是一個創造價值的人工智能工廠。這個人工智能工廠正在生成、創造和生產具有巨大市場潛力的新商品。
正如19世紀末尼古拉·特斯拉(Nikola Tesla)發明了交流發電機,爲我們帶來了源源不斷的電子,英偉達的人工智能生成器也正在源源不斷地產生具有無限可能性的Token。這兩者都有巨大的市場機會,有望在每個行業掀起變革。這確實是一場新的工業革命!
我們現在迎來了一個全新的工廠,能夠爲各行各業生產出前所未有的、極具價值的新商品。這一方法不僅極具可擴展性,而且完全可重復。請注意,目前,每天都在不斷湧現出各種各樣的人工智能模型,尤其是生成式人工智能模型。如今,每個行業都競相參與其中,這是前所未有的盛況。
價值3萬億美元的IT行業,即將催生出能夠直接服務於100萬億美元產業的創新成果。它不再僅僅是信息存儲或數據處理的工具,而是每個行業生成智能的引擎。這將成爲一種新型的制造業,但它並非傳統的計算機制造業,而是利用計算機進行制造的全新模式。這樣的變革以前從未發生過,這確實是一件令人矚目的非凡之事。
5. 生成式AI推動軟件全棧重塑,展示NIM雲原生微服務
這开啓了計算加速的新時代,推動了人工智能的迅猛發展,進而催生了生成式人工智能的興起。而如今,我們正在經歷一場工業革命。關於其影響,讓我們深入探討一下。
對於我們所在的行業而言,這場變革的影響同樣深遠。正如我之前所言,這是過去六十年來的首次,計算的每一層都正在發生變革。從CPU的通用計算到GPU的加速計算,每一次變革都標志着技術的飛躍。
過去,計算機需要遵循指令執行操作,而現在,它們更多地是處理LLM(大語言模型)和人工智能模型。過去的計算模型主要基於檢索,幾乎每次你使用手機時,它都會爲你檢索預先存儲的文本、圖像或視頻,並根據推薦系統重新組合這些內容呈現給你。
但在未來,你的計算機會盡可能多地生成內容,只檢索必要的信息,因爲生成數據在獲取信息時消耗的能量更少。而且,生成的數據具有更高的上下文相關性,能更准確地反映你的需求。當你需要答案時,不再需要明確指示計算機“給我獲取那個信息”或“給我那個文件”,只需簡單地說:“給我一個答案。”
此外,計算機不再僅僅是我們使用的工具,它开始生成技能。它執行任務,而不再是一個生產軟件的行業,這在90年代初是一個顛覆性的觀念。記得嗎?微軟提出的軟件打包理念徹底改變了PC行業。沒有打包軟件,我們的PC將失去大部分功能。這一創新推動了整個行業的發展。
現在我們有了新工廠、新計算機,而在這個基礎上運行的是一種新型軟件——我們稱之爲Nim(NVIDIA Inference Microservices)。在這個新工廠中運行的Nim是一個預訓練模型,它是一個人工智能。
這個人工智能本身相當復雜,但運行人工智能的計算堆棧更是復雜得令人難以置信。當你使用ChatGPT這樣的模型時,其背後是龐大的軟件堆棧。這個堆棧復雜而龐大,因爲模型擁有數十億到數萬億個參數,且不僅在一台計算機上運行,而是在多台計算機上協同工作。
爲了最大化效率,系統需要將工作負載分配給多個GPU,進行各種並行處理,如張量並行、管道並行、數據並行和專家並行。這樣的分配是爲了確保工作能盡快完成,因爲在一個工廠中,吞吐量直接關系到收入、服務質量和可服務的客戶數量。如今,我們身處一個數據中心吞吐量利用率至關重要的時代。
過去,雖然吞吐量被認爲重要,但並非決定性的因素。然而,現在,從啓動時間、運行時間、利用率、吞吐量到空闲時間等每一個參數都被精確測量,因爲數據中心已成爲真正的“工廠”。在這個工廠中,運作效率直接關聯到公司的財務表現。
鑑於這種復雜性,我們深知大多數公司在部署人工智能時面臨的挑战。因此,我們开發了一個集成化的人工智能容器解決方案,將人工智能封裝在易於部署和管理的盒子中。這個盒子包含了龐大的軟件集合,如CUDA、CUDACNN和TensorRT,以及Triton推理服務。它支持雲原生環境,允許在Kubernetes(基於容器技術的分布式架構解決方案)環境中自動擴展,並提供管理服務,方便用戶監控人工智能服務的運行狀態。
更令人振奮的是,這個人工智能容器提供通用的、標准的API接口,使得用戶可以直接與“盒子”進行交互。用戶只需下載Nim,並在支持CUDA的計算機上運行,即可輕松部署和管理人工智能服務。如今,CUDA已無處不在,它支持各大雲服務提供商,幾乎所有計算機制造商都提供CUDA支持,甚至在數億台PC中也能找到它的身影。
當你下載Nim時,即刻擁有一個人工智能助手,它能如與ChatGPT對話般流暢交流。現在,所有的軟件都已精簡並整合在一個容器中,原先繁瑣的400個依賴項全部集中優化。我們對Nim進行了嚴格的測試,每個預訓練模型都在我們的雲端基礎設施上得到了全面測試,包括Pascal、Ampere乃至最新的Hopper等不同版本的GPU。這些版本種類繁多,幾乎覆蓋了所有需求。
Nim的發明無疑是一項壯舉,它是我最引以爲傲的成就之一。如今,我們有能力構建大語言模型和各種預訓練模型,這些模型涵蓋了語言、視覺、圖像等多個領域,還有針對特定行業如醫療保健和數字生物學的定制版本。
想要了解更多或試用這些版本,只需訪問ai.nvidia.com。今天,我們在Hugging Face上發布了完全優化的Llama 3 Nim,你可以立即體驗,甚至免費帶走它。無論你選擇哪個雲平台,都能輕松運行它。當然,你也可以將這個容器下載到你的數據中心,自行托管,並爲你的客戶提供服務。
我前面提到,我們擁有覆蓋不同領域的Nim版本,包括物理學、語義檢索、視覺語言等,支持多種語言。這些微服務可以輕松集成到大型應用中,其中最具潛力的應用之一是客戶服務代理。它幾乎是每個行業的標配,代表了價值數萬億美元的全球客戶服務市場。
值得一提的是,護士們作爲客戶服務的核心,在零售、快餐、金融服務、保險等行業中發揮着重要作用。如今,借助語言模型和人工智能技術,數千萬的客戶服務人員得到了顯著的增強。這些增強工具的核心,正是你所看到的Nim。
有些被稱爲推理智能體(Reasoning Agents),它們被賦予任務後,能夠明確目標並制定計劃。有的擅長檢索信息,有的精於搜索,還有的可能會使用如Coop這樣的工具,或者需要學習在SAP上運行的特定語言如ABAP,甚至執行SQL查詢。這些所謂的專家現在被組成一個高效協作的團隊。
應用層也因此發生了變革:過去,應用程序是由指令編寫的,而現在,它們則是通過組裝人工智能團隊來構建。雖然編寫程序需要專業技能,但幾乎每個人都知道如何分解問題並組建團隊。因此,我堅信,未來的每家公司都會擁有一個龐大的Nim集合。你可以根據需要選擇專家,將它們連接成一個團隊。
更神奇的是,你甚至不需要弄清楚如何去連接它們。只需給代理分配一個任務,Nim會智能地決定如何分解任務並分配給最適合的專家。它們就像應用程序或團隊的中央領導者,能夠協調團隊成員的工作,最終將結果呈現給你。
整個過程就像人類團隊協作一樣高效、靈活。這不僅僅是未來的趨勢,而是即將在我們身邊成爲現實。這就是未來應用程序將要呈現的全新面貌。
6. PC將成爲數字人主要載體
當我們談論與大型人工智能服務的交互時,目前我們已經可以通過文本和語音提示來實現。但展望未來,我們更希望以更人性化的方式——即數字人,來進行互動。英偉達在數字人技術領域已經取得了顯著的進展。
數字人不僅具有成爲出色交互式代理的潛力,它們還更加吸引人,並可能展現出更高的同理心。然而,要跨越這個令人難以置信的鴻溝,使數字人看起來和感覺更加自然,我們仍需付出巨大的努力。這不僅是我們的愿景,更是我們不懈追求的目標。
在我向大家展示我們目前的成果之前,請允許我表達對中國台灣的熱情問候。在深入探索夜市的魅力之前,讓我們先一同領略數字人技術的前沿動態。
這確實令人覺得不可思議。ACE(Avatar Cloud Engine,英偉達數字人技術)不僅能在雲端高效運行,同時也兼容PC環境。我們前瞻性地將Tensor Core GPU集成到所有RTX系列中,這標志着人工智能GPU的時代已經到來,我們爲此做好了充分准備。
背後的邏輯十分清晰:要構建一個新的計算平台,必須先奠定堅實的基礎。有了堅實的基礎,應用程序自然會隨之湧現。如果缺乏這樣的基礎,那么應用程序便無從談起。所以,只有當我們構建了它,應用程序的繁榮才有可能實現。
因此,我們在每一款RTX GPU中都集成了Tensor Core處理單元,目前全球已有1億台GeForce RTX AI PC投入使用,而且這個數字還在不斷增長,預計將達到2億台。在最近的Computex展會上,我們更是推出了四款全新的人工智能筆記本電腦。
這些設備都具備運行人工智能的能力。未來的筆記本電腦和PC將成爲人工智能的載體,它們將在後台默默地爲你提供幫助和支持。同時,這些PC還將運行由人工智能增強的應用程序,無論你是進行照片編輯、寫作還是使用其他工具,都將享受到人工智能帶來的便利和增強效果。
此外,你的PC還將能夠托管帶有人工智能的數字人類應用程序,讓人工智能以更多樣化的方式呈現並在PC上得到應用。顯然,PC將成爲至關重要的人工智能平台。那么,接下來我們將如何發展呢?
之前我談到了我們數據中心的擴展,每次擴展都伴隨着新的變革。當我們從DGX擴展到大型人工智能超級計算機時,我們實現了Transformer在巨大數據集上的高效訓練。這標志着一個重大的轉變:一开始,數據需要人類的監督,通過人類標記來訓練人工智能。然而,人類能夠標記的數據量是有限的。現在,隨着Transformer的發展,無監督學習成爲可能。
如今,Transformer能夠自行探索海量的數據、視頻和圖像,從中學習並發現隱藏的模式和關系。爲了推動人工智能向更高層次發展,下一代人工智能需要根植於物理定律的理解,但大多數人工智能系統缺乏對物理世界的深刻認識。爲了生成逼真的圖像、視頻、3D圖形,以及模擬復雜的物理現象,我們急需开發基於物理的人工智能,這要求它能夠理解並應用物理定律。
在實現這一目標的過程中,有兩個主要方法。首先,通過從視頻中學習,人工智能可以逐步積累對物理世界的認知。其次,利用合成數據,我們可以爲人工智能系統提供豐富且可控的學習環境。此外,模擬數據和計算機之間的互相學習也是一種有效的策略。這種方法類似於AlphaGo的自我對弈模式,讓兩個相同能力的實體長時間相互學習,從而不斷提升智能水平。因此,我們可以預見,這種類型的人工智能將在未來逐漸嶄露頭角。
7. Blackwell全面投產,八年間算力增長1000倍
當人工智能數據通過合成方式生成,並結合強化學習技術時,數據生成的速率將得到顯著提升。隨着數據生成的增長,對計算能力的需求也將相應增加。我們即將邁入一個新時代,在這個時代中,人工智能將能夠學習物理定律,理解並基於物理世界的數據進行決策和行動。因此,我們預計人工智能模型將繼續擴大,對GPU性能的要求也將越來越高。
爲滿足這一需求,Blackwell應運而生。這款GPU專爲支持新一代人工智能設計,擁有幾項關鍵技術。這種芯片尺寸之大在業界首屈一指。我們採用了兩片盡可能大的芯片,通過每秒10太字節的高速鏈接,結合世界上最先進的SerDes(高性能接口或連接技術)將它們緊密連接在一起。進一步地,我們將兩片這樣的芯片放置在一個計算機節點上,並通過Grace CPU進行高效協調。
Grace CPU的用途廣泛,不僅適用於訓練場景,還在推理和生成過程中發揮關鍵作用,如快速檢查點和重啓。此外,它還能存儲上下文,讓人工智能系統擁有記憶,並能理解用戶對話的上下文,這對於增強交互的連續性和流暢性至關重要。
我們推出的第二代Transformer引擎進一步提升了人工智能的計算效率。這款引擎能夠根據計算層的精度和範圍需求,動態調整至較低的精度,從而在保持性能的同時降低能耗。同時,Blackwell GPU還具備安全人工智能功能,確保用戶能夠要求服務提供商保護其免受盜竊或篡改。
在GPU的互聯方面,我們採用了第五代NV Link技術,它允許我們輕松連接多個GPU。此外,Blackwell GPU還配備了第一代可靠性和可用性引擎(Ras系統),這一創新技術能夠測試芯片上的每一個晶體管、觸發器、內存以及片外內存,確保我們在現場就能准確判斷特定芯片是否達到了平均故障間隔時間(MTBF)的標准。
對於大型超級計算機來說,可靠性尤爲關鍵。擁有10,000個GPU的超級計算機的平均故障間隔時間可能以小時爲單位,但當GPU數量增加至100,000個時,平均故障間隔時間將縮短至以分鐘爲單位。因此,爲了確保超級計算機能夠長時間穩定運行,以訓練那些可能需要數個月時間的復雜模型,我們必須通過技術創新來提高可靠性。而可靠性的提升不僅能夠增加系統的正常運行時間,還能有效降低成本。
最後,我們還在Blackwell GPU中集成了先進的解壓縮引擎。在數據處理方面,解壓縮速度至關重要。通過集成這一引擎,我們可以從存儲中拉取數據的速度比現有技術快20倍,從而極大地提升了數據處理效率。
Blackwell GPU的上述功能特性使其成爲一款令人矚目的產品。在之前的GTC大會上,我曾向大家展示了處於原型狀態的Blackwell。而現在,我們很高興地宣布,這款產品已經投入生產。
各位,這就是Blackwell,使用了令人難以置信的技術。這是我們的傑作,是當今世界上最復雜、性能最高的計算機。其中,我們特別要提到的是Grace CPU,它承載了巨大的計算能力。請看,這兩個Blackwell芯片,它們緊密相連。你注意到了嗎?這就是世界上最大的芯片,而我們使用每秒高達A10TB的鏈接將兩片這樣的芯片融爲一體。
那么,Blackwell究竟是什么呢?它的性能之強大,簡直令人難以置信。請仔細觀察這些數據。在短短八年內,我們的計算能力、浮點運算以及人工智能浮點運算能力增長了1000倍。這速度,幾乎超越了摩爾定律在最佳時期的增長。
Blackwell計算能力的增長簡直驚人。而更值得一提的是,每當我們的計算能力提高時,成本卻在不斷下降。讓我給你們展示一下。我們通過提升計算能力,用於訓練GPT-4模型(2萬億參數和8萬億Token)的能量下降了350倍。
想象一下,如果使用Pascal進行同樣的訓練,它將消耗高達1000吉瓦時的能量。這意味着需要一個吉瓦數據中心來支持,但世界上並不存在這樣的數據中心。即便存在,它也需要連續運行一個月的時間。而如果是一個100兆瓦的數據中心,那么訓練時間將長達一年。
顯然,沒有人愿意或能夠創造這樣的數據中心。這就是爲什么八年前,像ChatGPT這樣的大語言模型對我們來說還是遙不可及的夢想。但如今,我們通過提升性能並降低能耗實現了這一目標。
我們利用Blackwell將原本需要高達1000吉瓦時的能量降低到僅需3吉瓦時,這一成就無疑是令人震驚的突破。想象一下,使用1000個GPU,它們所消耗的能量竟然只相當於一杯咖啡的熱量。而10,000個GPU,更是只需短短10天左右的時間就能完成同等任務。八年間取得的這些進步,簡直令人難以置信。
Blackwell不僅適用於推理,其在Token生成性能上的提升更是令人矚目。在Pascal時代,每個Token消耗的能量高達17,000焦耳,這大約相當於兩個燈泡運行兩天的能量。而生成一個GPT-4的Token,幾乎需要兩個200瓦特的燈泡持續運行兩天。考慮到生成一個單詞大約需要3個Token,這確實是一個巨大的能量消耗。
然而,現在的情況已經截然不同。Blackwell使得生成每個Token只需消耗0.4焦耳的能量,以驚人的速度和極低的能耗進行Token生成。這無疑是一個巨大的飛躍。但即使如此,我們仍不滿足。爲了更大的突破,我們必須建造更強大的機器。
這就是我們的DGX系統,Blackwell芯片將被嵌入其中。這款系統採用空氣冷卻技術,內部配備了8個這樣的GPU。看看這些GPU上的散熱片,它們的尺寸之大令人驚嘆。整個系統功耗約爲15千瓦,完全通過空氣冷卻實現。這個版本兼容X86,並已應用於我們已發貨的服務器中。
然而,如果你更傾向於液體冷卻技術,我們還有一個全新的系統——MGX。它基於這款主板設計,我們稱之爲“模塊化”系統。MGX系統的核心在於兩塊Blackwell芯片,每個節點都集成了四個Blackwell芯片。它採用了液體冷卻技術,確保了高效穩定的運行。
整個系統中,這樣的節點共有九個,共計72個GPU,構成了一個龐大的計算集群。這些GPU通過全新的NV鏈接技術緊密相連,形成了一個無縫的計算網絡。NV鏈接交換機堪稱技術奇跡。它是目前世界上最先進的交換機,數據傳輸速率令人咋舌。這些交換機使得每個Blackwell芯片高效連接,形成了一個巨大的72 GPU集群。
這一集群的優勢何在?首先,在GPU域中,它現在表現得就像一個單一的、超大規模的GPU。這個“超級GPU”擁有72個GPU的核心能力,相較於上一代的8個GPU,性能提升了9倍。同時,帶寬增加了18倍,AI FLOPS(每秒浮點運算次數)更是提升了45倍,而功率僅增加了10倍。也就是說,一個這樣的系統能提供100千瓦的強勁動力,而上一代僅爲10千瓦。
當然,你還可以將更多的這些系統連接在一起,形成更龐大的計算網絡。但真正的奇跡在於這個NV鏈接芯片,隨着大語言模型的日益龐大,其重要性也日益凸顯。因爲這些大語言模型已經不適合單獨放在一個GPU或節點上運行,它們需要整個GPU機架的協同工作。就像我剛才提到的那個新DGX系統,它能夠容納參數達到數十萬億的大語言模型。
NV鏈接交換機本身就是一個技術奇跡,擁有500億個晶體管,74個端口,每個端口的數據速率高達400 GB。但更重要的是,交換機內部還集成了數學運算功能,可以直接進行歸約操作,這在深度學習中具有極其重要的意義。這就是現在的DGX系統的全新面貌。
許多人對我們表示好奇。他們提出疑問,對英偉達的業務範疇存在誤解。人們疑惑,英偉達怎么可能僅憑制造GPU就變得如此龐大。因此,很多人形成了這樣一種印象:GPU就應該是某種特定的樣子。
然而,現在我要展示給你們的是,這確實是一個GPU,但它並非你們想象中的那種。這是世界上最先進的GPU之一,但它主要用於遊戲領域。但我們都清楚,GPU的真正力量遠不止於此。
各位,請看這個,這才是GPU的真正形態。這是DGX GPU,專爲深度學習而設計。這個GPU的背面連接着NV鏈接主幹,這個主幹由5000條线組成,長達3公裏。這些线,就是NV鏈接主幹,它們連接了70個GPU,形成一個強大的計算網絡。這是一個電子機械奇跡,其中的收發器讓我們能夠在銅线上驅動信號貫穿整個長度。
因此,這個NV鏈接交換機通過NV鏈接主幹在銅线上傳輸數據,使我們能夠在單個機架中節省20千瓦的電力,而這20千瓦現在可以完全用於數據處理,這的確是一項令人難以置信的成就。這就是NV鏈接主幹的力量。
8. 爲生成式AI推以太網
但這還不足以滿足需求,特別是對於大型人工智能工廠來說更是如此,那么我們還有另一種解決方案。我們必須使用高速網絡將這些人工智能工廠連接起來。我們有兩種網絡選擇:InfiniBand和以太網。其中,InfiniBand已經在全球各地的超級計算和人工智能工廠中廣泛使用,並且增長迅速。然而,並非每個數據中心都能直接使用InfiniBand,因爲他們在以太網生態系統上進行了大量投資,而且管理InfiniBand交換機和網絡確實需要一定的專業知識和技術。
因此,我們的解決方案是將InfiniBand的性能帶到以太網架構中,這並非易事。原因在於,每個節點、每台計算機通常與互聯網上的不同用戶相連,但大多數通信實際上發生在數據中心內部,即數據中心與互聯網另一端用戶之間的數據傳輸。然而,在人工智能工廠的深度學習場景下,GPU並不是與互聯網上的用戶進行通信,而是彼此之間進行頻繁的、密集的數據交換。
它們相互通信是因爲它們都在收集部分結果。然後它們必須將這些部分結果進行規約(reduce)並重新分配(redistribute)。這種通信模式的特點是高度突發性的流量。重要的不是平均吞吐量,而是最後一個到達的數據,因爲如果你正在從所有人那裏收集部分結果,並且我試圖接收你所有的部分結果,如果最後一個數據包晚到了,那么整個操作就會延遲。對於人工智能工廠而言,延遲是一個至關重要的問題。
所以,我們關注的焦點並非平均吞吐量,而是確保最後一個數據包能夠准時、無誤地抵達。然而,傳統的以太網並未針對這種高度同步化、低延遲的需求進行優化。爲了滿足這一需求,我們創造性地設計了一個端到端的架構,使NIC(網絡接口卡)和交換機能夠通信。爲了實現這一目標,我們採用了四種關鍵技術:
第一,英偉達擁有業界領先的RDMA(遠程直接內存訪問)技術。現在,我們有了以太網網絡級別的RDMA,它的表現非常出色。
第二,我們引入了擁塞控制機制。交換機具備實時遙測功能,能夠迅速識別並響應網絡中的擁塞情況。當GPU或NIC發送的數據量過大時,交換機會立即發出信號,告知它們減緩發送速率,從而有效避免網絡熱點的產生。
第三,我們採用了自適應路由技術。傳統以太網按固定順序傳輸數據,但在我們的架構中,我們能夠根據實時網絡狀況進行靈活調整。當發現擁塞或某些端口空闲時,我們可以將數據包發送到這些空闲端口,再由另一端的Bluefield設備重新排序,確保數據按正確順序返回。這種自適應路由技術極大地提高了網絡的靈活性和效率。
第四,我們實施了噪聲隔離技術。在數據中心中,多個模型同時訓練產生的噪聲和流量可能會相互幹擾,並導致抖動。我們的噪聲隔離技術能夠有效地隔離這些噪聲,確保關鍵數據包的傳輸不受影響。
通過採用這些技術,我們成功地爲人工智能工廠提供了高性能、低延遲的網絡解決方案。在價值高達數十億美元的數據中心中,如果網絡利用率提升40%而訓練時間縮短20%,這實際上意味着價值50億美元的數據中心在性能上等同於一個60億美元的數據中心,揭示了網絡性能對整體成本效益的顯著影響。
幸運的是,帶有Spectrum X的以太網技術正是我們實現這一目標的關鍵,它大大提高了網絡性能,使得網絡成本相對於整個數據中心而言幾乎可以忽略不計。這無疑是我們在網絡技術領域取得的一大成就。
我們擁有一系列強大的以太網產品线,其中最引人注目的是Spectrum X800。這款設備以每秒51.2 TB的速度和256路徑(radix)的支持能力,爲成千上萬的GPU提供了高效的網絡連接。接下來,我們計劃一年後推出X800 Ultra,它將支持高達512路徑的512 radix,進一步提升了網絡容量和性能。而X 1600則是爲更大規模的數據中心設計的,能夠滿足數百萬個GPU的通信需求。
隨着技術的不斷進步,數百萬個GPU的數據中心時代已經指日可待。這一趨勢的背後有着深刻的原因。一方面,我們渴望訓練更大、更復雜的模型;但更重要的是,未來的互聯網和計算機交互將越來越多地依賴於雲端的生成式人工智能。這些人工智能將與我們一起工作、互動,生成視頻、圖像、文本甚至數字人。因此,我們與計算機的每一次交互幾乎都離不开生成式人工智能的參與。並且總是有一個生成式人工智能與之相連,其中一些在本地運行,一些在你的設備上運行,很多可能在雲端運行。
這些生成式人工智能不僅具備強大的推理能力,還能對答案進行迭代優化,以提高答案的質量。這意味着我們未來將產生海量的數據生成需求。今晚,我們共同見證了這一技術革新的力量。
Blackwell,作爲NVIDIA平台的第一代產品,自推出以來便備受矚目。如今,全球範圍內都迎來了生成式人工智能的時代,這是一個全新的工業革命的开端,每個角落都在意識到人工智能工廠的重要性。我們深感榮幸,獲得了來自各行各業的廣泛支持,包括每一家OEM(原始設備制造商)、電腦制造商、CSP(雲服務提供商)、GPU雲、主權雲以及電信公司等。
Blackwell的成功、廣泛的採用以及行業對其的熱情都達到了前所未有的高度,這讓我們深感欣慰,並在此向大家表示衷心的感謝。然而,我們的腳步不會因此而停歇。在這個飛速發展的時代,我們將繼續努力提升產品性能,降低培訓和推理的成本,同時不斷擴展人工智能的能力,使每一家企業都能從中受益。我們堅信,隨着性能的提升,成本將進一步降低。而Hopper平台,無疑可能是歷史上最成功的數據中心處理器。
9. Blackwell Ultra將於明年發布,下一代平台名爲Rubin
這確實是一個震撼人心的成功故事。Blackwell平台的誕生,正如大家所見,並非單一組件的堆砌,而是一個綜合了CPU、GPU、NVLink、NICK(特定技術組件)以及NVLink交換機等多個元素的完整系統。我們致力於通過每代產品使用大型、超高速的交換機將所有GPU緊密連接,形成一個龐大且高效的計算域。
我們將整個平台集成到人工智能工廠中,但更爲關鍵的是,我們將這一平台以模塊化的形式提供給全球客戶。這樣做的初衷在於,我們期望每一位合作夥伴都能根據自身的需求,創造出獨特且富有創新性的配置,以適應不同風格的數據中心、不同的客戶群體和多樣化的應用場景。從邊緣計算到電信領域,只要系統保持开放,各種創新都將成爲可能。
爲了讓你們能夠自由創新,我們設計了一個一體化的平台,但同時又以分解的形式提供給你們,使你們能夠輕松構建模塊化系統。現在,Blackwell平台已經全面登場。
英偉達始終堅持每年一次的更新節奏。我們的核心理念非常明確:1)構建覆蓋整個數據中心規模的解決方案;2)將這些解決方案分解爲各個部件,以每年一次的頻率向全球客戶推出;3)我們不遺余力地將所有技術推向極限,無論是台積電的工藝技術、封裝技術、內存技術,還是光學技術等,我們都追求極致的性能表現。
在完成硬件的極限挑战後,我們將全力以赴確保所有軟件都能在這個完整的平台上順暢運行。在計算機技術中,軟件慣性至關重要。當我們的計算機平台能夠向後兼容,且架構上與已有軟件完美契合時,產品的上市速度將顯著提升。因此,當Blackwell平台問世時,我們能夠充分利用已構建的軟件生態基礎,實現驚人的市場響應速度。明年,我們將迎來Blackwell Ultra。
正如我們曾推出的H100和H200系列一樣,Blackwell Ultra也將引領新一代產品的熱潮,帶來前所未有的創新體驗。同時,我們將繼續挑战技術的極限,推出下一代頻譜交換機,這是行業內的首次嘗試。這一重大突破已經成功實現,盡管我現在對於公开這個決定還心存些許猶豫。
在英偉達內部,我們習慣於使用代碼名並保持一定的保密性。很多時候,連公司內部的大多數員工都不甚了解這些祕密。然而,我們的下一代平台已被命名爲Rubin。關於Rubin,我不會在此過多贅述。我深知大家的好奇心,但請允許我保持一些神祕感。你們或許已經迫不及待想要拍照留念,或是仔細研究那些小字部分,那就請隨意吧。
我們不僅有Rubin平台,一年後還將推出Rubin Ultra平台。在此展示的所有芯片都處於全面开發階段,確保每一個細節都經過精心打磨。我們的更新節奏依然是一年一次,始終追求技術的極致,同時確保所有產品都保持100%的架構兼容性。
回顧過去的12年,從Imagenet誕生的那一刻起,我們就預見到計算領域的未來將會發生翻天覆地的變化。如今,這一切都成爲了現實,與我們當初的設想不謀而合。從2012年之前的GeForce到如今的英偉達,公司經歷了巨大的轉變。在此,我要衷心感謝所有合作夥伴的一路支持與陪伴。
10. 機器人時代已經到來
這就是英偉達的Blackwell平台,接下來,讓我們談談人工智能與機器人相結合的未來。
物理人工智能正引領人工智能領域的新浪潮,它們深諳物理定律,並能自如地融入我們的日常生活。爲此,物理人工智能不僅需要構建一個精准的世界模型,以理解如何解讀和感知周圍世界,更需具備卓越的認知能力,以深刻理解我們的需求並高效執行任務。
展望未來,機器人技術將不再是一個遙不可及的概念,而是日益融入我們的日常生活。當提及機器人技術時,人們往往會聯想到人形機器人,但實際上,它的應用遠不止於此。機械化將成爲常態,工廠將全面實現自動化,機器人將協同工作,制造出一系列機械化產品。它們之間的互動將更加密切,共同創造出一個高度自動化的生產環境。
爲了實現這一目標,我們需要克服一系列技術挑战。接下來,我將通過視頻展示這些前沿技術。
這不僅僅是對未來的展望,它正逐步成爲現實。
我們將通過多種方式服務市場。首先,我們致力於爲不同類型的機器人系統打造平台:機器人工廠與倉庫專用平台、物體操縱機器人平台、移動機器人平台,以及人形機器人平台。這些機器人平台與我們其他衆多業務一樣,依托於計算機加速庫和預訓練模型。
我們運用計算機加速庫、預訓練模型,並在Omniverse中進行全方位的測試、訓練和集成。正如視頻所示,Omniverse是機器人學習如何更好地適應現實世界的地方。當然,機器人倉庫的生態系統極爲復雜,需要衆多公司、工具和技術來共同構建現代化的倉庫。如今,倉庫正逐步邁向全面機械化,終有一天將實現完全自動化。
在這樣一個生態系統中,我們爲軟件行業、邊緣人工智能行業和公司提供了SDK和API接口,同時也爲PLC和機器人系統設計了專用系統,以滿足國防部等特定領域的需求。這些系統通過集成商整合,最終爲客戶打造高效、智能的倉庫。舉個例子,Ken Mac正在爲Giant Giant集團構建一座機器人倉庫。
接下來,讓我們聚焦工廠領域。工廠的生態系統截然不同。以富士康爲例,他們正在建設世界上一些最先進的工廠。這些工廠的生態系統同樣涵蓋了邊緣計算機、機器人軟件,用於設計工廠布局、優化工作流程、編程機器人,以及用於協調數字工廠和人工智能工廠的PLC計算機。我們同樣爲這些生態系統中的每一個環節提供了SDK接口。
這樣的變革正在全球範圍內上演。富士康和Delta正爲其工廠構建數字孿生設施,實現現實與數字的完美融合,而Omniverse在其中扮演了至關重要的角色。同樣值得一提的是,和碩與Wistron也在緊隨潮流,爲各自的機器人工廠建立數字孿生設施。
這確實令人興奮。接下來,請欣賞一段富士康新工廠的精彩視頻。
機器人工廠由三個主要計算機系統組成,在NVIDIA AI平台上訓練人工智能模型,我們確保機器人在本地系統上高效運行以編排工廠流程。同時,我們利用Omniverse這一模擬協作平台,對包括機械臂和AMR(自主移動機器人)在內的所有工廠元素進行模擬。值得一提的是,這些模擬系統均共享同一個虛擬空間,實現無縫的交互與協作。
當機械臂和AMR進入這個共享的虛擬空間時,它們能夠在Omniverse中模擬出真實的工廠環境,確保在實際部署前進行充分的驗證和優化。
爲了進一步提升解決方案的集成度和應用範圍,我們提供了三款高性能計算機,並配備了加速層和預訓練人工智能模型。此外,我們已成功將NVIDIA Manipulator和Omniverse與西門子的工業自動化軟件和系統相結合。這種合作使得西門子在全球各地的工廠中都能夠實現更高效的機器人操作和自動化。
除了西門子,我們還與多家知名企業建立了合作關系。例如,Symantec Pick AI已經集成了NVIDIA Isaac Manipulator,而Somatic Pick AI則成功運行並操作了ABB、KUKA、Yaskawa Motoman等知名品牌的機器人。
機器人技術和物理人工智能的時代已經到來,它們正在各地被廣泛應用,這並非科幻,而是現實,令人倍感振奮。展望未來,工廠內的機器人將成爲主流,它們將制造所有的產品,其中兩個高產量機器人產品尤爲引人注目。首先是自動駕駛汽車或具備高度自主能力的汽車,英偉達再次憑借其全面的技術堆棧在這一領域發揮了核心作用。明年,我們計劃與梅賽德斯-奔馳車隊攜手,隨後在2026年與捷豹路虎(JLR)車隊合作。我們提供完整的解決方案堆棧,但客戶可根據需求選擇其中的任何部分或層級,因爲整個驅動堆棧都是开放和靈活的。
接下來,另一個可能由機器人工廠高產量制造的產品是人形機器人。近年來,在認知能力和世界理解能力方面取得了巨大突破,這一領域的發展前景令人期待。我對人形機器人特別興奮,因爲它們最有可能適應我們爲人類所構建的世界。
與其他類型的機器人相比,訓練人形機器人需要大量的數據。由於我們擁有相似的體型,通過演示和視頻能力提供的大量訓練數據將極具價值。因此,我們預計這一領域將取得顯著的進步。
現在,讓我們歡迎一些特別的機器人朋友。機器人時代已經來臨,這是人工智能的下一波浪潮。中國台灣制造的計算機種類繁多,既有配備鍵盤的傳統機型,也有小巧輕便、便於攜帶的移動設備,以及爲雲端數據中心提供強大算力的專業設備。但展望未來,我們將見證一個更爲激動人心的時刻——制造會走路、四處滾動的計算機,即智能機器人。
這些智能機器人與我們所熟知的計算機在技術上有着驚人的相似性,它們都是基於先進的硬件和軟件技術構建的。因此,我們有理由相信,這將是一段真正非凡的旅程!
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。