2024年6月2日 星期日

一世紀的世界『戰和、名利』、創新與競爭 到『味道』(酸甜苦鹹之外; "味蕾"分佈等等新知)科學的知識 The Textbooks Were Wrong About How Your Tongue Works






一世紀的世界『戰和、名利』、創新與競爭 到『味道』(酸甜苦鹹之外; "味蕾"分佈等等新知)科學的知識 The Textbooks Were Wrong About How Your Tongue Works

https://www.facebook.com/hanching.chung/videos/1780993855644717

一世紀的世界『戰和、名利』到『味道』(酸甜苦鹹之外; "味蕾"分佈等等新知)科學的知識




一世紀的世界『戰和、名利』到『味道』(酸甜苦鹹之外; "味蕾"分佈等等新知)科學的知識 The Textbooks Were Wrong About How Your Tongue Works

The Textbooks Were Wrong About How Your Tongue Works

The perception of taste is remarkably complex, not only on the tongue but in organs throughout the body.

Listen to this article · 4:15 min Learn more
Share full article



The taste bud diagram, used in many textbooks over the years, originated in a 1901 study but was actually showing the sensitivity of different areas of the tongue.Credit...Alamy


By Joanne Silberner
May 29, 2024


Think for a minute about the little bumps on your tongue. You probably saw a diagram of those taste bud arrangements once in a biology textbook — sweet sensors at the tip, salty on either side, sour behind them, bitter in the back.




周日的一些節目:CNN的80周年D-Day紀念,提醒脆弱的“民主”。BBC 專題,法西斯主義在意大利仍然蠢蠢欲動。烏克蘭總統控中國軍援俄羅斯而延長俄羅斯的侵略戰爭。




2026年推出的AI平台系列新產品在台北發表,盛事。

對於俄羅斯的戰爭與和平,中國想要名要利。

輝達(Nvidia)創辦人黃仁勳今(6/2)日在台灣大學致詞,以下為演講內容:
大家好,今天非常高興能夠回到這裡。首先,我要感謝國立台灣大學,讓我們使用你們的體育館。上一次來這裡時,我獲頒了一個台大的學位,在演講時我說了“Run, don't walk”這樣的金句。所以,今天我們有很多內容要講,我不能用走的,而得用跑的。
1. NVIDIA從這裡開始
台灣是我們非常珍貴的夥伴的集中地,NVIDIA的一切都從這裡開始。我們的夥伴和銷售團隊,從台灣把這一切帶到全世界。台灣與輝達的合作,創造了全世界的AI基礎架構。
2. 輝達的靈魂
今天我想要跟大家談幾件事:首先,生成式AI對於我們的產業以及所有其他產業的影響。我還會談談我們未來的前景及所帶來的機會,以及接下來會有什麼樣的發展。現在是非常令人振奮的時刻,我們要重新啟動我們的電腦產業,這個產業是由大家打造和創造的,現在也要準備好開啟下一個重大的旅程。
在我們開始之前,我想強調輝達NVIDIA在電腦繪圖、模擬及人工智慧方面的重要性。這些技術是我們的靈魂。今天展示的全部都是擬真和模擬,背後都是數學、科輝達的靈魂學和電腦科學,這些都不是動畫,而是我們自製自產的技術,這是輝達的靈魂。
我們將這些技術放入虛擬世界中,稱之為Omniverse。請看Omniverse的展示,它背後的兩個關鍵技術是加速運算和人工智慧。這些技術在Omniverse裡運行,會重新打造整個電腦產業。
3. 我們的發明
電腦產業已有60年的歷史,從IBM 360的中央處理器開始,至今經歷了數次重大科技轉型。下一個重大改變即將來臨,處理器的效能擴展速度大幅降低,但我們需要處理的資料卻在快速增長,這導致了運算通膨。加速運算成為了必然,我們發明了平行運算架構,結合GPU和CPU,從而大幅提升了運算速度和效能。
過去20年,我們開發了各種函式庫來加速運算,像是CUDNN、Aerial、ParaBricks等,涵蓋了從AI到電信至基因定序等多個領域。我們在全球擁有500萬名開發人員,服務各行各業,從金融到健康護理,從電腦產業到交通運輸。
加速運算帶來的效益顯著,我們在資料中心節省了大量成本和能源,開發了更多應用程式,並降低了運算成本。這種良性循環使得我們能夠開發出更多創新技術,如地球的數位孿生,用以預測和應對氣候變遷和天災。
今天,我們即將見證一個新的電腦時代的開始,生成式AI的發展讓我們能夠實現更多不可能的事情。
4. 全球氣候的數位孿生模型
在星期六,颱風再次朝北前進,其路線帶來巨大的不確定性,而這不確定性帶來了對台灣不同的影響。但現在,我們能夠想像一個世界,一個能夠預測未來的世界,這就是數位孿生所能實現的。數位孿生是一種虛擬模型,它反映了真實世界的情況,並且能夠從現有的數據中預測未來的影響。NVIDIA EARTH 2就是一個極佳的例子。它利用AI、物理模擬和電腦圖形技術,建立了一個全球氣候的數位孿生模型。
其中一個核心技術是CoreDiff,這是NVIDIA的生成式AI模型,它能夠以高達12倍的解析度生成天氣模式,這將區域天氣預測帶入了一個全新的境界。更驚人的是,它比傳統的物理模擬方法快了1000倍,並且能源效率高達3000倍。
在台灣的中央氣象署,他們使用這些模型來更精確地預測颱風登陸點,這對於減少颱風帶來的災害有著重大的意義。而未來的發展將朝著超本地預測方向發展,這將使預測更加精確,能夠考慮到城市基礎設施的影響。CoreDiff AI還在使用像是PAL生成的高解析度數據進行訓練,這使得模型能夠更準確地模擬大氣和海洋邊界層,預測出像下沖這樣的現象,從而更好地保護城市和居民的安全。
5. 發現了CUDA的潛力
在2012年,一件重要的事件改變了遊戲規則。我們持續改進CUDA,期望提高效能、降低成本。於是,AI研究人員在2012年發現了CUDA的潛力,這是NVIDIA第一次接觸到人工智慧,標誌著重要的一天。我們與科學家合作,研究深度學習系統,使我們的電腦系統取得重大突破。更重要的是,我們必須了解深度學習的基礎,以及它的長遠影響和潛力。
6. 深度學習
深度學習是幾十年前的演算法,但現在因為資料量和運算能力的增加,使得深度學習從不可能變成可能。而隨著更多資料、更大的網路和更好的運算能力,深度學習的潛力無限。在2012年之後,我們有了Tensor Core和NVLink等技術,整合在我們嶄新的電腦裡面。
7. 超級電腦時代
2016年,我們將全球第一台超級電腦交給了OpenAI,開啟了DGX超級電腦時代。隨後,我們不斷擴大規模,到2017年推出了Transformer系統,進行大量資料的訓練,並分析長時間的資料,實現自然語言處理等重大突破。
2022年11月,我們用幾千個幾萬個NVIDIA的GPU,做了很多訓練,因此,OpenAI等公司在短短5天內,就有100萬人在使用我們的人工智慧系統,取得了驚人的成績。
這些創新的背後是NVIDIA的不斷努力,我們致力於改進CUDA和其他技術,以提供更好的效能和使用體驗。我們相信,隨著技術的不斷發展,AI將為人們的生活帶來更多便利和可能性。
在應用程式與系統優化方面,易於部署的微服務或NIMS已經變得十分普及。開發者可以將ACE NIMS整合到現有的框架、引擎和數位人體體驗中。Nemotron SLM和LLM NIMS能夠理解我們的意圖並協調其他模型的運作。Riva Speech NIMS用於互動式語音和翻譯,而音訊到面部和手勢NIMS則用於面部和身體動畫。Omniverse RTX與DLSS可進行皮膚和頭髮的神經渲染。ACE NIMS運行於NVIDIA GDN上,這是一個全球性的NVIDIA加速基礎設施網絡,提供低延遲的數位人體處理服務覆蓋100多個地區。
ACE可在雲端上運行,也可以在個人電腦上運行,並且所有RTX GPU都配備Tensor Core Processing。現在,有超過一億台GeForce RTX AI個人電腦,並且推出了200多款新的AI個人電腦。未來,個人電腦將成為一個重要的AI平台,提供各種背景的支援和由AI強化的應用程式。
8. AI的發展
AI的發展將朝向更加符合物理定律的方向。大多數的AI目前還不太符合物理定律,但未來的AI將基於物理定律,並逐漸理解這些定律。AI將從各種方式中學習,包括觀看影片、模擬和與其他電腦互相學習,這就像AlphaGo與自己對弈一樣。
透過強化學習和合成生成的資料,AI的發展速度將加快,並將更好地適應物理定律。因此,未來的模型將變得越來越強大,需要更大的GPU來支援。
Blackwell就是為了這樣子的一個新的時代而發明的,Blackwell當然其中光是晶片的規模,晶片的大小大家就會發現是一個很大的成就,因為台積電它可以生成的最大晶片,我們把它連接在一起,它每秒是10TB的連結,這個可以說是全世界最先進的Service,把它連接在一起,然後我們把這兩個放在一個電腦的節點上,用Grey CPU把它連接在一起,Grey CPU可以做很多事情,在訓練的這一個情境裡頭,我們可以來做快速的檢查點,然後重新啟動,那麼在推論的情況,它可以用來儲存這個情境的記憶,所以AI它就有記憶了,它了解這個對話的情境,這是我們的第二代的Transformer的引擎,Transformer的引擎讓我們可以去,動態的去適應更低的精度,根據我們所需要的精度,需要的範圍來調整,這是第二代的GPU,是我們可以請,要求我們的這個服務供應商來保護我們的AI,讓它不會被偷竊,或者是被毀壞,這是我們第五代的MV-Link,MV-Link讓我們可以把多個GPU連接在一起,等一下會再給大家展示。
9. RAS的系統
除此之外,這也是我們的第一代,有一個可靠而且可用的引擎,這個RAS的系統讓我們去測試每一個電晶體,每一個Flip Flop的記憶,不管是晶片上或晶片外,讓我們可以去決定說,某一個晶片是不是失靈了,如果說一台超級電腦它有一萬個GPU,它的平均時,NTBF是一萬個小時過去,但是現在是用分鐘來測量的,所以一台超級電腦,它要能夠運行很長的一段時間,讓它可以長期好幾個月來訓練一個模型,它的前提是我們的科技要非常可靠。
換句話說它不能夠中斷運行,你要持續的讓它運行,它就要花很多的時間很多的金錢,所以我們加入了一個資料的壓縮引擎,還有解壓縮的引擎,讓我們可以在資料存取上面快20倍,那麼這個都是Blackwell,我們這邊有一個已經在生產中的Blackwell,在GDC我有給大家看Blackwell,它是一個圓形,我們看,原來是在另外一邊,這就是為什麼要先做一些演練嘛,在美國剛好是反過來哦,各位女士,各位先生,這就是Blackwell,這就是我們正式生產的Blackwell,裡頭有最尖端的科技,這就是我們實際生產的一個板,可以說是有史以來功能效能最強大的一個晶片,這個是我們的CPU,每一個裸晶,應該說我們把兩個GPU的裸晶串聯在一起,這可以說是世界上我們可以生產出來最大的晶片,而且它兩個串聯起來的時候,它的連接的速度是10個TB,這個是Blackwell的電腦,它的效能非常的強大。
10. 浮點運算能力
請各位注意一下我們的螢幕上面所秀出來的,我們來看一下它的浮點運算能力,每一代的產品,它的浮點運算能力,幾乎8年內增加了1000倍,摩爾定律,如果是經過8年的話,頂多我們算一下吧,大概40倍頂多,對不對,40倍60倍,可是在過去這8年當中,摩爾定律它的速度已經變慢了,所以我們來做個比較,即便是在摩爾定律的巔峰時期,拿來跟Blackwell做一個比較,其實Blackwell我們看到這個GPU的運算能力,它進步的速度真的太快了,而且它的成本會不斷的下降,因此它的運算能力不斷的提高,這也代表我們用來訓練GPT-4系統,也就是它有兩兆個參數,有8兆個次元的這樣的一個系統,我們所要消耗的電力,大概就是原來的1/350而已,Pascal過去可能要,滑1000度,換句話說,我們現在還沒有一個Gigawatt的資料中心,你如果是有這樣的資料中心,你要花一個,你如果是100個Megawatt,你要花一整年的時間,來處理這麼多的資料,當然我們不可能去蓋這樣的一個資料中心,這就是為什麼大型語言模型過去,8年之前都還是不可能的,可是因為它的效能提升了,能源效率提升了,它的成本下降了,因此我們有了Blackwell之後,過去要100個,1000個Gigawatt,也就是如果是Gigawatt的資料中心,過去要花1000年,現在只需要3年,譬如說如果有1萬個GPU的話,大概只需要幾天就可以完成了,大概10天就可以完成同樣的資料處理的數量,所以這過去8年的進步的速度,真的是非常的驚人。
11. 次元的生成
我們現在講的是推論,講的是次元的生成,因為這個效能越來越大,所以我們消耗的電力只有過去的1/45,過去Pascal每個次元大概要4萬5千個Joule,大概就是兩個電燈泡持續電兩天的時間,才有辦法去產生一個GPT-4所需要的次元,你一個字大概需要三個次元來組成,換句話說,過去Pascal要產生GPT-4,要有Chet-GPT這樣的系統出現,幾乎是不可能的事情,可是我們只需要用0.4Joule,就可以產生一個次元,而且次元生成的速度非常的快,它消耗的能源非常的低,Blackwell真的是一個大躍進,即便如此還是不夠,我們必須要打造更大型的機器,這就是我們所謂的DGX,這是我們的Blackwell的晶片,把它放到DGX系統當中,這就是為什麼我們要一再的演練才行,這就是DGX Blackwell,是氣冷式的,裡頭有八個這樣的GPU。
12. 散熱系統
你們有沒有看到,這裡頭我們的散熱系統,大概是15000瓦,它是氣冷式的,它可以支援X86,而且可以跟我們的Hopper結合在一起,不過假如你要一冷式的系統的話,我們現在也有這個新的產品,這個新的產品,就是用這樣的一個板子,我們把它叫做MGX,叫做模組化的一個系統,這就是我們的MGX系統,裡頭有兩個Blackwell的板子,那每一個板子有四個Blackwell的晶片,這個是一冷式的系統,九個加在一起,這裡有九個 這裡有九個,總共72個GPU,把它們用NVLink,新的NVLink連接在一起,這是我們NVLink的交換器,是我們第五代的NVLink的產品,NVLink的交換器,可以說是科技上的一種奇蹟,它的資料傳輸速率,真的是太扯了,我們如果把這個Blackwell,所有的晶片串聯在一起的話,就可以有一個72個GPU的Blackwell系統,這樣做有什麼樣的好處呢,你在每一個GPU的領域當中,看起來就像一個GPU,實際上它有72個,上一代的版本只有8個,所以是過去的9倍,而它的頻寬是過去的18倍,而它的浮點運算能力是過去的45倍,可是它所消耗的電力只有過去的10倍,這是一個100個KW,之前是10個KW,當然你可以把更多的晶片串聯在一起,這個晶片這個NVLink的晶片,為什麼說它是一個科技上的奇蹟呢,因為這NVLink,把所有的晶片串聯在一起,大型語言模型不能夠只有一個節點,不能夠只有一個GPU,我們必須要把整個機架裡頭,所有的GPU全部都連接在一起,這樣子我們才能夠有一個,可以處理10兆個參數以上的,大型語言模型,它有500億個電晶體,而且它每一個有72個Port,它有4個NVLink,它每一秒鐘的速度是1.8個TB,裡頭有這個交換器,這個交換器可以幫我們,協助深度學習系統,來進行資料的彙整跟縮減,這個就是我們現在的DGX。
13. NVIDIA到底是做什麼
很多人都在問我們說,他們說,好像大家搞不太清楚,NVIDIA到底是做什麼的,大家心裡面有個疑問,為什麼NVIDIA就單單憑GPU,規模就能夠變得這麼大,這個就是GPU看起來,就像這個樣子,這可以說是世界上最先進的GPU,不過是打電玩用的GPU,可是我們都知道,我旁邊的這個也是個GPU,各位女士各位先生,這就是我們的DGX GPU,跟過去已經截然不同了,這個GPU的後面,就是NV LINK所組成的一個背板,這個背板當中有5000條線,加起來有兩英里這麼長,就在這邊,這個呢,這就是我們所謂的NV LINK的背板,可以連接72個GPU,把72個GPU連接在一起,這可以說是在電機學上面的一種奇蹟,因為它有transceiver,它裡頭呢,透過銅線,讓這個NV LINK的交換器,透過這個背板當中的銅線,讓我們一個機架,可以節省20個KW,我們可以把節省下的20KW,用來進行資料處理,這就是NV LINK的背板,哇,要稍微運動一下,其實這樣還不算大耶,因為我們要打造AI工廠,所以我們必須要有更高速的網路技術,我們有Infiniband,我們有兩種,第一種是Infiniband,用在AI工廠,用在超級電腦當中,而且它成長速度非常的快,可是並不是每個資料中心都可以用Infiniband,因為他們以前已經採用了乙太網路了。
14. Infiniband的功能
實際上你要管理Infiniband,是需要一些特別的技術,因此我們就把Infiniband,它有的一些功能,把它擺到乙太網路架構當中,這其實非常的困難,為什麼呢,道理非常的簡單,乙太網路當初設計的時候,它是針對平均傳輸量比較高的系統,每一個電腦,每一個節點,都是連接到一個不同的人,而大部分是資料中心,跟另外一端的人在進行溝通,可是AI工廠當中的深度學習系統,GPU並不是跟人來做溝通,GPU是他們彼此之間在做溝通,為什麼呢,因為他們在收集一些資料,也就是把這個產品的部分的資料收集起來,然後進行縮減,然後再重新的來進行分配,所以重點不是平均的傳輸量,而是說最後一個接收到資訊的那個GPU,因為你是從每一個人那邊,去收集一些資料,譬如說,我把每一個人都在做的東西呢,這邊拿一點那邊拿一點,然後看誰的速度最慢,這個系統的速度就決定,是哪一個人給我資料的時候速度最慢,那個人就決定了這樣的一個速度,過去以太網路是辦不到的,所以我們必須要有端到端的架構,而且這當中有四個不同的技術,NVIDIA有世界上最先進的MDNA,RDMA對不起RDMA,這個是專門針對以太網路所做設計。
15. 永塞控制系統
除此之外我們還有永塞控制系統,這個交換器,他很快的在處理這些參數的數值,因此每次假如有任何的GPU送出太多的資料,我們就叫他慢一點,這樣子才不會產生瓶頸,第三個就是調適性的路由器,以太網路必須要傳送跟接收資料的時候,必須要按順序來,假如我們看到有任何地方,有任何的port沒有使用,或者是有塞車情形,我們就把這個資訊送到沒有永塞port,這樣子我們就可以把工作的順序,重新安排好,還有一個很重要的雜訊的隔離,因為我們在訓練的模組不止一個,所以資料中心裡頭一定都會有一些雜訊,一旦進入我們的工作流程當中,就會產生很多的雜音,這樣子就會影響資料傳遞的速度,就會使訓練的速度變慢,我們已經打造了一個50億,或者是30億美金造價的資料中心來做訓練,假如它的利用率,網路的利用率,下降了40%,那你所需要訓練時間就必須要增加20%,51億的資料中心,現在就突然變成像60億的資料中心,為什麼因為它的成本增加了,所以原本你只花了50億,實際上感覺就像60億美金一樣,所以我們的系統就可以去改善這些問題,這個是一個了不起的成就。
16. Spectrum X800
我們現在有很多儀態網路的產品會陸續的推出,這個是Spectrum X800,它有我們有所謂的RAIDX,這個RAIDX以前是256,現在明年會有512,這個當中,最重要的是X800,它是針對,幾千個GPU所設計的,那我們下一代的產品,它可以使用幾十萬個GPU,然後再下來,它可以使用幾百萬個GPU,我們當然希望能夠訓練比較大型的模型,不過在未來,我們在跟網路或者跟電腦進行互動的時候,裡頭應該在雲端系統裡頭,都會有生成式的AI系統在裡面,它在跟你進行互動,在不斷的生成圖片、影片、文字,甚至有一個數位人在裡面,所以你幾乎不斷的在跟電腦,具有生成式A功能的電腦進行互動,有些時候是在你的裝置當中,有些是在雲端系統裡面,而且這個生成式的AI,它可以幫你做推論,它可以幫你做推理,所以它會不斷的進行思考之後,再把最好的答案告訴你,所以以後我們透過這樣的系統,可以辦到的事情,是我們現在難以想像的。
17. Hopper平台
我相信在台北電腦展之前從未有人進行過這樣的演講,或許這也將是最後一次。這樣的專題演講只有NVIDIA能做得到,只有我能做得到。
Blackwell當然是第一代的NVIDIA平台,這個平台是我們在AI時代開始時推出的。當時我們才剛開始了解到AI工廠的重要性,這個新的產業革命的開端。我們有許多夥伴,無論是OEM、電腦製造商、CSP、GPU甚至是電信公司等各式各樣的企業,他們都站在我們的背後。對於Blackwell的支持程度,我真的感激得無以名狀,但是我們也不停止腳步。在這個成長的期間,我們希望能持續地強化效能、降低成本,包括訓練和推論的成本,並持續地擴充AI的能力,讓所有的公司都能擁有AI。
Hopper平台當然是最成功的資料中心處理器,這應該是史上最成功的一個案例。但現在有了Blackwell,我們每一個平台都可以看到,你有CPU、GPU、NVLink、NIC,還有交換器。而這個NVLink Switch可以把所有的GPU連結在一起,形成一個最大的領域。透過這個,我們可以使用非常高速的交換器,但其實它是一整個平台。我們打造了整個平台,並將它整合成一個AI工廠的超級電腦,然後再分散到全世界各地讓大家使用。
為什麼要這樣做呢?因為在座的各位都有能力去創造非常有趣、非常有創意的設置和配置,並能以不同的風格滿足不同的資料中心和顧客需求。我們讓它具有彈性,讓大家能夠以最具創意的方式進行構建。現在我們推出了Blackwell的平台,而明年將會是Blackwell Ultra。我們之前有H100、H200,而下一代就是Blackwell Ultra,一樣會將性能推向極限。而下一代的Spectrum Switch也將會是我們第一次給大家看的,我不知道我是否會後悔。
我們公司裡頭有各式各樣的開發代碼,我們盡量的保密,有的時候大部分的員工,甚至都不曉得這些開發碼是什麼,但是我們下一個平台叫做Rubin,Rubin的這個平台,我不會花太多時間講,因為我知道會發生什麼事情,大家一定會拍照,然後會去想辦法去看,它裡頭的這個細節,沒關係,那這個Rubin的平台,一年之後我們會有Rubin Ultra的平台,那麼這些給大家看的晶片,都已經在開發當中了,百分之百都在開發當中了。
而這個一年推出一次的節奏,基本上就是跟我們的架構,是相容的,那所以上面當然也會有,很多的這個軟體,那過去這12年,從我們ImageNet開始,然後我們了解到說,這個運算的未來,會有大幅的改變的時候,其實就像我剛才給大家看的G-Force,它在2012年之前,跟現在的這個NVIDIA有什麼差別,其實我們整個公司,已經有很大的轉型,我當然要非常感謝我們所有的夥伴,在這一路上的支持,這個就是NVIDIA的Blackwell平台。
18. 未來的發展
我接下來要講我們未來的發展,我想新一波的AI,就是所謂的符合物理定律的AI,這個AI理解物理定律,AI它可以在我們的生活周遭協助我們,因此AI必須要了解整個世界,讓他們可以知道,怎麼樣子去感知這個世界,當然這個AI也有非常好的認知能力,讓他們了解我們,讓AI能夠了解我們,到底在問什麼樣子的問題,幫我們做什麼樣子的事情,未來機器人會是越來越普遍的一個概念,我所謂的機器人,包括了人型機器人,人型機器人通常就是大家想到,機器人的時候,出現的這個想像,但是不僅是人型機器人,未來工廠裡頭會有很多的機器人,那麼這些機器人,它會製造各式各樣的機器。
換句話說,這個機器它互相互動,會有互動,然後它可以去製造機器人,等一下給大家看這個影片,機器人的時代到了,有一天,所有動物都會變得自由,研究者和世界各地的公司,正在研發機器人,由物理智能發揮的機器人,物理智能是能夠理解指令的模型,並且能夠自由地進行,在現實世界中複雜的工作。
多元化的物理智能是能夠讓機器人學習,理解世界各地的情況,並計劃他們的行為,從人類的示範中,機器人可以學習,需要和世界互動的技巧,利用粗糙的機械技術,一種進步機器人的基本技術,就是強化學習,就像LM需要RLHF,人類回應學習強化學習,學習一些技巧,物理智能人類可以學習強化學習,物理回應學習,在模擬世界中,這些模擬環境,是讓機器人學習作出決定,通過在實際世界中進行行動,遵守物理法律,在這些機器人健身房,機器人可以學習,做出複雜和動作的工作,安全和快速,通過數百萬次試驗和失敗,來精準化他們的技巧,我們將NVIDIA Omniverse,作為機器人的運作系統,讓物理智能人類可以創造Omniverse是一個開發平台,讓人類實現實時的物理基礎的運作,物理模擬,以及智能智能技術,在Omniverse中機器人可以學習變身,學習自動操縱物件,以精準的方式,例如抓住和控制物件,或自動探索環境,尋找最佳路徑,避免障礙和危險,在Omniverse中學習,減少模擬實際空間,以減少學習行為的轉移,製造機器人,使用智能智能人類,需要三台電腦NVIDIA AI超級電腦,來訓練模型,NVIDIA Jetson Oren,以及下一代的Jetson Thor超級電腦,來運作模型。
在Omniverse中,機器人可以學習和精準化他們的技巧,在模擬世界中,我們建立了平台,快速圖書館以及AI模型,需要開發商和企業,讓他們可以使用任何或所有適合他們的模型,AI的下一個波段就在這裡,機器人,由物理智能人類,來發展發展產業,這個不是未來,這個是現在就在發生的事情。
19. 未來服務市場的方式
我們未來服務市場的方式有很多種,第一個是針對不同的機器人系統來打造平台,第一個是像是機器人的工廠,或者是倉庫,另外一個則是,我們在機器人的工廠,來打造平台,我們在機器人的工廠來打造平台,我們在機器人的工廠或者是倉庫,另外一個則是能夠操作東西的機器人,再來是移動的機器人,第四個則是人型機器人,所以每一個不同的機器人平台,跟我們過去做的一樣,就是會有一個電腦有加速的函式庫,還有預先訓練的模型,然後我們會去測試一切,訓練一切,把它整合在Omniverse裡頭,Omniverse就如同影片裡頭所說的,就是機器人學習怎麼成為機器人。
那麼當然整個生態系,就是機器人的倉庫的生態系,非常的複雜,因為它需要很多的公司,很多的工具,很多的技術,才能夠讓我們打造一個現代的倉庫,那麼這個未來,它機器人當然會越來越能夠自主,那麼在這些不同的生態體系裡頭,會有SDK也會有API,它把它連結到各式各樣的軟體,還有是連結到邊緣AI的產業,那麼有一些公司,他們則是去設計PLC,這個是為了Odeon,然後會有整合商,把它整合在一起,來打造顧客所需要的倉儲,舉例來說KenMech,他們就廣運在,為巨大集團打造一個工廠。
20. 未來工廠
然後這邊我們來談,接下來談一談工廠,未來工廠會是完全不一樣的生態系,那麼現在鴻海在打造,世界上最先進的工廠,包括了邊緣運算機器人,還有設計工廠的軟體,各式各樣的工作流程,還有PLC電腦,還有機器人的編程,這些全部都會把它整合在一起,這些SDK都會跟這些生態系,連結在一起,這個全部都在台灣發生,鴻海正在打造,他們工廠的數位孿生模型,台達電也在打造,自己數位工廠的數位孿生模型有一半是數位的,一半是真實的,那麼和碩他們也在打造,他們的機器人工廠,緯創也在打造,他們的數位孿生模型,然後這邊真的很酷,這個影像是鴻海新的工廠。
21. 數位孿生模型
NVIDIA的數位孿生模型,正在全球發展,世界正在進行全球化,傳統數位進入AI產業中,FOXCONN世界上最大的電子產業廠商,正在應對這個需求,建立機械工廠,與NVIDIA Omniverse和AI工廠計劃員使用Omniverse,來結合設施和裝置資料,從領導業的應用,例如Siemens Team Center X,和AutoDesk Revit,在數位孿生模型中,他們將地面設計和線條設計最佳,並在設置最佳攝像位置,以監察未來的運作,使用NVIDIA Metropolis,支援的視覺AI,數位孿生模型,能夠省下計劃員,在大量的物理改變項目中,付出的費用,在建造過程中,FOXCONN的團隊使用數位孿生模型,作為真相的源頭,以傳達和核實準確的裝置設計,數位孿生模型,也就是機械工廠,在這裡FOXCONN的開發者訓練和測試,NVIDIA Isaac AI應用,對於機械理解和操縱,以及Metropolis AI應用,對於感應融合。
在Omniverse中,FOXCONN在運行運作前先測試兩台機械人,並在機械工廠上,在組裝線上,他們測試Isaac操縱系統,和AI模型,以自動的視覺檢查,避免物理認證,失敗探測,以及旅程計劃,以HGX系統轉移到測試機,他們測試Isaac,以Perceptor能力的Ferrobot AMR,以3D地圖和重建,來觀察和運行環境,在Omniverse中,FOXCONN建造了機械工廠,運行NVIDIA Isaac運行的機械人,來建造NVIDIA AI超級電腦,並且訓練了FOXCONN的機械人,機械人工廠,機器人工廠,其實就是具備AI功能的電腦,來協助訓練,因為需要有人進行,工廠裡頭各種作業項目的協調,機械手臂,機械移動,自動,自主性移動的機器人,其實也一樣的道理,他們會在同樣的虛擬空間當中,而這個機械手臂,就會被擺到機器人工廠裡面。
22. 三個不同的電腦
這裡有三個不同的電腦,包括了加速運算,還有訓練的模組,這當中我們剛才已經聽到了,在Omniverse裡頭,我們有操作系統,有感知系統,這真的是一個很棒的計劃,我們也跟我們的夥伴共同合作,Semantic AI,它整合了ISAC Manipulator,還有ABB, Cougar, Yasakawa, Phenom,Universal Robotics,還有Tipman,這些都是我們的合作夥伴,而西門子,也幫我們做了系統的整合,我們一起來看一下系統整合的結果,ISAC Perceptor,為人類動物系統的,人類動物認識和人類動物遙控,提供了更多的技術,BYD Electronics,正在將ISAC Manipulator和Perceptor,融合到AI機械人工,以提升全球客戶的製造效率,Idealworks正在將ISAC Perceptor,融合到AI機械人工,工廠設備的IWOS軟件,Intrinsic,一家文字公司,正在將ISAC Manipulator,融合到他們的流動體系平台,以提升人工認識。
Gideon正在將ISAC Perceptor,融合到AI機械人工,以提升AI機械人工的設備,Argo Robotics正在將ISAC Perceptor,融合到前瞻基礎AMR的,Perception Engine,Solomon正在使用,ISAC Manipulator AI模型,在他們的Acupic 3D軟件,進行工業操作,Techman Robot正在將ISAC Sim,和Manipulator融合到TM Flow,以提升自動化的,視覺檢查,Teradyne Robotics正在融合,ISAC Manipulator,融合到Cobots的Polyscope X,以及Mir AMR的ISAC Perceptor,Vention正在融合,ISAC Manipulator,融合到AI機械人工,融合到機械理論,機械人工正在到來,所以我們現在有機器人,有物理AI,這不是科幻小說。
23. 台灣很多的工程、工廠都已經在使用這些系統
其實台灣很多的工程,很多的工廠,都已經在使用這些系統了,所以工廠裡頭,會有很多的機器人,有兩種機器人,它的市場是非常大的,第一種是自駕車,自駕車它有很高的自主性,NVIDIA我們有,完整系列的產品,明年,Mercedes會使用我們的系統,2026年,還有另外一家汽車公司,也會使用我們的系統,不論我們開發的是,哪一個層級的產品,我們都會把它做到最好,而接下來最大的機器人的市場,是跟製造業有關,因為在製造業的工廠當中,有很多的機器人,大部分都是人形機器人。
其實近年來,在這方面已經有了長足的進步,他們因為有了基礎模型,所以有更好的感知能力,而且我們也不斷地在開發,具備更好感知能力的,機器人的系統,其實人形機器人,是最使用起來,最簡便的一種機器人,我們可以有大量資料,來訓練這些機器人,因為他們的外形,是跟我們一樣的,我們以後,這樣的人形機器人,他們會有非常好的感知,跟操作的能力,我想接下來,我們要歡迎一些機器人進場了,好,大概跟我差不多高,其實都是電腦,其實他們裡頭用到的科技,跟我們現在台灣所生產的這些電腦產品,所使用的科技非常的類似,我們非常期待未來,屬於人工智慧的時代,屬於機器人的時代。










Financial Times
sdotSonpre7fh4879tim小76cfff015661時3 2ig05tf84432fm28hlc888ll ·

Just published: front page of the Financial Times, UK edition, June 3 https://on.ft.com/3VqmYDx













輝達創辦人黃仁勳6/2在台灣大學體育館演講

背板上的輝達全球供應鏈公司名單會嚇死小粉紅

台灣公司:

研揚科技、日月光、Footprint-AI、HomeeAI、立端科技(Lanner)、宇見智能科技(MetAI)、同德(Palit)、偲捷科技(SPINGENCE)、宏碁、華擎科技、仁寶、Fortune AI、麗臺、神達、凌華、華碩、訊凱國際、鴻海、敦新科技、樂達科技、微星、研華、中光電、鴻佰科技、律果科技、和碩、StarFab、台智雲、聯電、澄風科技(STREAMTECK) 、欣興、美超微、杰倫智能(PROFET AI)、滿拓科技(DeepMentor)、圓剛、安提國際、艾訊、神瑞人工智慧(DeepRad AI)、英研智能、城智科技(AIRA)、台達電、巨大集團、鑫蘊林科(Linker Vision)、宸曜、超恩(VECOW)、雲達、廣達、達明機器人、緯創、德律、緯穎、聰泰、曜越、所羅門、新漢、光寶科、英業達、技嘉、勤誠、安宏生醫、亞太智能科技、集仕多、益登、集雅科技、迎廣、廣運、趨勢科技、台積電、矽品、醫揚、聯發科、京元電、弘憶股、慧友。

國際公司:

Manli(萬利達)、BigGO、七彩虹(colorful)、映眾多媒體、ZOTAC(索泰)。

大學:

中原大學、輔仁大學、義守大學、國立中央大學、國立成功大學、國立台灣大學、國立中山大學、國立台灣師範大學、國立台灣科技大學、國立清華大學、實踐大學、南台科技大學、淡江大學、國立陽明交通大學、東海大學、元智大學 。




More News


A Pacific Island With Ties to Taiwan Was Hacked. Was It Political?

Palau’s claims that China orchestrated the attack remain unproven. But it’s clear that the breach presents a danger for another ally of Palau: the U.S.

5 MIN READ


Wildfire Near San Francisco Burns About 14,000 Acres

The Corral Fire blaze was 30 percent contained by Sunday afternoon. It was the largest so far in this year’s California wildfire season.

2 MIN READ

沒有留言: