十二種語言選擇
發佈訊息
我的好友文章網誌
小提醒:
<<
>>
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
吳白露_將腦海旋律化為不朽傳奇~我們是最後一代 Yi-Jing Lin 林宜敬
2023-02-28 12:21:11
【我們是最後一代】
Yi-Jing Lin 林宜敬     
〔1987年畢業於台大資訊工程系,1995年取得美國布朗大學電腦科學博士學位。曾任台大棒球隊三壘手、美國IBM華生研究中心博士後研究員、趨勢科技新產品研發部協理。2002年創辦艾爾科技(MyET),目前擔任該公司執行長。〕
林宜敬是我一位長輩及已故女作家嶺月的兒子,他的表姊是趨勢教育基金會董事長暨執行長陳怡蓁。
一、
如果三年前有人跟我說,人工智慧將會變得比人類還聰明,那我一定會認為他在胡說。
 
但是隨著ChatGPT、MidJourney、DALL•E等大型類神經網路(Neural Net)的高速發展,現在我也開始擔心了。
 
也許幾年內人工智慧就會變得比人類還聰明,而我們將會是「最後一代」。
 
二、
類神經網路的運作方式,跟以前傳統的電腦程式很不一樣。
 
傳統的程式,靠的是加減乘除以及邏輯運算,一切都是程式設計師「設計」出來的,所以對於傳統程式的運作原理,程式設計師們自己當然是一清二楚。
 
但類神經網路是模仿人類大腦而建造的,他的能力是「訓練」出來的,而不是「設計」出來的。
 
所以就像身為老師的人,往往搞不懂自己的學生是怎麼想的一樣,身為類神經網路訓練者的工程師們,往往也搞不懂自己做出來的類神經網路究竟是怎麼運作的。
 
三、
人腦的思考能力,來自於一些透過突觸(Synapses)互相連結的腦神經元細胞(Neurons);
 
而人工智慧類神經網路的思考能力,也是來自於一些透過參數(Parameters)互相連結的人造類神經元。
 
人類在學習的時候,腦神經元的突觸連結方式會發生改變;而人造的類神經網路在學習的時候,參數的數值也會發生改變。
 
動物的腦,突觸的數量越大,思考學習能力越強;而同樣的,類神經網路的參數越多,思考學習的能力也越強。
 
四、
早期的類神經網路所包含的類神經元數目,了不起也不過是幾萬個,恐怕比一隻蟑螂的腦神經元數量都還要少。
 
所以早期的類神經網路都只能專注於某種特殊功能,像是下圍棋、幫照片著色、或是將語音轉換成文字等等。
 
五、
但是近幾年,許多大型的科技公司野心變大了,開始去訓練一些稱作 Foundation Models 的超大型類神經網路。
 
像是 ChatGPT 以及 DALL•E 背後的 GPT-3,就是一個擁有1750億個參數的超大型的類神經網路 。
 
而科學家們估計,人腦大約有100兆個突觸。GPT-3 的 1750億個參數跟人腦的100兆個突觸相比,只有五百分之一左右,所以GPT-3的思考記憶能力,終究還是比不上人腦。
 
六、
但是GPT-3所受的訓練跟人腦所受的訓練一樣,已經是多方面的。
 
它閱讀過無數關於天文、地理、歷史、物理、化學、音樂、以及程式設計的網路文章,
 
所以它就像一個精通數十種語言,同時還上過天文、地理、歷史、物理、化學、音樂、程式設計等各種課程的傢伙一樣,什麼都能聊。
 
七、
科學家們訓練 GPT-3 的方式,是讓GPT-3大量閱讀各種從網路上蒐集來的文章,然後叫 GPT-3 寫短文給真人老師批改。
 
然後科學家們為了省事,又去設計訓練出一個「人工智慧家教」(Reward Model),用他來替代真人,專門幫 GPT-3 批改作業,進行訓練。
 
八、
而 GPT-3是個好學生,他不會死讀書,他會消化吸收,他會把它學到的知識內化(Internalize),轉化成類神經元上面的參數數值。
 
ChatGPT 很老實,當我們問 ChatGPT 問題的時候,它並不會臨時抱佛腳,偷偷上網去找資料,它也不會偷看小抄,把預先寫好的答案整段背給我們聽。
 
ChatGPT 的回答真的都是「GPT-3 自己想的」,「GPT-3 自己記得的」。
 
所以每當有些人埋怨,說ChatGPT 的回答往往不盡正確,我都會覺得他們是苛求了。
 
因為 GPT-3 的年紀還不到一歲,他已經算是個博聞強記的天才兒童了。一般人絕對記不得那麼多的事情。
 
九、
而更厲害的是,像 GPT-3 這樣的類神經網路之所以被稱為 “Foundation Models” (基礎模型),
 
就是因為創造它們科學家們,把它們類比為受過基礎語文訓練及通識教育的「通才」。
 
只要我們把 GPT-3 複製一份,然後對它進行密集的天文學訓練,那它就會變成一個天文學家;
 
只要我們再把 GPT-3 複製一份,然後再對它進行密集的經濟學訓練,那它就會變成一個經濟學家;
 
只要我們再把 GPT-3 複製一份,然後再對它進行密集的物理學訓練,那它就會變成一個物理學家。
 
十、
如果這還不夠讓你覺得驚恐的話,那科技界盛傳,繼GPT-3之後,下一代的 GPT-4 馬上就會在今年推出了。
 
據說 GPT-4 的參數數量會是 GPT-3 的 500 倍,也就是100兆個,跟人腦的突觸數量相當。
 
很顯然的,GPT-4 的設計者就是要做出一個跟人腦腦容量相當的人工腦,一個名副其實的「電腦」。
 
然後GPT-4絕對不會是人工智慧研究的終點站,接下來很可能會有人腦 500 倍容量的 GPT-5、人腦 25 萬倍容量的 GPT-6。
 
十一、
所以順利的話,一年之後,研究所的學生都不用再自己寫論文了,因為論文可以交給 GPT-4 寫,而且寫的絕對比大部分的研究生都好;
 
同樣的,大學的教授們也不用再浪費時間上課、指導論文了,因為反正學生的作業跟論文都是 GPT-4 寫的,
 
教授們不如把 GPT-4 複製一份,直接去教 GPT-4 做研究、寫論文;
 
然後教授們訓練出來的 GPT-4、GPT-5、GPT-6會越來越厲害,厲害到他們青出於藍,總有一天會比當初訓練出他們的教授們還厲害,
 
可以自己做研究、自己訓練下一代的 GPT-7 、而且去跟 Google、百度訓練出來的類神經網路進行學術討論了。
 
十二、
所以我們很可能是最後一代。
 
我們可能是最後一代的真人研究生、最後一代的真人指導教授、最後一代的真人學者。
 
至於人類接下來會怎麼樣?很抱歉,請不要問我,因為一年之後,我的臉書應該都是由 GPT-4 或是 GPT-5 代寫,
 
而且它們會是經過我特殊訓練過,寫作風格跟我完全一樣的類神經網路寫手。
 
而當然,各位也不用自己留言提問了。因為到時候,各位自己訓練出來的類神經網路網友們也會自動留言提問,自動幫我的臉書文章按讚。
我們是最後一代的真人臉友。
 
1995 是我  吳白露。吳建中 特別的一年。很巧合。姐弟同年同月台中文化中心。1995吳白露油畫首次個展 。吳建中現代雕塑 台灣美術舘個展。  
 
媽媽 洪玉雪老師 看了展說的藝評,很經典:我須要回家煮排骨稀飯。
 
我們的媽媽。當母親的太了不起的。我喜愛看您母親和您逗她開心的短片。
 
 
我很得安慰
我們都能open mind
吳白露
 
 
22:05 吳白露Artist 
吳白露的藝術世界 
What is 當代?
吳白露 於2023-02-28 12:21:11發表 | | 最新回應 (0) | 上一篇 | 下一篇 |
目前尚無回應資料 !
留言內容:(必填)
  • 今日人氣:〈1〉人
  • 累積人氣:〈284〉人
  • 最近登入時間: 2024-03-07 09:04:35