【新唐人北京時間2023年03月31日訊】 大家好,歡迎收看週五(3月31日)的《新聞大家談》,我是扶搖(主持人)。
今日焦點:抓住一點,善用人工智能AI!ChatGPT-4有驚人飛躍,卻不可避免撒謊成性;百度「文心一言」成「智障」,中國科技發展現最大瓶頸!
距離人工智能科技公司OpenAI發布ChatGPT,只過去了四個月的時間,但毫不誇張地說,它已經改變了世界。
短短15週內,ChatGPT吸引了來自各領域的數百萬用戶,不但擾亂了教育系統,還引發了對全球就業市場「末日般的」預測。
就在人們努力消化這一切時,幾個月後, ChatGPT和我們揮手告別了,它的第四次迭代ChatGPT-4,在全世界掀起更大波瀾。
那麼, GPT-4與GPT相比,有哪些突破?它能做些什麼、功能多強大?人工智能對人類來說是福還是禍?
另外,中國也在力推百度的人工智能聊天機器人產品「文心一言」,但測試結果卻被一些人嘲笑是「人工智障」。什麼限制了它的發展呢?
本期節目,我們請來時事評論員傑森博士,和大家探討這些話題。
【從ChatGPT到ChatGPT-4的飛躍】
扶搖:傑森博士您好,我知道您是電子和計算機工程博士,博士論文研究的就是機器學習,所以聊人工智能(AI)的話題,算是聊回您的本行了。最近一段時間,人工智能非常火,我也知道您很關注這個領域。
傑森:你要是說最近這一波火起來,那我說它實際上就是從去年11月份ChatGPT冒出來以後,最近這個火勁是從那邊來的。
你要是更宏觀地說,這一段AI是什麼時候火起來的?我是說,從十幾年前「深度學習」(deep learning)開始以後。
AI這個概念是個很老的概念,50年代就已經出現這樣的概念了,當時的話,其實跟現在這個差別很大,只是十多年前以後有這個「深度學習」以後,整個AI就跟「深度學習」這個概念幾乎是一致了。「深度學習」其實就是人工神經元網絡做這種學習。
扶搖:哦。現在有關ChatGPT和ChatGPT-4的討論遍布網絡,您能不能給我們通俗地科普一下這兩個模型,以及ChatGPT-4有哪些突破。
傑森:這個ChatGPT這個技術,事實上萌芽在2017年,是基於一個叫做transformer的網絡結構。從一個很簡單的概念逐漸逐漸地演變到了,越來越大的這種大型網絡神經元,大到它的那個網絡結構已經跟人腦內部的神經數量是一個數量級的。
你比如說,ChatGPT是基於一個人工智能模型,這個人工智能模型叫做GPT-3.5。GPT-3.5它本身大概有1750億個參數,而人腦的話大概有1000億個神經細胞。雖然不是神經細胞等同於這個模型的參數,但是你可以至少知道,這個模型的複雜度其實已經和人腦的複雜度差不多了,就是大概在一個數量級上的一個概念。
那麼在這樣的情況下,就出現了一個概念,就是說實際上這個模型本身它已經是趨近於人腦的複雜度,而它做出來的很多事情,大家也都感覺到和人的智力有點趨近了。
那麼最近,有GPT-4,實際上就是另外一個模型了,它的底層那個智慧,就把大腦換了一個。這個大腦換成了從GPT-3.5這個大腦變成了GPT-4這個大腦。
你這時候你會發現,同樣去聊天的時候,發現這個大腦、這個人聰明的程度已經從GPT-3.5,當時比如說像高中生那樣的智力水平,一下子換成了一個大學生、研究生的智力水平,就又是一級飛躍。
從技術上來說,GPT-4它參數的複雜度是GPT-3.5的大概650倍。GPT-3.5 剛才我說了,它大概有1750億個參數,而這個(GPT-4)的話它大概估計有100萬億個參數。就是它的複雜程度,兩、三個數量級的區別。當然了,這是一方面,這是技術層面的。
但是,要是從功能角度來說,很明顯,它的邏輯推理能力、計算能力、對數學的認知能力比以前要高很多。而且它不光能識別語言,它還能識別圖像,你給它輸入一個圖像,它可以基於你的圖像開始跟你討論、聊天。
【不可避免的事實:AI聊天系統「撒謊成性」 】
扶搖:哦。之前ChatGPT出來,它的功能已經顛覆很多人的想像了,但它也有被詬病的地方,比如給的信息有時候是錯的,但還說得頭頭是道,不知事實的人就被誤導了;再比如做錯數學題。那這次GPT-4出來,這方面有改進嗎?
傑森:GDP 3.5 、GPT-4它的語言模型的機理是一樣的。我在我的一期個人頻道節目中專門解釋了,只要你用這樣的一個機理、這樣的一個模型,我們開玩笑叫做「撒謊」,或者說是編造事實這樣的事情,它是永遠會出現的。
因為對於它來說,它腦子沒有事實這個概念,它不像是傳統的網絡、或者是你去網絡上的一個數據庫去搜索,它從數據庫裡頭拿出來一個信息,只要數據庫的知識是真實的,那拿出來的就是真實的。它不是,它就有點像人腦這個概念,它雖然學了數以百億,或者數以萬億這個量的信息,但是它並不是把這些信息在人工智能模型裡頭,按數據庫一樣一條一條地存下來,它不是,它像人腦一樣。
你知道你學了很多知識,你不能在你的大腦中任何一個地方找到你學的某一個知識。你的知識融到了你大腦的整個系統結構裡頭。它的概念也是這樣,它學的過程中,它的每個參數的變化,最後把這個數以百億、數以萬億的這種信息存進去。
但是等它往出取的時候,它事實上是在生成很多信息,生成新的語言。這個語言是所有學的東西的融會貫通,但是這個過程中,它也可以造出以前沒有的東西。這就是為什麼你讓它編故事它就給你編故事,你讓它講故事就給你講故事。
但是你逼著它說一些事情,它也可以給你編一些歷史事實。你比如說,我當時問它說,你給我找五個小國戰勝大國這樣的戰爭案例,它就開始跟我亂說一氣。這個對它來說,它都是從它整個這個系統裡頭生成出一個事情來,它只保證它的語言是通順的,整個符合你問的這樣一個概念。但是,是不是事實這一點,它幾乎沒有辦法完全佐證。
這個是這個領域基本上沒法解決的,不管是GPT-3.5還是GPT-4,它都有這樣的問題,只是它通過後期的再訓練,它有個後期二次訓練,可以讓它撒謊的量少一點。你比如說GPT-3.5它可能40%的情況撒謊,它這個時候(二次訓練後)的話,它可以說30%的情況撒謊,它訓練半天。但是它不可能這種情況不撒謊,這就是它整個這個屬性造成的。
同樣的概念,我們知道就像谷歌,它的系統是基於有一個人工智能模型叫PaLM,它最後做出來的那個聊天的問答系統叫Bard,它也撒謊,它也在偽造一些具體的事實。
所以整個來說,撒謊這個概念是不可能完全解決的,它只能是減少。
當然了,你剛才說了,就說它的數學也不是有意做錯,數學本身對於這樣的數學模型就難。語言的話,它實際上是一個一層邏輯推理關係。就比如說我腦子有個想法,我直接就這種想法說出來。數學它是有一個多層邏輯推理關係。你比如說你要解一個數學題,你要一步一步、每一步都要牽扯很多的邏輯,然後推理、推演很多步。推演很多步、邏輯推理很多步,對於這樣的模型難度稍微高一些。
所以,這是為什麼數學一直是它比較難解的一個問題。而這個GPT-4通過它特殊的訓練,通過大量、更複雜的網絡和各方面,它能學的邏輯步數更多一些。比如說,原來比GPT-3.5它能邏輯正確推理兩三步,現在可以推理比如說四五步、五六步,那麼以前解決不了的數學問題,現在就變的可以解決了,就是這麼一個區別。
【大失業潮即將來襲?】
扶搖:哦,是這樣。您剛才提到,GPT-4現在已經像大學生、研究生的智力水平了。如果人工智能聊天機器人這麼發展下去,它會不會搶了很多人的工作?大家已經開始擔心這個問題了。
傑森:它取代人的很多工作,這是必然的。你比如說現在我們就說翻譯這事吧,網上有一個人開玩笑說,他就把隨便一個世界名著,原文是法文的、原文是英文的無所謂,灌給它,它大概半個小時、十幾分鐘全部翻完。翻完了以後,你會發現基本上文字各方面稍微改一點,基本上就差不多了,沒有大的問題。
這樣的事情對於人來說是不可思議的一個過程,而翻譯只是它能做的簡單的事,而且大部分人一輩子他能翻譯⋯⋯(成為)一個語言的翻譯家都不錯了。而這個是全世界50多種語言、100多種語言,它全都能翻譯。而且本身來說,它也可以編程,甚至可以做一些總結,甚至有很多創意,就比如說給小孩起名字,或者給某一個項目給你一些建議等等,它都是可以做到的。
網上大家在總結說,哪些工作可能會被取代,現在有20多種工作。複雜一點的,比如說程序的工作它還取代不了,雖然它能編程,但是它編程的能力還基本上是簡單的程序能編,難一點的、中等難度的程序編得就不太好了,難的程序基本上就不搞了。
所以說,程序員你可以知道,一些稍微技術高點程序員,它是無法代替的。但是確確實實,你比如說剛才我說的,翻譯的活,公司裡頭做文書文秘的活,或者說其它的很多事情,包括tutor(輔導),就是給小孩教文學上的東西、或者甚至教一些簡單的數學上的東西,這些東西很可能。或者說一些比如說是旅遊計劃,就是travel agent(旅行代辦人)旅行的安排事了,等等這樣的。這些估計都有可能會逐漸逐漸地,要麼是大量人員減少,要麼就是被它替代,這都是可能的。
【AI系統的普及 與人類能力的退化】
扶搖:嗯。您覺得按照這個勢頭發展下去,人工智能系統不長時間就來一個能力的大升級,它的應用越來越廣,不但讓很多人失業,人類對它也會越來越依賴吧?這樣一來,人的自身能力是否會出現退化現象?
傑森:是的,這個實際上是我看到的很嚴重的、潛在的一個問題。其實當一個新的技術出來以後,你會發現人相應的那個能力就開始退化一些,就是有這樣的情況,我說的是社會平均現象。但是智慧的人,他不會讓自己能力退化、完全依賴科學。
比如我舉個簡單的例子,計算器這個東西,計算器出來了,你作為學生,你還應該去認真學加減乘除,學你自己的心算、口算能力。你不能說有計算器,這些東西到時候我隨時按。因為很多時候你在跟人討論問題,甚至做出一些決定的時候,你是不方便立刻用計算器的,而且有些就是快速的、概念化的一個判斷、一個量化判斷。
那麼這個時候,你對數字、對算術的這樣一個理解力,會加強你的判斷力,會使你的判斷、決策更加精準。但是我確實看到了,美國或者有一些西方數學教育,它會淡化、弱化人的計算能力,認為反正遲早會有計算器的。老師教起來也很難,學生學起來也很難,它對這個要求就都會降低。
最近就會出現很多美國人,他對於數學的概念變得非常地不清楚、模糊,以至於有的時候大家會說美國人會經常把自己花破產。為什麼?因為他數學確實不是特別好。不是所有美國人,有一部分美國人,因為他面臨的教育。
但最後出現,比如說他覺得他銀行裡放了3000塊錢,3000塊錢在他腦子裡留了一個簡單概念,就是很多錢,我銀行有很多錢。然後他就開始花,今天1000塊錢買個手機,明天500塊錢去度個假。結果幾次花完,他就加不到一塊了,就不知道這個是不是已經快到3000了,結果等到月底一看,銀行帳已經剩負的。
這個其實就是我說的那種概念,就是說,當人覺得我其實有計算器,我什麼都可以計算器去做的時候,人放棄自身最基本的能力的時候,這個社會很多問題就麻煩了。
因為那個比如說ChatGPT,你不能隨時隨地都可以上電腦去回答這個問題。你說翻譯這個問題已經解決了,所以說以後語言我都不用學了。那麼在特殊的情況下,你會發現,你仍然在關鍵時候,你沒法跟你必須交流的那個人交流,如果你完全不學一個語言的話。
但是問題就在於,有這樣認識狀態的(人)不是特別多。就跟那個計算器出來以後,我發現很老的美國人,他的數學能力可能要比現在年輕人還要好一點,就是有這樣的因素在裡頭。
人類總是這樣,當一個新的技術出現以後,一部分人他會仍然努力地維持人具有的能力,但是很多人他會把這個技術放棄掉。這個過程中,其實有的方面很嚴重,有的方面就不是那麼嚴重。有的人能意識不到,有的人意識到。
你比如說過去的人,誰都能到野外去生個火;很多人你給他塊布,他就能給你做個衣服,這個至少在我母親那一代、或者我奶奶那一代可能都能做得到。現在呢,到我們這一代做衣服其實就很難了,就是給你塊布,你能把這個衣服縫在一起其實都很難了。
這就是人類整個的能力因為外在的一個方便,或者因爲外在這樣的社會大環境,能力都在萎縮、都在下降。就是很多時候體現不到,因為這個社會沒有大的變化。但是如果社會一旦出現大的變化,這些系統,你比如說人工智能,它是需要大量的電才能存在的,如果哪天真的沒電了,那人類整個社會就會蠻混亂、蠻難說的那樣的一個狀態。
確確實實有這樣的問題,就是說能力越外化,人的能力可能就是越退縮、越萎縮。
【科幻電影驚悚情景 要變現實?】
扶搖:是。人類能力不斷退化、高度依賴人工智能的時候,不知道會不會真的有一天出現類似科幻電影中的情節,人類反被人工智能控制。
傑森:這是一個非常關鍵的概念,就是這個人工智能系統,我們到底怎麼樣子真正地讓它對社會的功效最大化、危害最小化。其中一個最關鍵的概念,就是把它作為工具,絕對不能把它作為一個決策。就是讓它作為你的工具,而不是成為幫你做決策的一個體系。
這個概念說起來大家覺得很明顯,但事實上,在具體實施的過程中,要保證每個人都頭腦非常非常清醒才能認識到,什麼時候我是利用它來給我出謀劃策,最後我做決定,還是讓它直接就幫我做決定。這是一個每個人每時每刻都可能要頭腦非常清晰的這樣的過程。
扶搖:是,不過每時每刻保持清醒的頭腦,這對人來說是一個很大的挑戰。
傑森:其實我們現在已經被大科技公司控制了,比如說,我們用的谷歌搜索、我們社交平台、我們用的郵件、我們用的很多東西,你說哪個不是來自於幾個大公司呢?比如說美國大選的時候,這些大公司不讓你傳遞什麼消息,你就沒法傳遞什麼消息,其實這個概念已經存在了。
當然了,就是說你下面這一步,人工智能如果大家都在用的話,那麼人工智能本身確確實實使得⋯⋯以前你還至少去搜索,搜索了以後看到50個網頁,你還去從那個網頁一個個看。現在我搜索,它給我一段話、五句話、三句話,那就是我想要的。這個事實上,就讓它們控制人的概念更加便利、更加方便,而且更直接。
是的,人工智能這樣的一個概念,人會生活得越來越方便,越省事兒。但與此同時的話,確實是對於大公司的依賴,不管是從信息的各方面可能會更嚴重,也確實是這樣的。
如果這些人工智能的概念再跟那個物聯網,比如說,有人說把東西冰箱啥的也都跟互聯網連起來,那個時候就是說什麼時候你冰箱需要什麼東西,它都能幫你,是的,能讓你省點事兒,不用開個冰箱門看一眼。但是,它確確實實也會給所有這些系統一個機會,就是在控制你的生活,而不是你來管理控制你自己的生活。
扶搖:您說到這,我還想到去年的一條新聞,谷歌從事AI技術研究的高級軟件工程師的布萊克‧萊莫因(Blake Lemoine),說自己在每天和機器人LaMDA聊天中發現,LaMDA有自己的意識和靈魂。這在當時引起很大的社會反響。您覺得AI可能有意識嗎?
傑森:我倒不這麼想。
在我來看的話,本身這些人工智能系統,它作為這個模型,或者擺在那被物化成很多大的機器,它本身是沒有靈魂的。真正它確確實實這個靈魂感,是來自於跟它對話的那個人。
你跟這個聊天的過程,你給它的這個問題本身,其實就是給它這個大腦、給它這種人工智能模型裡頭打一個信息,它給你反饋出一個相應的信息來。給水裡頭扔一個石頭,水發出漣漪,就是這麼一個過程。
而這個感情可能是這個測試人員自己引發的感情,比如,他說一個「我覺得你很聰明」,它就回答一個說「哪裡啦」。他就說,「喔,這個人好謙虛呀」。實際上是他給這個對話的過程中,用他自己的情緒映射到了這個人工智能系統裡頭。
當然了,這個人工智能系統的系統本身,基於訓練人訓練它的這種方式,它可能有一些政治傾向,它可能知識就比如說學了很多中共的知識,那就是中共那邊的往出冒得很多;學了左派的東西,左派的東西往出冒得很多。但是本身來說,它沒有善惡感,沒有本身的意識、沒有情緒,它本身其實就是以你可以完全想像是個大的皮層這樣的概念,它需要外部激發。
【重複中共謊言 ChatGPT-4暴露政治傾向?】
扶搖:嗯,您的這個觀察也很有意思。說到人工智能系統的政治傾向,有人測試ChatGPT-4時發現,當他提出和中共有關話題時,不論是用中文還是英文輸入,GPT-4要麼重複中共的官方說辭,要麼嘗試轉移話題。
傑森:跟中共這方面的概念⋯⋯ChatGPT開發它的是OpenAI這個公司。這個公司它自己聲稱它是想中立,它中立怎麼辦呢?它基本上,就是說,誰的說法我都表達出來。那麼比如說,你要是問它墮胎的事兒,它就把支持墮胎和反對墮胎的說法,它都給你列出來。
那麼對於中共這邊,它基本上就是很可能把中共那邊的宣傳也會給你表達出來。當然了它知道,因為各個大公司裡頭都有很多中國技術人員。全世界的人都知道一個概念就是啥呢?就是說,你罵民主國家的頭,民主國家的頭不太管,但是你罵比如說中共的頭,中共跟你急。這個呢,就是它有點那種欺軟怕硬那種感覺。
就是說,它不會說讓你不評論拜登。但是,它為了迴避中共跟它們找麻煩,雖然現在它沒有說要進入中國,但是它還是覺得中國是個很大的市場,它不想跟中共關係搞得很僵。它覺得這方面只要說你,你就跟我急,那麼在這樣的情況下,我就不說你、迴避說你。
這實際上是很幼稚的想法。因為不管你說不說中共,你這樣的一個知識,牽扯到知識、牽扯到人生觀、世界觀這樣的一個人工智能系統,它都不會放你進去。你就是跪在它面前懇求,它也不會放你過去。
但是不管什麼原因吧,OpenAI它就做了這樣的決定,這個決定是它這個公司決定。很多時候,我們感覺上的話,我倒不覺得是中共讓它們這麼做的,這很可能是它們自己的一個商業、或者說是其它的一個、為了迴避矛盾之間的一個決定。
當然了,還有一個技術上的概念。剛才你也談了,就是有的時候,它好像是中共那邊說話多一些。這就牽扯到一個人工智能系統它是怎麼產生的這樣的一個概念。為什麼人工智能系統最開始的名字叫做「機器學習」呢?就是因為它的很多這個,剛才我說了,GPT-4是由上百萬億個參數組成的,而它裡頭輸入的信息也都是上百萬億個這樣的信息。
那麼這個信息是從網上,從圖書館,或者從各種渠道收集過來的。那麼確確實實中文這個領域的話,中共畢竟把持了所有的文宣系統,所有的語言製造系統,你整個中文可能最大的產生地就是中國那個地方,而它如果這樣去收集的話,那麼那個地方的信息自然就進入了這個系統。
雖然海外,比如說像大紀元也說一些真相,用中文表達一些真相,但是它的比例畢竟比較小一點。我相信它也會有大紀元的信息量在裡頭,但是畢竟中共那個信息量在中文領域更多一些。
所以你就會看到,從學習這個量上,就跟人一樣,腦子裡裝的啥就是啥,它也是裝的啥就是啥。那麼它裝了十份中共的說法,裝了一份我們這邊真相的說法,最後的話,它的展現出來的東西還是中共的謊言因素偏多一點。
這個也是整個機器學習系統不可避免的一個問題。人類信息知識被中共這個謊言系統給腐蝕了,那麼你最後學出來的所謂的人工智能,也難免擁有中共虛假信息那樣的一個知識積澱。
【AI技術競爭激烈 中共又要「彎道翻車」?】
扶搖:哦,是這樣。傑森博士,現在大家都看到智能人工系統的強大了,您預計為會掀起關於AI的「軍備競賽」嗎?比如中共會不會又想「彎道超車」。
傑森:AI這個方向,其實從中共的角度來說,它一直認為是有「大國競爭」的因素在裡頭。在此之前,所謂的AI技術,中共就固化成一個比如說人臉識別技術、或者說是什麼語音技術等等。
中共有的時候聲稱說,我們其實已經有些地方都比美國強了,比如說中國那邊總是搞監控,投了大量的錢做人臉識別。中共人臉識別做得是全世界最好。所以中共有的時候吹,就是說人工智能我們已經是世界第一流的了,我們比美國都強了。其實它就是比如說在人臉識別這個方向比較強。
真正的人工智能,就是這一次大家看到了誰是最牛的,ChatGPT出來以後,它所展現的這個能力⋯⋯中國做人工智能第一的公司事實上是百度,這個公司一看就覺得自己水平⋯⋯自己也做人工智能,每年也投幾百億、上千億的做這方面研究,怎麼就跟那個差別這麼遠?但是,它還是努力的推出來它的產品,叫做「文心一言」。「文心」就是它基於的那個人工智能大系統;「一言」是指的它是諸如語言聊天這樣的系統。
那麼「文心一言」出來以後,大家一用,那個基本上就感覺是⋯⋯剛才我說GPT-4如果是大學生、研究生的話,那麼「文心一言」可能綜合能力是個小學高年級那樣的狀態,差別不是一個數量級的。那麼就是說,本身李彥宏,就是百度的創始人、總裁也說了,說我們不跟美國做競爭,就是說我們出來不是為競爭的。但是因為它是沒法競爭,整個中美之間在真正的意義上、最現代的人工智能上,實際上是有一個巨大的、幾年的差異。
那麼對於中共來說,它可能採用的策略,就是歷史上像谷歌和百度競爭那樣的一個概念。當谷歌技術已經很成熟的時候,百度才剛剛起家的時候,它就把谷歌放進去,讓谷歌能在中國存在。但是一旦百度稍微有點樣子、有點起色、能用的時候,它就開始把谷歌想盡各種辦法擠出來,從中國給踢出去。那麼這時候,百度就在中國一家獨大。最後,讓中國老百姓就只用百度了。
這個過程,很可能也會是目前像人工智能這樣的系統軟件出現的方式。雖然我們知道了,百度的人工智能系統比OpenAI的差很遠。那麼在這樣的情況下,百度股票先跌後漲,可能其中一個原因也是普遍投資人認為,中共會幫百度把這些競爭對手從中國踢出去,讓百度一家獨大,或者其它的中國公司獨大的,在中國這樣環境中開始慢慢慢慢培養,成長它的技術。
在中共的心目中,這就是它「大國競爭」必須採取的一個手段。當然了,對於中國老百姓來說,這是一個很淒慘的過程。我們知道,百度當年一家獨大,為了掙錢,最後給大家片面地提供信息,有一個西安電子科技大學的一個學生(魏則西)得了癌症,因為只能搜到百度的信息,最後把錢也花了、醫療也耽誤了,最後發現那些信息全都是假的。
實際上這樣的事情,未來如果中共持續這麼做的話,中國人還會遇到,在人工智能上也會遇到。至少中國人在很長一段時間不能用到真正意義上、最先進的人工智能,而現在西方人工智能這個系統,如果到這個份上的話,對於整個西方社會的整個社會效率,或者說是各方面提升的會非常快。
所以在我看來,中共認為這是大國競爭,這是有競爭的因素在裡頭。但是這個過程,它們採用的手段是堵、是防,最後使中國可能在這方面發展的反倒會慢一些。
【兩大關鍵原因 拖累中國AI發展】
扶搖:嗯,是的。您剛才提到百度「文心一言」,最近大家都在調侃它,一些網友分享了自己的試用體驗,說「文心一言」回答問題的方式挺模式化的,戲稱它是Chat-PPT。您覺得中國的這種產品和國外的比,最大差別在哪,是什麼造成的呢?
傑森:它有很明顯的感性上的區別。你要是說,為什麼它們有這麼樣的差別呢,我感覺可能有幾個層面的原因。
一個層面的原因,很可能就是本身確實有些核心技術(差距)。OpenAI雖然是2015年、16年才開始成立的一個公司,它就是一門心思、專注地去做,而且做的過程中可能拿到了一些竅門。最後結果就是它出來的這個模型,而它模型能做的事情,很多其它的大模型它真的還是做不了。
就是大家長的腦子都是一樣的都這麼大,腦子裡頭的細胞數量可能也差不多,最後有的人就聰明一點,有的人就不聰明一點,這個原因就是可能有的人他就有一個正確的學習方法,或者有個生活習慣了,最後這個人就比另外一個人聰明一點,這個就是生物學的多樣性促成的。
西方這個社會,當然我們看到成功出來的是OpenAI。但事實上,它是一個結果,不是一個過程。西方這邊實際上是各個公司,很多公司百家爭鳴的,大科技公司、小公司都在做這個事情,最後冒出一OpenAI這樣的公司。OpenAI最後成功了,原因就是這種多樣性。最後有一家可能碰巧,要麼是運氣也好,要麼是安排也好,它就一下子找到了那個關鍵點,最後這個技術就突破出來了。
中國那邊的話,中國(中共)為了管理方便,它實際上就讓中國的大公司變得很少很少,你看你扳著指頭算這種大的互聯網公司,做這樣研究有財力的公司,你就像百度、騰訊、或者是阿里巴巴的這麼幾個大公司,那麼它的多樣性就少一些。整個它的研發、嘗試的角度、各方面就可能比較專一,最後這些角度可能都不成功。
這事實上就是一個社會管理促成的。大家就說,中國那邊為什麼都是跟技術而不是創技術,原因就是中國那邊它是集團運作。集團運作它能使得一個方向迅速地量化、高效,但是發現新東西的能力就差一點。
就比如說,你派100個人到原野裡頭去找東西有效呢,還是把100個人編成一個方隊,然後齊步走在一個原野裡面找東西方便?那肯定是100個人分散找它方便嘛,因為這種有多樣性,每個人找的角度、各方面都不一樣。你齊步走,但是齊步走的好處就是可以統一迅速地去建一個房子,就是大家都一塊齊步走搬磚,一下子把磚就從一個地方全都搬走了。它能解決不同的問題,但是中國那邊在創新上一直很慢,就是這麼一個現象,這是一方面。
另一方面,剛才我說到了,所謂的人工智能都叫機器學習,就是它實際上是要有一個內容可學的。現在西方這邊是全世界東西拿來都可以學,什麼語言都行,什麼樣的內容都行,我都不是個問題。
中共那邊,它本身其實對於要學的東西,它是要控制,而且它們獲取東西的範圍也是控制。海外的一些東西,它可能拿的不方便,國內的東西拿的量很大。而國內最近整個語言就是退化得很厲害。你要是看中國網上的這種語言,各方面它的這種⋯⋯
西方它有很多很多很高層次的那種討論語,不管是藝術上的、各方面門類的這種高層次的網絡信息討論。中國那邊的網絡信息,全都集中在幾個大的平台上,你比如說微信,微信它的信息就很難搜到的。你要是真的到互聯網上,那個微博啥的,它們提供的信息都是嚴格被控制的。所以說,中國那邊能學到的信息的質量有問題,多樣性有問題,各方面學的材料就不如國外這邊。
所以總結起來的話,能力就是找竅門的機會,可能不如國外;學的內容受限制,就是那種多樣性,不如國外。兩個結果,最後它們產生的模型,可能能力就比國外這邊差很多。
扶搖:所以您覺得接下來,中國跟西方國家的AI發展差距,會越來越大嗎?
傑森:這就看下面一步中國那邊它要怎麼樣解決這個問題。中國那邊做這方面研究的人也不傻,他們知道他們的問題所在。而且中國那邊有一個最大的特點,就是你一旦搞出來了,我從你那兒不管是偷、還是模仿、還是山寨,速度還是蠻快。
所以,現在OpenAI把整個這個⋯⋯就是至少搞出來這樣的一個東西,境界擺在那了,它知道能達到這樣一個狀態,那麼很可能它會想辦法從這邊把這個技術往回轉。你比如說,最近斯坦福大學就有一些學生就想⋯⋯建這個模型最難的地方就是這個訓練及你學,學的時候你怎麼樣子⋯⋯問題、有什麼答案,這樣的一個知識邏輯過程,你得要用人來做。
當時OpenAI實際上是在非洲、在世界各地低收入國家顧了很多人,手工標識了很多。斯坦福大學的那個研究團它沒有這麼多人,它怎麼辦呢?它就是用OpenAI,它就把OpenAI作為它的一個人,它就給OpenAI輸一個問題,看一個結果,那我就可以學OpenAI的系統是怎麼樣回答問題的。
OpenAI這個系統很便宜的,你問很多很多問題才花幾分錢,那麼這個過程中,它就把它的小模型給訓練出來了。那麼這個思路,中共很可能他們也會使用,這樣的過程就把OpenAI的一套東西至少模仿過來。
它會不會這麼做,可能也是個問題。但是至少我說的概念,就是說中共那邊它有很多很多這方面的「智慧」。原創的東西不一定有耐心、有耐力放下心去做。努力從別人那模仿這個過程的話,它會有很多很多我們意想不到的「奇思妙想」。所以在我看來,它有先天的不足,你比如說剛才說的學習內容的不足,但與此同時,一旦別人搞出來了,它也有「驚人的技巧」去從別人那山寨過來。
扶搖:是,這麼些年看下來,中共確實是這樣。
網絡收看方式:
新唐人網站:https://www.ntdtv.com/
新唐人乾淨世界:https://www.ganjingworld.com/zh-TW/channel/uUaEX5vIKTh6l
新唐人YouTube:https://www.youtube.com/user/NTDCHINESE
大紀元新聞網:https://www.epochtimes.com/b5/nf1334917.htm
支持新唐人:https://www.ntdtv.com/gb/donation.html
新唐人大紀元《直播節目》製作組
(責任編輯:劉明湘)