国内精品免费一区二区观看,日本韩国亚洲欧洲黄,最新免费黄色网址,久久精品一级黄片

  • 歡迎光臨燃?xì)獗硇畔⒕W(wǎng)!
 
當(dāng)前位置: 首頁 » 技術(shù)前沿 » 創(chuàng)新技術(shù) » 正文

ChatGPT的這個弱點,說明人與人工智能沒有本質(zhì)的區(qū)別

字體: 放大字體  縮小字體 發(fā)布日期:2023-04-20  來源:世界經(jīng)理人  瀏覽次數(shù):5552
 從鸚鵡,到烏鴉

1/6 人工智能不只是ChatGPT

(本文前半部分與上周末發(fā)在“思想鋼印”公眾號上的文章的前半部分相同,后半部分為新撰寫,討論的是本公眾號最感興趣的思維方式的內(nèi)容)

ChatGPT火了之后,有一個段子,說:我們過去想象的人工智能是,我們寫詩畫畫編音樂,AI燒飯洗碗修電腦,沒想到,最后是AI寫詩畫畫編音樂,我們自己燒飯洗碗修電腦。

白領(lǐng)危機四伏,藍(lán)領(lǐng)暗自慶幸。

然而,ChatGPT實際上只是人工智能歷史上的第一個爆款應(yīng)用,又是以一對一對話形式展開,效果又超出了我們的心理預(yù)期,很容易讓我們產(chǎn)生一個“人工智能能說會道”的錯覺,進而讓我們覺得,它未來可以取代很多白領(lǐng)的工作。

其實,ChatGPT底層的自然語言大模型GPT,只是眾多人工智能大模型中率先“涌現(xiàn)”的一個,它更傾向于生成文本的能力,所以看起來都是寫寫文章,說說話,畫畫畫,但并不是說人工智能就只能干這些,你總不能因為趙本山演小品,就以為東北人只會演小品吧?

所以說,哪有什么“只取代白領(lǐng)的工作”這么簡單的事啊,取代藍(lán)領(lǐng)工作的人工智能早晚也會來的。

僅就自然語言大模型而言,最有名的有兩種方向,除了GPT模型外,還有Google的BERT模型,兩者的核心區(qū)別在于目標(biāo)不同,GPT更傾向于生成文本,而BERT 模型更傾向于理解文本,更不用說還有更多開發(fā)中的各種方向的人工智能模型。

這個區(qū)別可能人類無法理解,不理解文本怎么生成文本呢?

但這個問題對AI來說,并不存在。

本文就從這個話題開始,聊一聊ChatGPT跟人類的“思考方式”有什么不同。

2/6 文科的GPT和全科的BERT

在不理解的基礎(chǔ)上,如何生成內(nèi)容?大家可以參考一部勵志日本電影《墊底辣妹》。

這部電影講述了一個年級倒數(shù)第一的差生,通過一年內(nèi)復(fù)習(xí)考入日本一流名校慶應(yīng)大學(xué)的真實故事,相當(dāng)于在全國學(xué)生中的最后2%,進步到前2%。

這個神奇的故事之所以能實現(xiàn),是因為她只要考“英語、小論文、歷史”這三門強調(diào)記憶的科目,她不需要很深的理解,只需要記憶和“生成”,注意重點是——不考數(shù)學(xué)、物理等注重推理的科目。

而GPT模型的成功,就像“墊底辣妹”一樣,很大程度在于選擇了“語言生成”為目標(biāo)的捷徑,從而讓它看上去的效果比它實際上的突破更明顯——這一點跟現(xiàn)實中一樣,一個能說會道的員工,總是比只會干實事的員工,看起來更能干。

GPT模型就像文科畢業(yè)生,由于其在生成文本方面的強大能力,畢業(yè)后最大的“就業(yè)去向”是自動生成文章類的“工作”、包括新聞、廣告文案、創(chuàng)意內(nèi)容、法律文書、文秘、各類咨詢,等等;其次的“就業(yè)去向”是作為聊天機器人、虛擬助手、智能客服,等等,進行更加自然、流利的對話。

相比而言,BERT模型雖然也是一個文科生,但也要學(xué)習(xí)數(shù)學(xué)、物理這一類注重推理的課程,全面發(fā)展。BERT模型需要“理解”文本的內(nèi)容,GPT模型則不一定。

兩者的區(qū)別在一開始訓(xùn)練時就產(chǎn)生了,GPT的訓(xùn)練目標(biāo)是通過最大化下一個單詞的條件概率來預(yù)測下一個單詞,從而完成生成任務(wù);而BERT的訓(xùn)練目標(biāo)是隨機掩蓋一些輸入詞匯并要求模型預(yù)測這些詞匯,強迫模型預(yù)測缺失的單詞,因此它的理解是到詞匯這個級別的。

在不理解的基礎(chǔ)上生成的文本,難免會發(fā)生胡說八道的情況,雖然大家已經(jīng)覺得GPT很神奇了,但如果真的大規(guī)模投入應(yīng)用,在那些非生成內(nèi)容為主的應(yīng)用上,它還是有缺陷的。

比如你對AI助理說:“幫我在陸家嘴附近訂一個粵菜餐館,人均消費在500元左右,時間是明天晚上。”

對于這個句子,GPT模型的“理解”是從過去的語料訓(xùn)練中,判斷“陸家嘴、粵菜、明天晚上、人均消費、500元”這些詞的組合而不是詞本身的意義,由此來判斷自己應(yīng)該輸出什么樣的內(nèi)容,它對于語言的最小理解單位是句子,而不是詞匯,會導(dǎo)致“模型產(chǎn)生幻覺,編造訓(xùn)練中從未有過的數(shù)據(jù)”。所以我們有時看到GPT推薦必勝客等成都小吃的離譜結(jié)果,因為它并不理解“必勝客”的屬性,它還會把數(shù)學(xué)計算中的1995當(dāng)成年代。

雖然GPT4中,這些現(xiàn)象已經(jīng)大大減少,但由于底層邏輯仍然是一個“文科生”,未來很難說在遇到更復(fù)雜的問題時,會不會出錯,很可能最后給你預(yù)訂了一個經(jīng)常與粵菜館一起出現(xiàn)的咖啡館。

由此看來,GPT模式不會是終點,AI代替人類的工作,文本類只是一個“開胃菜”。

很多人可能會想,GPT模型的進化速度如此之快,年底就要發(fā)布GPT-5了,那未來會不會真的“理解”人類的語言呢?

這就要涉及到,到底我們應(yīng)該如何定義“理解”?人類又是如何“理解”的?

3/6 相關(guān)性不等于因果性……嗎?

熟悉邏輯學(xué)的讀者一定知道,它有一個著名的說法:相關(guān)性不代表因果性,相關(guān)性只是對現(xiàn)象的描述,因果性才是現(xiàn)象之間的內(nèi)在聯(lián)系。

所以有人說,人類與人工智能的區(qū)別在于,人可以判斷因果關(guān)系,而人工智能只能判斷相關(guān)性。

這個觀點的后半段是正確的,目前所有的人工智能模型,都是通過學(xué)習(xí)數(shù)據(jù)中的相關(guān)性來進行預(yù)測和推理。

GPT模型完成任務(wù)的方法就是“猜猜下一個概率最大的詞是什么”,根據(jù)輸入的一段文本,預(yù)測下一個單詞出現(xiàn)的概率分布。比如給定前面的句子“我喜歡吃?”,模型可能預(yù)測下一個單詞為“蘋果”的概率是0.2,“香蕉”的概率是0.3,“披薩”的概率是0.1,等等,這些概率值的總和為1,代表了所有可能的下一個單詞的概率分布。

根據(jù)這個概率分布,選擇最有可能出現(xiàn)的單詞。所以ChatGPT都是一個字一個字地蹦出來的,跟剛剛學(xué)會說話的小孩子一樣。

BERT模型的復(fù)雜之處也在于概率判斷,它會考慮每一個單詞與前后文的關(guān)系,還要反向預(yù)測“喜歡吃蘋果?”,所以更準(zhǔn)確,也更需要更多的訓(xùn)練。

人類認(rèn)為,自己的判斷靠的是因果關(guān)系,先學(xué)習(xí)各類事件之間的因果聯(lián)系,再去推斷出某個事件是另一個事件的原因或結(jié)果。所以,早期人工智能的方向是模仿人類的思維,去建立因果關(guān)系。

可當(dāng)專家們想用計算機語言描述因果關(guān)系時,才發(fā)現(xiàn)此路不通——人類自以為嚴(yán)謹(jǐn)?shù)囊蚬P(guān)系,可能并不存在。

看過《三體》的讀者,都應(yīng)該對其中哲學(xué)家羅素的“農(nóng)場主假設(shè)”有深刻的印象,農(nóng)場里有一只火雞科學(xué)家,通過長期觀察,發(fā)布了一個科學(xué)規(guī)律,每次農(nóng)場主來,就會有食物,兩者之前存在因果聯(lián)系。結(jié)果復(fù)活節(jié)前,農(nóng)場主帶來的不是食物而是屠刀。

不要以為“把相關(guān)性當(dāng)成因果性”只是普通大眾缺乏科學(xué)常識導(dǎo)致,我們所認(rèn)為的因果性,正是站在火雞科學(xué)家的角度,從科學(xué)的角度,想要證明兩件事之間存在嚴(yán)格的因果幾乎是不可能的。

抽煙與肺癌的因果關(guān)系,現(xiàn)在醫(yī)學(xué)已經(jīng)廣泛認(rèn)可,但這只是“認(rèn)可”,認(rèn)為抽煙與肺癌存在高度的相關(guān)性,而不是“證明兩者之間存在因果關(guān)系”,因為你無論用什么方法,都無法嚴(yán)格證明。

哲學(xué)家大衛(wèi)·休謨早在300多年前就稱之為“因果關(guān)系幻覺”,他認(rèn)為:“我們無從得知因果之間的關(guān)系,只能得知某些事物總是會連結(jié)在一起,而這些事物在過去的經(jīng)驗里又是從不曾分開過的。”

更糟糕的是,基于經(jīng)驗的因果判斷并不是人類獨有的能力,比如人工智能學(xué)家最喜歡研究的動物——烏鴉。

4/6 人工智能,從鸚鵡到烏鴉

烏鴉喜歡吃堅果,但它弄不開堅硬的外殼;烏鴉發(fā)現(xiàn)汽車可以幫它壓碎外殼,可行駛中的汽車又太危險了;烏鴉還觀察到,有一樣?xùn)|西可以讓汽車停下來——紅綠燈。

于是烏鴉建立一個策略:叨著堅果在路邊等候,在紅燈時,把堅果丟在汽車輪子前,等綠燈能行后,汽車就可以將堅果壓碎,再等下一次紅燈,它們就可以吃到堅果了。

但我們知道,烏鴉不可能懂“因果律”,做不了數(shù)學(xué)題,它們只是像人類一樣,觀察到紅綠燈閃爍和汽車的運行,汽車開過與堅果破碎,這兩組現(xiàn)象之間存在著相關(guān)性。

2010年,人工智能專家約瑟夫·魏茲提出了烏鴉與鸚鵡的比喻,來描述人工智能未來的方向。他認(rèn)為,鸚鵡是一種高度訓(xùn)練的動物,它們可以通過反復(fù)模仿來掌握特定的技能,但是在新的情境下,它們就無法產(chǎn)生新的解決方案;而烏鴉是一種具有高度自適應(yīng)和學(xué)習(xí)能力的動物,可以通過試錯的方式不斷學(xué)習(xí),從而能夠在各種不同的情境下靈活應(yīng)對。

于是人工智能科學(xué)家們產(chǎn)生了一個共識:相關(guān)性就是因果性,是一套描述因果關(guān)系的語言體系,它的單位是“概率”,因果關(guān)系不是0和100%,而是15%、60%、99%,等等。

于是就有了貝葉斯算法,有了聲音模擬信號變成數(shù)字信號,才有了手機通信,才有了郵件反垃圾系統(tǒng),以及更復(fù)雜的大數(shù)據(jù)推薦和人工智能算法。

人類之所以自詡“理解因果關(guān)系”,恐怕是因為數(shù)學(xué),這是人類唯一掌握的建立在嚴(yán)格因果性上的方法,而計算機運作恰恰是基于嚴(yán)格邏輯推理,所以,過去的人工智能專家總是希望能基于這種嚴(yán)格的因果關(guān)系實現(xiàn)人工智能。

偏偏人工智能最終突破的方向,是基于貝葉斯概率的相關(guān)性,第一個爆款級人工智能應(yīng)用ChatGPT最不擅長的就是做數(shù)學(xué)題,因為數(shù)學(xué)題的解題步驟和方法通常需要基于因果關(guān)系的邏輯推理,而GPT模型在生成文本時只是一種概率判斷,你變著法子問它同一個問題,它可能有十種不同的答案,這顯然不是數(shù)學(xué)的思維。

結(jié)果,還是概率戰(zhàn)勝了邏輯推理,相關(guān)性戰(zhàn)勝了因果性。

事實上,人類也是擅長概率判斷的,只不過,我們通常稱之為“經(jīng)驗”。

5/6 人類也會貝葉斯計算

如果你是一個非常有經(jīng)驗的售貨員,面對一位走進店鋪的客戶,你要時刻不停地根據(jù)客戶的舉動,判斷客戶的成交概率,才能決定花多長時間去向客戶推銷,有經(jīng)驗的銷售員從不會干巴巴地介紹產(chǎn)品,而是進一步詢問客戶的需求,選相應(yīng)的推銷重點,并且決定給出多大的折扣把客戶拿下。

你判斷客戶成交概率的過程,與人工智能猜下一個單詞的貝葉斯算法,其實是一回事。

想象一下,一位中年男性走進你的店,你首先根據(jù)經(jīng)驗知道,所有進店的中年男性,有20%會買東西——這就是貝葉斯算法中的“先驗概率”。

你觀察到,他在店里看了一圈,超過10分鐘以上,此時你開始把成交概率修正到29%,并開始主動詢問。

你是如何修正成交概率的呢?實際上就是貝葉斯計算:

以往的經(jīng)驗告訴你一個條件概率:在所有最終買東西的人中,停留超過10分鐘以上的占50%;那些最終沒有買東西的人中,停留超過10分鐘以上的,僅占30%。

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%(不知道怎么計算的,可以看我的文章《職場戀情成功的概率有多大?這個算法告訴》)

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%

接下來,客戶開始咨詢,根據(jù)咨詢這個行為對應(yīng)的條件概率,這個成交概率猛得上升到60%;

可此時,他接到了一個電話,不好,歷史證明這種情況下的成交概率會下降,于是降到了50%;

還好,這是一個垃圾電話,他掛掉電話,直接開始談價格,很好,根據(jù)談價格的行為,最終成交概率又上升到85%……

在這個過程中,雖然一開始你只有一個與實際結(jié)果相差很大的先驗概率,但通過掌握更多的信息,這個概率會越來越接近實際情況——0或100%,你就可以作出應(yīng)對。

這些條件概率,都是在以往大量的銷售實踐中,漸漸總結(jié)出來的,并且始終不斷更新,比如今天的這個中年男人,在85%的成交概率下,最后竟然沒有買,這個經(jīng)驗就會改變你前面的那些先驗概率和后面的一系列條件概率。

所謂“有經(jīng)驗”,就是在某個專業(yè)方向,掌握了大量的條件概率。

很多人可能會說,可我根本不知道條件概率是什么,也不知道怎么進行貝葉斯計算,我只是憑感覺罷了。

那么,這個感覺又是什么呢?

6/6 人腦,也是一套特殊的算法模型

人類的學(xué)習(xí)方式中有一類特殊的隱藏學(xué)習(xí),學(xué)習(xí)者并不知道自己在學(xué)習(xí),也沒有人教,也不知道自己什么時候?qū)W會了,就算學(xué)會了,也無法總結(jié)其中的一些規(guī)律。

心理學(xué)家稱之為“內(nèi)隱式學(xué)習(xí)”,最經(jīng)常被引用的例子是“母語學(xué)習(xí)”。母語學(xué)習(xí)都是在上學(xué)之前完成的,幾乎沒有正式的學(xué)習(xí)過程,習(xí)得后,也無法總結(jié)語言的一般規(guī)律。

這就是前面所說的“感覺”的來源,實際上就是大量的貝葉斯計算。

人際關(guān)系、情感關(guān)系處理的學(xué)習(xí),育兒與親子關(guān)系的學(xué)習(xí),欣賞品位的提升,等等,一切規(guī)則模糊領(lǐng)域的學(xué)習(xí),都至少有一部分需要內(nèi)隱式學(xué)習(xí)。

我們在上學(xué)前的學(xué)習(xí)方法,基本上是內(nèi)隱式學(xué)習(xí),上學(xué)后就變成了主動式學(xué)習(xí),工作之后,內(nèi)隱式學(xué)習(xí)的重要性又開始漸漸提升。

人到底是如何進行“內(nèi)隱式學(xué)習(xí)”的呢?不知道,因為人腦是一個黑箱。

就像GPT的人工智能訓(xùn)練過程,也是一個黑箱,都說它突然間就“涌現(xiàn)”了,就像兒童有一天忽然開口說話了、站起來走路了,其中到底發(fā)生了什么,沒有人知道。

人腦,也是一套特殊的算法模型,跟人工智能沒有本質(zhì)的區(qū)別,只是復(fù)雜得多——黑箱設(shè)計出的黑箱,難怪馬斯克會擔(dān)心,不知道它在無數(shù)次迭代后,會出現(xiàn)什么。

當(dāng)然,關(guān)于人腦與人工智能在認(rèn)知上的區(qū)別,還有人提出一些標(biāo)準(zhǔn),比如情感、自我意識、還有頓悟時刻,這些我以后有機會再分析。

 
免責(zé)聲明:
本站所提供的文章資訊、圖片、音頻、視頻來源于互聯(lián)網(wǎng)及公開渠道,僅供學(xué)習(xí)參考,版權(quán)歸原創(chuàng)者所有! 如有侵犯您的版權(quán),請通知我們,我們會遵循相關(guān)法律法規(guī)采取措施刪除相關(guān)內(nèi)容。


 
[ 技術(shù)前沿搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關(guān)閉窗口 ]

 
 
 
一周資訊排行
圖文推薦