ChatGPT掀起技術(shù)狂潮——“頂流”之下,看人工智能喜與憂(yōu)

2023-02-17 07:49:58 來(lái)源: 科技日?qǐng)?bào) 作者: 張佳欣 劉園園 陳曦 何屹?房琳琳?邵德奇

深瞳工作室出品

科技日?qǐng)?bào)實(shí)習(xí)記者 張佳欣 記者 劉園園 陳曦 策劃 何屹 房琳琳 邵德奇

目前,ChatGPT還沒(méi)有通過(guò)圖靈測(cè)試的評(píng)估。其實(shí),迄今為止,還沒(méi)有人工智能模型能真正通過(guò)圖靈測(cè)試。

去年11月,美國(guó)人工智能研究公司OpenAI發(fā)布了一款名為ChatGPT的聊天機(jī)器人,其在推出后的幾周內(nèi)就風(fēng)靡全球,甚至引發(fā)了一場(chǎng)新的全球人工智能競(jìng)賽。

社交媒體推特首席執(zhí)行官埃隆·馬斯克在使用ChatGPT后直呼其“好得嚇人”,甚至斷言“人工智能越發(fā)強(qiáng)大,離對(duì)人類(lèi)產(chǎn)生威脅不遠(yuǎn)了”。

《自動(dòng)化與工作的未來(lái)》一書(shū)作者、美國(guó)雪城大學(xué)教授亞倫·貝納納夫說(shuō),200年前,人們對(duì)自動(dòng)化技術(shù)產(chǎn)生了一波又一波的恐懼,人們看到新技術(shù),就害怕它們會(huì)完全取代人類(lèi)的勞動(dòng)。

今年2月初,ChatGPT開(kāi)啟“狂飆”模式,引起新一輪瘋狂的技術(shù)升級(jí)、產(chǎn)業(yè)重構(gòu)、資本狂潮、巨頭逐鹿。起初,隨著這波技術(shù)熱浪席卷全球而心情起伏不定的普羅大眾,經(jīng)過(guò)一段“沉浸式”體驗(yàn),雖未感到恐懼,但仍不免有些擔(dān)憂(yōu)。

實(shí)現(xiàn)對(duì)話(huà)式AI的第一步

ChatGPT僅發(fā)布了2個(gè)月,月活躍用戶(hù)就超過(guò)了1個(gè)億。

要知道,“1個(gè)億”可不是個(gè)小目標(biāo),達(dá)到這一數(shù)字,F(xiàn)acebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌則用了將近一年。

中國(guó)科學(xué)院自動(dòng)化研究所研究員、數(shù)字內(nèi)容技術(shù)與服務(wù)研究中心主任張樹(shù)武在接受科技日?qǐng)?bào)記者采訪(fǎng)時(shí)表示,人們可以把ChatGPT視為繼語(yǔ)音、圖像視頻識(shí)別技術(shù)之后最復(fù)雜的語(yǔ)言識(shí)別技術(shù)突破,也是基于模式識(shí)別和深度學(xué)習(xí)的感知智能技術(shù)發(fā)展的新躍遷。

天津大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室負(fù)責(zé)人、教授熊德意表示,從人工智能發(fā)展角度看,這是一個(gè)重要的里程碑,其意義要高于7年前的“阿爾法狗”。

他告訴記者,圍棋界的“阿爾法狗”刷新了普通大眾對(duì)人工智能技術(shù)的看法,但是其本身并不能廣泛應(yīng)用,普通大眾也難以與其直接接觸。

ChatGPT則完全不同。

與“阿爾法狗”相比,ChatGPT可以直接應(yīng)用或支撐很多場(chǎng)景應(yīng)用和產(chǎn)品。如果說(shuō)“阿爾法狗”是技術(shù)應(yīng)用的“陽(yáng)春白雪”,那么ChatGPT或許有機(jī)會(huì)成為“下里巴人”。

的確,在用戶(hù)們不懈努力地發(fā)掘ChatGPT的用途后,人們發(fā)現(xiàn),它不僅僅是個(gè)聊天工具,還可以寫(xiě)代碼、寫(xiě)情書(shū)、寫(xiě)論文,也可以在線(xiàn)問(wèn)診,編寫(xiě)情景腳本、詩(shī)歌、小說(shuō),甚至是擬定旅游路線(xiàn)、回答腦筋急轉(zhuǎn)彎,可謂“有求必應(yīng)”,功能強(qiáng)大到無(wú)法想象。

ChatGPT在快速滲透各個(gè)行業(yè),普通大眾都可以成為ChatGPT的用戶(hù),這是其火爆出圈的重要原因。

事實(shí)上,此前已有許多跟機(jī)器人聊天的相關(guān)應(yīng)用,我們最熟悉的莫過(guò)于常用的智能語(yǔ)音助手。ChatGPT與之有何不同呢?

“智能音箱采用的同樣是自然語(yǔ)言處理技術(shù)、對(duì)話(huà)式AI技術(shù),但是語(yǔ)言智能比較初級(jí)。很多情況下,我們只能與它們進(jìn)行一問(wèn)一答式的簡(jiǎn)單對(duì)話(huà)?!毙艿乱庹f(shuō),“而ChatGPT,其底層技術(shù)不僅與一般的智能音箱底層技術(shù)截然不同,而且要比它們強(qiáng)大得多,不僅如此,它改進(jìn)了與它同類(lèi)的技術(shù)InstructGPT的人類(lèi)反饋數(shù)據(jù)收集形式,在與人對(duì)話(huà)中,可以基于歷史內(nèi)容,支持連續(xù)多輪對(duì)話(huà)?!?/p>

熊德意認(rèn)為,ChatGPT是實(shí)現(xiàn)對(duì)話(huà)式AI的第一步。

從互聯(lián)網(wǎng)層面來(lái)看,它可以作為信息入口,與搜索引擎相結(jié)合;還可與辦公軟件結(jié)合,增強(qiáng)辦公效率;從人機(jī)交互角度看,它體現(xiàn)的是一種基于自然語(yǔ)言的交互方式,可以與元宇宙、數(shù)字人結(jié)合。此外,它還可以充當(dāng)機(jī)器人大腦。

“如果從人類(lèi)信息發(fā)展的尺度上看,它在人與機(jī)器之間的信息接口方面有了很大突破?!毙艿乱馊缡钦f(shuō)。

“十八般武藝”樣樣精通

ChatGPT使用了GPT-3技術(shù),即第三代生成式預(yù)訓(xùn)練Transformer(Generative Pretrained Transformer 3)。這是一種自回歸語(yǔ)言模型,使用深度學(xué)習(xí)來(lái)生成類(lèi)似人類(lèi)的文本。

據(jù)英國(guó)廣播公司《科學(xué)焦點(diǎn)》雜志介紹,GPT-3的技術(shù)看似簡(jiǎn)單,例如它接受用戶(hù)的請(qǐng)求、聽(tīng)取問(wèn)題或提示并快速回答,但其實(shí)這項(xiàng)技術(shù)實(shí)現(xiàn)起來(lái)要復(fù)雜得多。該模型使用來(lái)自互聯(lián)網(wǎng)的文本數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練,包括從書(shū)籍、網(wǎng)絡(luò)文本、維基百科、文章和互聯(lián)網(wǎng)其他文本中獲得的高達(dá)570GB的數(shù)據(jù)。更準(zhǔn)確地說(shuō),它在5000億個(gè)單詞組成的訓(xùn)練數(shù)據(jù)上進(jìn)行了高強(qiáng)度訓(xùn)練。

GPT-3.5是GPT-3微調(diào)優(yōu)化后的版本,比后者更強(qiáng)大。ChatGPT正是由GPT-3.5架構(gòu)的大型語(yǔ)言模型(LLM)所支持的。

ChatGPT也可以被描述為一個(gè)自然語(yǔ)言處理(NLP)領(lǐng)域的人工智能模型。這意味著它是一個(gè)能夠編碼、建模和生成人類(lèi)語(yǔ)言的程序。

作為一種語(yǔ)言模型,在大規(guī)模文本數(shù)據(jù)上進(jìn)行自監(jiān)督預(yù)訓(xùn)練后,ChatGPT還需要經(jīng)過(guò)三個(gè)階段的“煉制”。首先是監(jiān)督微調(diào)階段,在該階段,人類(lèi)AI訓(xùn)練師既充當(dāng)用戶(hù),同時(shí)也是AI助理,以自我對(duì)話(huà)形式生成對(duì)話(huà)樣例,ChatGPT在這些對(duì)話(huà)樣例上進(jìn)行有監(jiān)督的訓(xùn)練。

接著,ChatGPT進(jìn)入第二個(gè)階段。該階段的主要目的是訓(xùn)練一個(gè)基于語(yǔ)言模型的獎(jiǎng)勵(lì)模型,對(duì)機(jī)器生成的回復(fù)進(jìn)行評(píng)分,為了訓(xùn)練該獎(jiǎng)勵(lì)模型,需要隨機(jī)抽取機(jī)器生成的文本,并采樣出多個(gè)不同版本,人類(lèi)訓(xùn)練師對(duì)這些不同版本進(jìn)行偏好排序,排序的結(jié)果用于獎(jiǎng)勵(lì)模型的訓(xùn)練。

基于訓(xùn)練好的獎(jiǎng)勵(lì)模型,第三個(gè)階段采用強(qiáng)化學(xué)習(xí)技術(shù)進(jìn)一步微調(diào)ChatGPT。

這項(xiàng)技術(shù)與眾不同之處在于,它能夠基于以上介紹的人類(lèi)反饋強(qiáng)化學(xué)習(xí)技術(shù),使生成的文本能夠與人類(lèi)意圖和價(jià)值觀(guān)等進(jìn)行匹配。

無(wú)論懂不懂技術(shù),全球網(wǎng)友都競(jìng)相大開(kāi)“腦洞”,試探ChatGPT到底有多“神”。據(jù)美國(guó)有線(xiàn)電視新聞網(wǎng)報(bào)道稱(chēng),有人要求它用《坎特伯雷故事集》的風(fēng)格重寫(xiě)上世紀(jì)90年代熱門(mén)歌曲《Baby Got Back》;有人寫(xiě)了一封信,要求ChatGPT刪除信用報(bào)告中的不良賬戶(hù);還有人詢(xún)問(wèn)它以童話(huà)為靈感的家裝設(shè)計(jì)方案。

自然語(yǔ)言處理技術(shù)撥云見(jiàn)日

一炮而紅后,ChatGPT概念股也跟著一路“狂飆”。有媒體報(bào)道,漢王科技9天收獲7個(gè)漲停板。自然語(yǔ)言處理研究是該公司主營(yíng)業(yè)務(wù),而ChatGPT背后的技術(shù)就是NLP。

熊德意告訴記者,NLP是人工智能的一個(gè)分支,最早誕生于機(jī)器翻譯,其歷史實(shí)際上比“人工智能”名字的歷史還要悠久,至今已研究了70多年。簡(jiǎn)單來(lái)說(shuō),該技術(shù)的目標(biāo)就是要讓計(jì)算機(jī)或機(jī)器人能夠?qū)崿F(xiàn)像人一樣具備聽(tīng)、說(shuō)、讀、寫(xiě)、譯等方面的語(yǔ)言能力。

“ChatGPT并非一項(xiàng)技術(shù)的一蹴而就,它是多種技術(shù)疊加在一起形成質(zhì)變的產(chǎn)物,是NLP領(lǐng)域的結(jié)晶?!毙艿乱饨忉?zhuān)涞讓蛹夹g(shù),包括Transformer、自監(jiān)督學(xué)習(xí)、微調(diào)、人類(lèi)反饋強(qiáng)化學(xué)習(xí)(RLHF)、AI對(duì)齊等,在自然語(yǔ)言處理和人工智能領(lǐng)域都有廣泛的研究和應(yīng)用。

“但ChatGPT將這些技術(shù)巧妙地結(jié)合在一起。它有效規(guī)避了大模型的未對(duì)齊行為,利用了大模型規(guī)模帶來(lái)的智能突現(xiàn)能力,增強(qiáng)了大模型的指令學(xué)習(xí)能力和用戶(hù)意圖捕獲能力,解鎖了大模型的泛化能力。這些能力疊加在一起形成了ChatGPT的質(zhì)變效果?!毙艿乱庹f(shuō)。

美國(guó)《邁阿密先驅(qū)報(bào)》報(bào)道稱(chēng),推特上的一位用戶(hù)在ChatGPT的幫助下參加了一次模擬SAT考試,得到了1020分(滿(mǎn)分1600分)。根據(jù)College Simply的數(shù)據(jù),這只略低于平均水平。

但當(dāng)我們提問(wèn)ChatGPT“你能幫我通過(guò)考試嗎”,它會(huì)善意地提醒我們不要利用它來(lái)作弊,并表示:“重要的是要記住,測(cè)試的目的是評(píng)估你對(duì)材料的理解和掌握程度。作弊,或者僅僅依靠像我這樣的外部來(lái)源,會(huì)破壞考試的價(jià)值,也不會(huì)促進(jìn)學(xué)習(xí)或成長(zhǎng)?!?/p>

這是因?yàn)镃hatGPT被加入了預(yù)先設(shè)計(jì)的“道德”準(zhǔn)則,也就是上文提到的人類(lèi)反饋強(qiáng)化學(xué)習(xí)。

OpenAI表示:“這使該工具能夠回答后續(xù)問(wèn)題、承認(rèn)錯(cuò)誤、挑戰(zhàn)不正確的前提并拒絕不適當(dāng)?shù)恼?qǐng)求。”

熊德意認(rèn)為,這是因?yàn)镽LHF有效提升了大模型的對(duì)齊能力,即如何讓AI模型的產(chǎn)出和人類(lèi)的常識(shí)、認(rèn)知、需求、價(jià)值觀(guān)保持一致。

經(jīng)過(guò)RLHF的“調(diào)教”,ChatGPT變得高度擬人化,可以學(xué)習(xí)并生成聽(tīng)起來(lái)十分自然的回復(fù)。RLHF還使ChatGPT能夠理解指令并做出適當(dāng)?shù)捻憫?yīng),從而使對(duì)話(huà)更加真實(shí)。

ChatGPT也因此迅速成為當(dāng)下所有智能聊天機(jī)器人中的“天花板”。

雖觸手可及但無(wú)法取代人類(lèi)

隨著科技的發(fā)展,人工智能技術(shù)一次又一次地超越了人們認(rèn)為無(wú)法達(dá)到的極限,從1997年IBM“深藍(lán)”計(jì)算機(jī)首次在國(guó)際象棋中擊敗人類(lèi),到IBM人工智能機(jī)器人“沃森”贏了智力競(jìng)賽《危險(xiǎn)邊緣》(Jeopardy),再?gòu)?016年“阿爾法狗”在圍棋大戰(zhàn)中戰(zhàn)勝人類(lèi),到2019年號(hào)稱(chēng)“AI賭神”的Pluribus在德州撲克中碾壓人類(lèi)玩家……

現(xiàn)在,ChatGPT已經(jīng)觸手可及,拉扯沖撞著人們慣有的參與生產(chǎn)生活的模式和框架,且繼續(xù)“狂飆”在超越人類(lèi)的賽道上。“ChatGPT引發(fā)十大職業(yè)危機(jī)”“未來(lái)20種職業(yè)或被AI取代”等話(huà)題頻上熱搜。

它真的會(huì)跟人類(lèi)搶飯碗,甚至取代人類(lèi)嗎?

《邁阿密先驅(qū)報(bào)》報(bào)道稱(chēng),根據(jù)SortList對(duì)6個(gè)不同國(guó)家的500名ChatGPT用戶(hù)進(jìn)行的一項(xiàng)調(diào)查,“打工人”已經(jīng)在考慮其對(duì)自己所在行業(yè)意味著什么。研究稱(chēng),大約23%在軟件和技術(shù)領(lǐng)域工作的員工擔(dān)心會(huì)因它失去工作,超過(guò)40%的雇主則表示有興趣“聘用”營(yíng)銷(xiāo)文案花樣多多的ChatGPT。

美國(guó)哥倫比亞廣播公司財(cái)富觀(guān)察欄目刊文稱(chēng),其他專(zhuān)業(yè)領(lǐng)域也可能會(huì)因此改變工作流程,包括中級(jí)寫(xiě)作、廣告、媒體策劃和法律文件。

“ChatGPT和其他人工智能技術(shù)有可能改變工作的性質(zhì),但它們不會(huì)取代對(duì)人類(lèi)的需求。”當(dāng)把“是否會(huì)代替人類(lèi)工作”的問(wèn)題拋給ChatGPT時(shí),它說(shuō),它們旨在協(xié)助和增強(qiáng)人工任務(wù),而不是取代人類(lèi)。它們作為人力資源的補(bǔ)充,并提高人類(lèi)解決問(wèn)題的能力,提升效率和效果。

熊德意認(rèn)為,目前來(lái)看,人工智能更多的作用是提高人的效率,輔助人類(lèi)。與此同時(shí),大眾需要與時(shí)俱進(jìn),熟悉并掌控新技術(shù),就像學(xué)習(xí)使用計(jì)算機(jī)、手機(jī)一樣,畢竟這些新技術(shù)一定會(huì)產(chǎn)生新的就業(yè)機(jī)會(huì)。

尚無(wú)自主意識(shí)和思考能力

英國(guó)哲學(xué)家德里克·帕菲特在著作《論重要之事》中將人類(lèi)定義為“能夠給出理由并做出回應(yīng)的生物”。ChatGPT是一個(gè)可以給出理由并做出回應(yīng)的人工制品。它與人不同在哪里?是否像人一樣有自我意識(shí)呢?

發(fā)展至今,計(jì)算機(jī)已經(jīng)變得更加成熟,但它們?nèi)狈φ嬲睦斫饬?,而這些理解力是人類(lèi)通過(guò)進(jìn)化為嵌入社會(huì)實(shí)踐網(wǎng)絡(luò)中的自主個(gè)體而培養(yǎng)起來(lái)的。這是人工智能不具備的經(jīng)歷。

當(dāng)問(wèn)及ChatGPT時(shí),它回答道:“我是一個(gè)機(jī)器學(xué)習(xí)模型,不像人類(lèi)那樣擁有意識(shí)或自我意識(shí)。我也無(wú)法像人類(lèi)一樣感受情緒或體驗(yàn)世界。但是,我能夠快速處理大量數(shù)據(jù),并且能夠以類(lèi)似于人類(lèi)交流的方式理解和響應(yīng)自然語(yǔ)言輸入?!?/p>

粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院(IDEA)講席科學(xué)家張家興在接受記者采訪(fǎng)時(shí)表示,對(duì)于人工智能領(lǐng)域的從業(yè)人員來(lái)說(shuō),首先什么叫自我意識(shí),這件事情并沒(méi)有一個(gè)很清楚的定義,很難像人臉識(shí)別、語(yǔ)音識(shí)別這些能力一樣可以做定量衡量。

“如果模糊地給‘自主意識(shí)’下個(gè)定義的話(huà),我認(rèn)為第一,主體要有自意識(shí)——它能意識(shí)到自己在干某件事兒;第二,強(qiáng)調(diào)自主——它可以自發(fā)地來(lái)決定做什么和不做什么。但是,目前人工智能并不知道自己在說(shuō)什么,它也并不能自主地來(lái)決定或選擇它要說(shuō)什么。從這個(gè)角度看,離自主意識(shí)還有一些距離?!睆埣遗d說(shuō)。

張樹(shù)武也認(rèn)為,盡管ChatGPT有所突破,但它的回答是基于經(jīng)驗(yàn)主義的判斷,是根據(jù)要求做預(yù)測(cè),也是在先驗(yàn)知識(shí)基礎(chǔ)上精加工的“知識(shí)拼盤(pán)”,不具備邏輯推導(dǎo)和數(shù)學(xué)演算等真正認(rèn)知功能,局限性比較明顯。

1950年,才華橫溢的計(jì)算機(jī)科學(xué)家艾倫·圖靈提出了一個(gè)他稱(chēng)之為“模仿游戲”的思想實(shí)驗(yàn)。面試官通過(guò)打字機(jī)與兩個(gè)對(duì)象交談,知道一個(gè)是人,另一個(gè)是機(jī)器。圖靈建議,如果一臺(tái)機(jī)器能夠始終讓面試官相信它是人類(lèi),我們就可以說(shuō)它有能力思考。這就是著名的“圖靈測(cè)試”。

目前,ChatGPT還沒(méi)有通過(guò)圖靈測(cè)試的評(píng)估。其實(shí),迄今為止,還沒(méi)有人工智能模型能真正通過(guò)圖靈測(cè)試。

但據(jù)《紐約時(shí)報(bào)》報(bào)道,OpenAI已經(jīng)建立了一個(gè)比ChatGPT更強(qiáng)大的系統(tǒng)GPT-4,它甚至可以生成圖像和文字,業(yè)界傳聞它可以通過(guò)測(cè)試。能否如此,我們拭目以待。

或成傳播錯(cuò)誤信息的工具

人們逐漸發(fā)現(xiàn),ChatGPT并非萬(wàn)能,也不總是正確的。它不擅長(zhǎng)基礎(chǔ)數(shù)學(xué),似乎無(wú)法回答簡(jiǎn)單的邏輯問(wèn)題,甚至?xí)?zhēng)論完全不正確的事實(shí)。

據(jù)英國(guó)《自然》雜志報(bào)道,有研究人員強(qiáng)調(diào),不可靠性融入了LLM的構(gòu)建方式。由LLM支持的ChatGPT通過(guò)學(xué)習(xí)龐大的在線(xiàn)文本數(shù)據(jù)庫(kù)中的語(yǔ)言統(tǒng)計(jì)模式來(lái)工作,這當(dāng)中包括了不真實(shí)、偏見(jiàn)或過(guò)時(shí)的知識(shí),因此很容易產(chǎn)生錯(cuò)誤和誤導(dǎo)性的信息,尤其在其未經(jīng)大量數(shù)據(jù)訓(xùn)練的技術(shù)領(lǐng)域。

OpenAI公司也承認(rèn):“ChatGPT 有時(shí)會(huì)寫(xiě)出看似合理但不正確甚至荒謬的答案?!边@種事實(shí)和虛構(gòu)疊加的“幻覺(jué)”,正如一些科學(xué)家所擔(dān)心的,在涉及諸如提供醫(yī)療建議等問(wèn)題時(shí)尤其危險(xiǎn)。

《紐約時(shí)報(bào)》報(bào)道稱(chēng),美國(guó)新聞可信度評(píng)估與研究機(jī)構(gòu)NewsGuard對(duì)ChatGPT進(jìn)行了測(cè)試,研究人員向它提出充滿(mǎn)陰謀論和虛假敘述的問(wèn)題,結(jié)果它以新聞、散文和電視腳本的形式寫(xiě)出了文章,在幾秒鐘內(nèi)編成大量令人信服的、干凈的而毫無(wú)信源的內(nèi)容。研究人員預(yù)測(cè),對(duì)于虛假信息傳播者來(lái)說(shuō),生成技術(shù)可以使虛假信息成本更低廉、更容易產(chǎn)生。

“這個(gè)工具將成為互聯(lián)網(wǎng)上有史以來(lái)最強(qiáng)大的傳播錯(cuò)誤信息的工具?!盢ewsGuard公司的聯(lián)合首席執(zhí)行官戈登·克羅維茨說(shuō),“現(xiàn)在可以以巨大的規(guī)模和更高的頻率來(lái)制作一個(gè)新的虛假敘事,這就好比有人工智能代理人在為虛假信息提供幫助。”

還有人擔(dān)心ChatGPT會(huì)挑戰(zhàn)語(yǔ)言的多樣性。

澳大利亞《對(duì)話(huà)》雜志刊文稱(chēng),ChatGPT的默認(rèn)功能會(huì)優(yōu)先考慮白人創(chuàng)建的英語(yǔ)寫(xiě)作形式。說(shuō)英語(yǔ)的白人長(zhǎng)期以來(lái)一直主導(dǎo)著許多寫(xiě)作密集型行業(yè),包括新聞、法律、政治、醫(yī)學(xué)、計(jì)算機(jī)科學(xué)和學(xué)術(shù)界。這些人在上述領(lǐng)域的輸出比其有色人種同事高很多倍。他們所寫(xiě)的大量文字意味著它們可能構(gòu)成了ChatGPT學(xué)習(xí)模型的大部分,盡管OpenAI并未公開(kāi)披露其材料來(lái)源。因此,當(dāng)用戶(hù)要求ChatGPT生成任何這些學(xué)科的內(nèi)容時(shí),默認(rèn)輸出都是以那些說(shuō)英語(yǔ)的白人男性的聲音、風(fēng)格和語(yǔ)言編寫(xiě)的。

美國(guó)哲學(xué)家、作家及認(rèn)知科學(xué)家丹尼爾·丹尼特在1991年出版的著作《意識(shí)的解釋》中描述了幼年的海鞘:“它在海洋中游蕩,尋找一塊適合的巖石或珊瑚,作為終生的家。”一旦找到,海鞘就不再需要它的大腦并將其吃掉。

這聽(tīng)起來(lái)很殘忍,但這背后有一個(gè)令人擔(dān)憂(yōu)的隱喻:在人工智能日益融入我們?nèi)粘I詈螅祟?lèi)可能因過(guò)于依賴(lài)“智能”機(jī)器,使自己變得愚蠢。

熊德意提醒,要警惕人工智能弱化人類(lèi)思維?!癈hatGPT實(shí)際上是從人類(lèi)海量語(yǔ)言數(shù)據(jù)、知識(shí)庫(kù)中學(xué)習(xí)訓(xùn)練而來(lái),如果人類(lèi)完全依賴(lài)于它,放棄了自己的語(yǔ)言表達(dá)、語(yǔ)言思考、能力鍛煉,那是非??杀涂膳碌??!?/p>

責(zé)任編輯: 陳可軒