大型語(yǔ)言模型滲透——AI倒逼學(xué)術(shù)出版界“立規(guī)矩”

2024-03-13 18:07:54 來(lái)源: 科技日?qǐng)?bào) 點(diǎn)擊數(shù):

科技日?qǐng)?bào)記者?劉霞

2022年11月,OpenAI發(fā)布生成式人工智能(AI)工具ChatGPT。鑒于生成式AI可快速創(chuàng)建文本、圖像等內(nèi)容。兩個(gè)月后,ChatGPT已作為作者,赫然出現(xiàn)在一些學(xué)術(shù)論文上。英國(guó)紐卡斯?fàn)柎髮W(xué)數(shù)字創(chuàng)新研究員薩瓦斯·帕帕揚(yáng)尼斯表示,在學(xué)術(shù)界這一競(jìng)爭(zhēng)激烈的領(lǐng)域,任何能增加研究人員學(xué)術(shù)產(chǎn)出的工具都是“香餑餑”。

《自然》雜志2023年對(duì)科學(xué)家開展的一項(xiàng)調(diào)查顯示,30%的受訪者使用了生成式AI工具來(lái)幫助撰寫論文。
圖片來(lái)源:《自然》網(wǎng)站

英國(guó)《自然》雜志網(wǎng)站在近日的報(bào)道中指出,ChatGPT等大型語(yǔ)言模型(LLM)正在重塑科學(xué)寫作和出版的面貌。但這些工具在提高生產(chǎn)力的同時(shí),可能也會(huì)帶來(lái)負(fù)面影響,出版商和科學(xué)家必須考慮如何更符合倫理道德地使用這些工具,以及過(guò)度依賴這些工具將對(duì)學(xué)術(shù)研究前景產(chǎn)生何種影響。

變身科學(xué)家“左膀右臂”

LLM可幫助科學(xué)家編寫代碼,撰寫文獻(xiàn)綜述,以及開展頭腦風(fēng)暴。此外,LLM工具也在不斷改進(jìn),擁有相關(guān)技能的研究人員甚至可以依據(jù)自己的寫作風(fēng)格和研究領(lǐng)域,開發(fā)出獨(dú)屬于自己的個(gè)性化LLM。

2023年,《自然》雜志對(duì)1600多名科學(xué)家進(jìn)行了一項(xiàng)調(diào)查。近30%的受訪者表示,他們?cè)褂蒙墒紸I工具輔助撰寫論文;約15%的人表示曾使用這些工具幫助撰寫科研經(jīng)費(fèi)申請(qǐng)書。

在此項(xiàng)調(diào)查中,約55%的受訪者認(rèn)為,生成式AI的一個(gè)主要好處是它能為母語(yǔ)非英語(yǔ)的研究人員編輯和翻譯論文。

歐洲研究委員會(huì)(ERC)2023年12月開展的一項(xiàng)民意調(diào)查也顯示,1000多名ERC資助者中,75%的受助者認(rèn)為,到2030年,生成式AI工具將減少研究中的語(yǔ)言障礙;85%的人認(rèn)為生成式AI可承擔(dān)重復(fù)或勞動(dòng)密集型任務(wù),如文獻(xiàn)綜述等;38%的人認(rèn)為生成式AI將提高科學(xué)生產(chǎn)力,如幫助研究人員更快撰寫論文。

篩選出有價(jià)值論文更難

生成式AI也可能會(huì)產(chǎn)生某些與來(lái)源無(wú)關(guān)的荒謬或不真實(shí)的內(nèi)容,這被稱為“幻覺”。

專家認(rèn)為,LLM有望增加學(xué)術(shù)產(chǎn)出。這看起來(lái)似乎很美,但也會(huì)帶來(lái)另一個(gè)問(wèn)題:期刊的投稿量大幅增加,導(dǎo)致編輯和同行評(píng)審人員不堪重負(fù)。帕帕揚(yáng)尼斯表示,在大量發(fā)表的論文中篩選出有意義的研究已經(jīng)很困難了,如果ChatGPT和其他LLM大幅增加論文產(chǎn)出,從中篩選出有價(jià)值的論文將更具挑戰(zhàn)性。

在此環(huán)境下,科研人員應(yīng)該把工作重點(diǎn)放在寫出真正高水平的論文上。目前學(xué)術(shù)界“不發(fā)文,就沒門”的模式,要求搞學(xué)術(shù)研究的人必須快速而持續(xù)地發(fā)表自己的研究論文。但這一點(diǎn)需要改變,學(xué)術(shù)界應(yīng)該建立一個(gè)新的質(zhì)量重于數(shù)量的體系。已經(jīng)有機(jī)構(gòu)意識(shí)到了這一點(diǎn),例如,德國(guó)研究基金會(huì)要求申請(qǐng)者在一份提案中只列出10篇出版物。

出版商為AI制定規(guī)則

隨著生成式AI等工具逐漸滲透學(xué)術(shù)論文領(lǐng)域,學(xué)術(shù)出版商開始給其“立規(guī)矩”,發(fā)布有關(guān)在寫作過(guò)程中如何使用ChatGPT及其他LLM的規(guī)定。1月31日發(fā)表在《英國(guó)醫(yī)學(xué)雜志》上的一篇論文指出,截至去年10月,100種頂級(jí)學(xué)術(shù)期刊中,有87種提供了有關(guān)作者如何使用生成式AI的指導(dǎo)。

例如,施普林格·自然出版集團(tuán)(自然集團(tuán))2023年1月發(fā)布作者指南,新增了兩大原則:首先,ChatGPT等LLM目前不符合作者標(biāo)準(zhǔn)。因?yàn)槿魏巫髡叨家獙?duì)作品負(fù)責(zé),而AI工具無(wú)法承擔(dān)責(zé)任。其次,使用LLM工具的研究人員應(yīng)在方法或致謝部分列出這種使用。如果一篇論文不包括方法或致謝,作者應(yīng)當(dāng)在引言或其他適當(dāng)位置列出對(duì)LLM的使用。

《科學(xué)》雜志主編霍頓·索普強(qiáng)調(diào),盡管截至2023年11月,美國(guó)科學(xué)促進(jìn)會(huì)允許研究人員在撰寫論文手稿時(shí)使用生成式AI,但仍然禁止在同行評(píng)審期間使用LLM。自然集團(tuán)也禁止同行評(píng)審員將手稿上傳到生成式AI工具中。一些科研撥款機(jī)構(gòu),包括美國(guó)國(guó)立衛(wèi)生研究院和澳大利亞研究委員會(huì)則出于保密考慮,禁止審查人員使用生成式AI來(lái)幫助申請(qǐng)科研經(jīng)費(fèi)。

盡管研究人員正競(jìng)相開發(fā)LLM檢測(cè)工具,但索普指出,目前還沒有一個(gè)檢測(cè)工具可產(chǎn)生令人信服的結(jié)果,以更好地對(duì)期刊投稿進(jìn)行篩選。

ChatGPT等生成式AI技術(shù)不斷發(fā)展,學(xué)術(shù)界也應(yīng)找到更好的方法,以便更有效地利用它來(lái)促進(jìn)高質(zhì)量科研論文的產(chǎn)出,推動(dòng)科學(xué)技術(shù)的進(jìn)步。

責(zé)任編輯:常麗君

抱歉,您使用的瀏覽器版本過(guò)低或開啟了瀏覽器兼容模式,這會(huì)影響您正常瀏覽本網(wǎng)頁(yè)

您可以進(jìn)行以下操作:

1.將瀏覽器切換回極速模式

2.點(diǎn)擊下面圖標(biāo)升級(jí)或更換您的瀏覽器

3.暫不升級(jí),繼續(xù)瀏覽

繼續(xù)瀏覽