科技日報記者 劉霞
隨著人工智能(AI)技術(shù)蓬勃發(fā)展,許多基于大型語言模型的搜索引擎如雨后春筍般涌現(xiàn)。它們試圖通過整理大量文獻(xiàn),提煉研究論文的精髓等,幫助科研人員提升工作效率,加速科研進(jìn)程。
英國《自然》網(wǎng)站在近日的報道中指出,盡管這些AI驅(qū)動的科研搜索引擎“各有其美”,但鑒于AI本身會產(chǎn)生“幻覺”,可能生成不準(zhǔn)確或誤導(dǎo)性信息,科學(xué)家們在使用這些搜索引擎時,需保持警惕。當(dāng)然,在確保信息的準(zhǔn)確性方面,這些AI工具的提供者責(zé)無旁貸。
科研搜索引擎應(yīng)運而生
對科研人員來說,搜索和閱讀科研文獻(xiàn)可謂“家常便飯”。但是,傳統(tǒng)的文獻(xiàn)搜索往往耗時費力,難以高效獲取最新研究成果?;贏I的科研搜索引擎正是瞄準(zhǔn)科研人員的這一“痛點”,提供精準(zhǔn)助力。
目前,最受科研工作者青睞的AI科研搜索引擎當(dāng)屬Elicit、Consensus和You這三款。它們各顯其能,為科學(xué)家整理文獻(xiàn)綜述提供了極大便利。
當(dāng)用戶向Elicit拋出一個研究問題時,它會呈現(xiàn)相關(guān)論文的列表,并附上關(guān)鍵科學(xué)發(fā)現(xiàn)的摘要。在此基礎(chǔ)上,用戶可以進(jìn)一步詢問與特定論文有關(guān)的問題,還能根據(jù)期刊或研究類型進(jìn)行篩選,讓文獻(xiàn)檢索更加順暢。
而Consensus則致力于引領(lǐng)研究人員深入了解某一主題的各種科學(xué)信息。針對一個特定的問題,該工具會提供一個“共識量表”,清晰展示各篇科學(xué)論文對該問題的看法。研究人員可以選擇性閱讀論文的摘要。該公司首席執(zhí)行官艾瑞克·奧爾森表示,盡管該工具不能取代對論文的深入探究,但對快速篩選研究確實有用。據(jù)歐洲新聞網(wǎng)今年1月報道,該搜索引擎目前聚焦六大主題:經(jīng)濟(jì)學(xué)、睡眠研究、社會政策、醫(yī)學(xué)以及心理健康和保健品。
You則為用戶提供了探索研究問題的不同方式。例如,其“天才模式”能以圖表形式直觀呈現(xiàn)答案。上個月,You又推出了一款“多人游戲工具”,讓研究人員能夠攜手合作,共享定制的AI聊天工具,自動完成事實核查等任務(wù)。
據(jù)愛思唯爾官網(wǎng)報道,該公司于今年4月正式發(fā)布了斯高帕斯(Scopus)AI。它以當(dāng)今世界最大的文摘和引文數(shù)據(jù)庫Scopus中的數(shù)據(jù)為基礎(chǔ),結(jié)合生成式AI和大型語言模型技術(shù),以及豐富的內(nèi)容,為科研人員提供簡明且可信賴的研究主題摘要,并支持“進(jìn)一步探索”、自然語言查詢和“思維導(dǎo)圖演示”等功能。
總部位于倫敦的研究分析公司Clarivate于9月推出了基于AI的研究助手。這款工具使用戶能夠快速搜索Web of Science數(shù)據(jù)庫。研究人員只需輸入研究問題,便可查看相關(guān)的摘要、主題和引文圖。引文圖展示了每項研究引用的論文,可幫助研究人員快速識別關(guān)鍵文獻(xiàn)。該AI工具還可用不同語言總結(jié)論文摘要。
針對專業(yè)領(lǐng)域的AI搜索引擎也開始涌現(xiàn),BioloGPT就是其中“翹楚”。它能為生物學(xué)問題提供精煉而深入的答案。
功能表現(xiàn)各有千秋
哪款A(yù)I科研搜索引擎最佳?這完全取決于用戶的具體需求。
例如,當(dāng)科研人員需要了解某個話題的共識程度或意見的多樣性時,Consensus或是最佳選擇。
面對繁雜的海量數(shù)據(jù),研究人員可利用Elicit聚焦自己的研究興趣。Elicit能像一位精明的篩選師,剔除不相關(guān)的論文,讓研究人員能更深入探索更相關(guān)且真正有價值的論文。
這些AI搜索工具不僅能幫助研究人員節(jié)省大量時間,還讓他們的工作質(zhì)量顯著提升,創(chuàng)造力得以激發(fā),甚至為他們找到了減輕工作壓力的妙招。
但也有專家對于向?qū)W生介紹這些AI搜索工具持謹(jǐn)慎態(tài)度。他們認(rèn)為,雖然這些工具很強大,但也可能會讓學(xué)生陷入對學(xué)術(shù)研究的誤解。因此,教學(xué)生如何批判性地看待這些工具,培養(yǎng)他們“慧眼識珠”的能力也同等重要。
“幻覺”現(xiàn)象值得警惕
當(dāng)下,人們對主流AI聊天機器人(如ChatGPT)輸出內(nèi)容的準(zhǔn)確性深感擔(dān)憂,原因在于這些機器人偶爾會出現(xiàn)“幻覺”。機器人的幻覺是自然語言生成領(lǐng)域的一個術(shù)語,指AI模型會生成一些看似合情合理,實則子虛烏有的文本片段。這些文本可能充斥著虛假的信息、自相矛盾的邏輯,甚至毫無意義的言辭。
很多用戶都曾表示,他們發(fā)現(xiàn),AI研究工具在使用過程中,常常會犯下一些錯誤,比如編造統(tǒng)計數(shù)據(jù)、歪曲引用論文,甚至帶有偏見等。
對此,開發(fā)人員已采取了一系列措施,以提升AI的準(zhǔn)確性。
Elicit公司主管詹姆斯·布雷迪表示,他們對信息的準(zhǔn)確性極為重視,正在運用多個安全系統(tǒng)來嚴(yán)格核查答案中的錯誤。還有專家指出,Web of Science數(shù)據(jù)庫的AI工具擁有“堅實的防護(hù)網(wǎng)”,能夠有效屏蔽那些欺詐性和有問題的內(nèi)容。她提到,在軟件開發(fā)最后的測試階段,該團(tuán)隊與約12000名研究人員攜手合作,整合了用戶們的反饋結(jié)果。
盡管這種反饋改善了用戶體驗,但“幻覺”仍有可能出現(xiàn)。AI搜索工具在人類提供的反饋中不斷學(xué)習(xí)成長,希望為人類提供一個滿意的答案。因此,它們可能會自行填補那些原本不存在的信息空白。
有AI研究人員認(rèn)為,AI科研搜索工具能為科研提供助力,但前提是科學(xué)家對生成的信息予以驗證。
正如BiologGPT創(chuàng)始人科勒·蘭巴登所指出的,要成為一名優(yōu)秀的科學(xué)家,很重要的一點是,對一切持懷疑態(tài)度,包括你自己的研究方法。