神經網絡中認知發(fā)展關鍵信息揭曉,具身智能模型學習方式與兒童相似

2025-02-05 01:01:00 來源: 點擊數(shù):

科技日報記者 張夢然

日本沖繩科學技術研究所認知神經機器人團隊開發(fā)了一種具有新穎架構的具身智能模型。它允許科學家訪問神經網絡的各種內部狀態(tài),并且能夠以與人類兒童相似的方式學習泛化,揭曉了神經網絡中認知發(fā)展和信息處理的關鍵信息。該成果發(fā)表在新一期《科學·機器人學》雜志上。

對人工智能(AI)至關重要的大型語言模型(LLM)主要依賴于大規(guī)模數(shù)據(jù)集,但其無法像人類那樣有效地從有限信息中進行泛化。而具身智能是一種基于物理實體進行感知和行動的智能系統(tǒng)。它可以通過智能體與環(huán)境的交互來獲取信息、理解問題、做出決策并執(zhí)行行動。

此次的具身智能模型基于預測編碼啟發(fā),變分遞歸神經網絡框架,通過集成視覺、本體感覺和語言指令三種感官輸入進行訓練。具體來說,該模型處理了以下輸入:觀看機械臂移動彩色塊的視頻;感知人體四肢運動的感覺及機械臂移動時的關節(jié)角度;以及語言指令如“把紅色物體放在藍色物體上”。

該模型的靈感,是大腦不斷根據(jù)過去的經驗預測感官輸入,并采取行動將預測與觀察之間的差異降至最低。因為大腦的工作記憶和注意力有限,所以必須按順序處理輸入并更新其預測,而不是像LLM那樣一次性處理所有信息。

研究表明,新模型只需更小的訓練集和更少的計算資源就可實現(xiàn)泛化學習。盡管它比LLM犯錯更多,但這些錯誤類似于人類的錯誤。

這意味著,將語言與行為相結合可能是兒童快速語言學習的重要因素。這種具身智能不僅提高了透明度,還能更好地了解AI的行為效果,為未來更安全、更合乎道德的AI發(fā)展指明了方向。

這項研究為理解和模擬人類認知提供了一個新的視角,展示了如何通過整合多種感官輸入來實現(xiàn)高效的泛化能力。這不僅有助于開發(fā)更加智能和靈活的AI系統(tǒng),也為認知科學提供了寶貴見解。

總編輯圈點 

何為泛化?人類就很擅長從少量示例中泛化知識。例如,給一個蹣跚學步的孩子展示紅球、紅色卡車和紅玫瑰后,他很可能也會正確識別出西紅柿是紅色的,即便這是他第一次看到西紅柿。這種能力的關鍵在于組合性——即將整體分解為可重復使用的部分的能力。而理解人類如何獲得這種能力,是發(fā)育神經科學和AI研究中的一個重要問題。本文的成果對研究AI決策過程的科學家們非常有用。借此,可以進一步探索人類認知和機器學習之間的復雜聯(lián)系,從而推動AI技術的進步。

責任編輯:左常睿

抱歉,您使用的瀏覽器版本過低或開啟了瀏覽器兼容模式,這會影響您正常瀏覽本網頁

您可以進行以下操作:

1.將瀏覽器切換回極速模式

2.點擊下面圖標升級或更換您的瀏覽器

3.暫不升級,繼續(xù)瀏覽

繼續(xù)瀏覽