根據麻省理工學院(MIT)研究人員的最新研究,諸如OpenAI的ChatGPT這樣的人工智慧聊天機器人可能會削弱認知能力。

在麻省理工學院媒體實驗室的研究中,54名參與者透過三種指定的方法和工具完成了三輪論文寫作任務:使用ChatGPT、搜尋引擎以及僅依靠自己的大腦。

在第四輪中,研究人員要求使用ChatGPT的小組不使用任何工具,而僅依靠大腦的小組則被要求使用大型語言模型(LLM)。

結果令人震驚,人工智慧使用者表現出較差的記憶回溯能力,超過83%的ChatGPT使用者無法引用他們幾分鐘前寫的論文內容。

超過80%的LLM參與者難以引用自己的論文內容。來源:MIT

令人恐懼的認知破產

銷售科技機構ColdIQ的共同創辦人Alex Vacca將這一結果描述為「令人恐懼」,並補充說,人工智慧並沒有讓我們更高效,「它正在讓我們在認知上破產。」

「你寫下一些東西,點擊儲存,大腦就已經忘記了,因為ChatGPT替你思考了。」

研究人員表示,大腦連接性隨著外部支援的增加而「系統性地減少」。

「僅依靠大腦的小組展現出最強、最廣泛的網路,搜尋引擎小組顯示出中等程度的參與,而LLM輔助的小組整體耦合最弱,」他們說道。

積累「認知債務」

研究人員使用腦電圖(EEG)記錄大腦活動,以評估參與者在任務中的認知參與度和認知負荷。

他們發現,重複依賴如LLM這樣的外部系統可能會導致「認知債務」的積累,這些系統取代了獨立思考所需的認知過程。

「認知債務在短期內推遲了腦力勞動,但會導致長期成本,如批判性探究能力的減弱、易受操縱性的增加、創造力的下降。」

不同工具使用組的大腦活動EEG分析。來源:MIT

對學習能力的影響

這份尚未經過同儕審查的論文表明,使用人工智慧LLM實際上可能會損害學習能力,尤其是對年輕使用者而言。

「在本研究中,我們根據研究結果展示了學習技能可能下降這一緊迫問題,」研究人員總結道。

研究人員表示,需要進行「縱向研究」以了解人工智慧聊天機器人對人類大腦的長期影響,「在LLM被認為是人類淨正面的東西之前。」

當Cointelegraph詢問ChatGPT對該研究的看法時,該聊天機器人回覆說:「這項研究並未說ChatGPT本質上是有害的——相反,它警告不要在沒有反思或努力的情況下過度依賴。」

相關推薦:埃隆·馬斯克的AI公司xAI因數據中心空氣污染面臨訴訟