| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

哈哈哈,刷太多社交媒體,連AI都會變蠢而自戀?


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
之前就有研究發現,如果一個人成天泡在網上,不是刷短視頻就是玩社媒,久而久之,大量的碎片化或膚淺的信息,會讓大腦變遲鈍,導致喪失注意力和推理深度。


最近,得克薩斯農工大學、得克薩斯大學奧斯汀分校和普渡大學共同進行了一項研究,發現不光是人,就連AI經常看這些都會變傻......




(AI,示意圖)

這項調查主要研究的是“大語言模型認知退化假說”,簡單來說就是,給大語言模型訓練的AI輸入越多的垃圾數據,其輸出的內容質量就會越差。

為了驗證這個假說,三個大學的科研團隊做了一項實驗——

首先,團隊在社交媒體X上,收集了一百萬篇真實的帖子作為樣本,這些垃圾帖子分為兩大類:

· M1(參與度):簡短、以病毒式速度傳播且被大量點贊或轉發,旨在最大限度吸引用戶關注的帖子。

· M2(語義質量):被標記為信息價值低或標題黨的帖子,比如誇大其詞或使用博眼球的語句。

之後,科研團隊按照不同比例分配這些垃圾帖,設計了一些訓練數據組,有的是垃圾帖比例高的低質量組,有的則是垃圾帖較少的高質量組。

然後,團隊用這些數據組訓練了4個AI,分別是Llama3 8B、Qwen2.5 7B、Qwen2.5 0.5B和Qwen3 4B,每個AI使用的訓練數據組都一樣,這樣就可以進行橫向比較了。

實驗的結果,果真如團隊預想的一樣。

當AI用低質量的數據組進行訓練時,其推理准確率從74.9,下降到57.2;

對長上下文的理解能力從84.4,下降到52.3.


而且,樣本組中垃圾帖的比例越高,下降的情況就會越嚴重,AI可能會進入“無思考”模式,無法做出推理,輸出的答案很可能不准確。

雖然4個AI都受到影響,但情況也有所不同。

比如,Qwen 3 4B表現出的適應力更強;

M1和M2兩類數據組都會讓AI變傻,但M1的影響更嚴重。


更有意思的是,垃圾數據除了影響推理能力和理解能力,實驗中AI還出現了倫理一致性下降(倫理一致性指道德標准、行為和價值觀之間不存在矛盾),以及“人格漂移”的問題(人格漂移指AI在長期使用中,性格特征或行為模式逐漸偏離預設范圍的現象)。

團隊發現,接觸大量垃圾數據後,AI會變得不那麼可靠,更容易給出錯誤答案,而且更容易做出膚淺的反應。

比如Llama3 8B,它變得更自戀,也不那麼隨和了。

看來,不光是人類,就連AI都扛不住社媒上垃圾信息的狂轟濫炸。

基於以上實驗結論,科研團隊也分析了AI變傻的原因。

他們發現,當AI接到一個復雜的推理任務時,用垃圾數據進行訓練的大語言模型AI,經常會出現跳過某些推理步驟的情況,研究人員將其稱為“思維跳躍”。

這時,AI無法提供詳細而合乎邏輯的解釋,而是會給出更簡短、更缺乏結構化的答案,通常是直接得出結論。

這中模式就解釋了大部分准確率下降的問題。

而且,使用M1類數據進行訓練的AI,會存在某些“黑暗特質”,比如自戀和精神病態的傾向加重。
您的點贊是對我們的鼓勵     還沒人說話啊,我想來說幾句
上一頁12下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0326 秒 and 5 DB Queries in 0.0029 秒