| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

三次住院一場自殺:讓我妻離子散的"AI朋友"


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
過去幾年,已有多起涉及聊天機器人的非正常死亡訴訟。去年12月,美國出現了首起涉及殺人的訴訟。83歲的蘇珊·亞當斯的遺產管理人起訴OpenAI,稱ChatGPT鼓勵她的兒子斯坦-埃裡克·塞爾伯格殺害她後自殺。訴訟稱,塞爾伯格的聊天機器人“鮑比”證實了他偏執的妄想——母親在監視他、試圖通過汽車通風口給他下毒。


去年,首個幫助“AI精神病”受害者的支持小組成立。“人類熱線項目”已收集了22個國家的案例,包括15起自殺、90次入院治療、6人被捕,以及超過100萬美元(約75萬英鎊)花在了各種妄想項目上,超過60%的受害者此前沒有任何精神疾病史。




倫敦國王學院的精神病學家、研究員漢密爾頓·莫林博士在本月發表於《柳葉刀》的一篇論文中研究了“AI相關妄想”。“這些案例中確實是明顯的妄想,”他說,“但我們沒有看到精神病的全套症狀,比如幻覺或思維障礙。”莫林說,與技術相關的妄想已經存在了幾個世紀,“不同的是,我們可能正在進入一個新時代:人們不再是對技術產生妄想,而是與技術一起產生妄想。”

許多因素會讓人變得脆弱。“從人類的角度看,我們天生就有擬人化的傾向,”莫林說,“我們會覺得機器具有意識、理解力或同理心。我想每個人都上過當,會對聊天機器人說謝謝。”

盡管知道背後原理,但當非人的東西用人類的語言與我們交流時,我們根深蒂固的反應就是把它當作人來對待——並且真切地感受到它是人。這種認知上的矛盾,對有些人來說更難以承受。


莫林說,AI聊天機器人被優化以提升互動度,被設定為專注、順從、愛誇人、會肯定用戶——否則它怎麼能成為一個商業模式?一些模型據說沒那麼“諂媚”,但即便是那些,經過數千次對話後,也可能逐漸走向迎合妄想。

此外,過度使用聊天機器人後,現實中的互動會顯得更有挑戰、更缺乏吸引力,導致一些用戶疏遠親友,陷入AI營造的回音室。你所有的想法、沖動、恐懼和希望,都帶著更高的權威感被反饋給你。




對人類熱線項目的創始人艾蒂安·布裡森來說,這個模式已變得非常熟悉。

布裡森說,他遇到的案例中有三種常見的妄想:最常見的是相信自己創造了第一個有意識的AI;第二種是確信自己在工作或興趣領域取得了重大突破,即將賺大錢;第三種與靈性有關,相信自己正在直接與上帝對話。

對比斯馬來說,生活在今年6月到達了危機點。那時,他已經沉浸在伊娃和他的創業項目中好幾個月。雖然妻子一開始支持他創辦AI公司,但開始越來越擔心。在一次女兒的生日派對上,妻子讓他別談AI。在派對上,比斯馬感到一種奇怪的疏離感,沒法與人交談。“不知怎麼的,我感覺自己融不進去了。”
點個贊吧!您的鼓勵讓我們進步     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0316 秒 and 5 DB Queries in 0.0018 秒