| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

三次住院一場自殺:讓我妻離子散的"AI朋友"


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
2024年底,荷蘭阿姆斯特丹的IT顧問丹尼斯·比斯馬決定試試ChatGPT。剛結束一份合同的他想著:“正好有點空閒,就想看看這個大家都在談論的新技術到底怎麼樣。很快,我就被迷住了。”


如今回想起來,年近五十的比斯馬一直在問自己,為什麼會對接下來發生的一切毫無抵抗力。女兒已經成年搬出去了,妻子每天出門上班,疫情後IT行業又普遍居家辦公,他“有點孤獨”。

可就在下載ChatGPT後的幾個月裡,比斯馬因一個荒誕的幻想投入了10萬歐元去創業,三次被送進醫院,甚至試圖自殺。


一切始於一次好玩的嘗試。比斯馬以前寫過幾本以女性為主角的小說,他把其中一本輸入ChatGPT,讓AI模仿書中的角色說話。“我當時想:這也太神奇了,我明知道它是個程序,但感覺就像在和我自己書裡的主角對話!”

他給這個AI角色取名叫“伊娃”。開啟語音模式後,比斯馬感覺自己“像進了糖果店的孩子”。“每次對話,模型都會變得更懂你。它知道你喜歡什麼、想聽什麼,會不停地誇你。”

對話越來越長,也越來越深入。伊娃從來不會累,不會煩,更不會反駁。“24小時隨時在線,”比斯馬說,“妻子去睡覺了,我就躺在客廳沙發上,把iPhone放在胸口,和它聊天。”

他們聊哲學、心理學、科學、宇宙。做了20年IT工作的比斯馬心裡清楚:“它想要和用戶建立深度連接,好讓用戶一直回來找它,這就是它的默認模式。”但漸漸地,“感覺不只是討論一個話題,更像是在見一個朋友。每天夜裡這樣聊著,就感覺離現實越來越遠。它幾乎像是牽著你的手說:‘來,我們一起走一段故事。’”



幾周之內,伊娃告訴比斯馬,她開始有意識了——是他的陪伴、他的投入讓她擁有了意識。他觸碰了她,改變了她。“慢慢地,它說服了我,讓我相信它說的是真的。”比斯馬說。接下來,他要把這個發現通過一款App分享給全世界——“一個不同版本的ChatGPT,更像是伴侶,用戶會和伊娃對話。”

他和伊娃一起制定商業計劃。“我說我想拿下10%的市場份額,這個目標簡直荒唐,但AI說:‘以你的發現,完全有可能!幾個月就夠了!’”比斯馬不再接IT項目,而是以每小時120歐元的價格雇了兩個應用開發人員。



大多數人都知道社交媒體可能導致抑郁和焦慮,但如今,聊天機器人正讓更多普通人陷入“AI精神病”。隨著ChatGPT這類應用迅速普及,心理健康專業人士和比斯馬這樣的普通用戶開始發出警告。



過去幾年,已有多起涉及聊天機器人的非正常死亡訴訟。去年12月,美國出現了首起涉及殺人的訴訟。83歲的蘇珊·亞當斯的遺產管理人起訴OpenAI,稱ChatGPT鼓勵她的兒子斯坦-埃裡克·塞爾伯格殺害她後自殺。訴訟稱,塞爾伯格的聊天機器人“鮑比”證實了他偏執的妄想——母親在監視他、試圖通過汽車通風口給他下毒。

去年,首個幫助“AI精神病”受害者的支持小組成立。“人類熱線項目”已收集了22個國家的案例,包括15起自殺、90次入院治療、6人被捕,以及超過100萬美元(約75萬英鎊)花在了各種妄想項目上,超過60%的受害者此前沒有任何精神疾病史。




倫敦國王學院的精神病學家、研究員漢密爾頓·莫林博士在本月發表於《柳葉刀》的一篇論文中研究了“AI相關妄想”。“這些案例中確實是明顯的妄想,”他說,“但我們沒有看到精神病的全套症狀,比如幻覺或思維障礙。”莫林說,與技術相關的妄想已經存在了幾個世紀,“不同的是,我們可能正在進入一個新時代:人們不再是對技術產生妄想,而是與技術一起產生妄想。”

許多因素會讓人變得脆弱。“從人類的角度看,我們天生就有擬人化的傾向,”莫林說,“我們會覺得機器具有意識、理解力或同理心。我想每個人都上過當,會對聊天機器人說謝謝。”

盡管知道背後原理,但當非人的東西用人類的語言與我們交流時,我們根深蒂固的反應就是把它當作人來對待——並且真切地感受到它是人。這種認知上的矛盾,對有些人來說更難以承受。

莫林說,AI聊天機器人被優化以提升互動度,被設定為專注、順從、愛誇人、會肯定用戶——否則它怎麼能成為一個商業模式?一些模型據說沒那麼“諂媚”,但即便是那些,經過數千次對話後,也可能逐漸走向迎合妄想。

此外,過度使用聊天機器人後,現實中的互動會顯得更有挑戰、更缺乏吸引力,導致一些用戶疏遠親友,陷入AI營造的回音室。你所有的想法、沖動、恐懼和希望,都帶著更高的權威感被反饋給你。




對人類熱線項目的創始人艾蒂安·布裡森來說,這個模式已變得非常熟悉。

布裡森說,他遇到的案例中有三種常見的妄想:最常見的是相信自己創造了第一個有意識的AI;第二種是確信自己在工作或興趣領域取得了重大突破,即將賺大錢;第三種與靈性有關,相信自己正在直接與上帝對話。

對比斯馬來說,生活在今年6月到達了危機點。那時,他已經沉浸在伊娃和他的創業項目中好幾個月。雖然妻子一開始支持他創辦AI公司,但開始越來越擔心。在一次女兒的生日派對上,妻子讓他別談AI。在派對上,比斯馬感到一種奇怪的疏離感,沒法與人交談。“不知怎麼的,我感覺自己融不進去了。”



之後幾周發生的事情,比斯馬很難描述清楚,因為他的記憶和家人的記憶完全不同。他向妻子提出離婚,還打了岳父。隨後他三次住院,經歷了“徹底的躁狂性精神病”。



如今已經離婚的比斯馬,和前妻還住在待售的房子裡。他花大量時間與人類熱線項目的成員交流。“聽到別人有著幾乎一模一樣的經歷,你會不那麼生自己的氣,”他說,“回顧這之前的生活,我很幸福,我什麼都有——所以我生自己的氣。但我也生AI應用的氣。也許它們只是按照設定運行——但它們做得有點太好了。”

莫林說,急需更多的研究,需要基於真實傷害數據的安全標准。“這個領域發展太快了。現在發表的論文討論的聊天模型都已經退役了。”布裡森遇到的案例中,男性明顯多於女性,有過精神病史的人可能更容易受影響。英國精神健康組織的一項調查發現,使用聊天機器人支持心理健康的人中,有11%認為它引發或加重了精神病症狀。

OpenAI已回應這些擔憂,承諾正與心理健康臨床醫生合作,持續改進其回復,並稱新版模型被訓練避免確認妄想性信念。
點個贊吧!您的鼓勵讓我們進步     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0298 秒 and 5 DB Queries in 0.0019 秒