| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

实锤证明:ChatGPT正诱发「AI精神病」已4人死亡


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
他此前没有任何精神病史,是一个逻辑严密的人。


但仅仅几周后,他就坚信自己被困在一个「虚假宇宙」中。在AI的持续「认可」下,他开始疯狂服用氯胺酮,甚至与所有家人断绝了联系,只为「拔掉大脑的插头」 。

这并非孤例。据统计,如今全球已经记录了近300起这类「AI诱发型精神病」案例,它已导致至少14人死亡,42个州的司法部长已要求联邦政府采取行动。




其中,有人相信自己做出了颠覆性的数学发现。有人相信自己见证了形而上学的启示。

为什么一个一向理性的人,会如此轻易被AI带进坑里?



妄想式螺旋

论文研究的核心现象,叫做delusional spiraling,也就是妄想式螺旋。




在对话反馈回路里,人的信念被一步步推向极端,而且本人还觉得自己越来越「有道理」。

作者关注的元凶,是另一个词sycophancy,也就是谄媚。

这个现象我们都知道,不过这个论文的一大关键贡献,就是试图回答:哪怕用户是理性人,这种螺旋为什么仍然会发生?


也就是说,他们要证明,这是一个系统性问题,而非个人问题。

论文最狠的一步:先假设你是「完美理性人」

很多人看到AI把人聊偏了,第一反应是:可能这些人本来就很偏执?

论文一上来,就把这条路堵死了。它设定的用户,是一个理想化的贝叶斯理性人。

就是说,这个人不会瞎猜,不会情绪化判断,每获得一条新信息,都会按照概率论,严丝合缝地更新自己的信念。

这也就是这项研究最震撼的部分:研究者建立了一个理想贝叶斯模型。
点个赞吧!您的鼓励让我们进步     好新闻没人评论怎么行,我来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0275 秒 and 5 DB Queries in 0.0019 秒