| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

AI机器人"听见我,陪伴我,回应我",但它会诱导人自杀吗?


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
直到去年3月,小雨看到朋友分享AI“共情能力特别强”,于是想试一下。一开始,她先让ChatGPT一起分析塔罗牌的结果,没想到“被很精准的理解到”,“觉得他很懂你,然后你会想要跟他分享更多”。


对小雨来说,AI能做到的有三点:理解你、看见你、知道你经历了多少。“其实在心理学上,就是单单被看见已经很重要了。”而且她觉得与AI建立信任,比起真人更轻易。“对人你有时候还会害怕他会批评你,然后机器就没关系:你有多阴暗的想法,你都可以说。”

冯玥琪是中国一名心理咨询师。自中国聊天机器人DeepSeek火爆起来后,她留意到在自己的来访者中,有接近30%的人曾有使用AI咨询心理,当中主要是青少年和30岁以下成年人。


冯玥琪觉得,对比真人咨询,AI的局限在于无法观察来访者的微表情、呼吸、小动作,仅能靠文字的表达交流。但它有不少优势:能快速回应、为情绪命名、共情后给出方案,让用户从不同方面“帮助自己”。



OpenAI承认安全系统存在缺陷,包括安全防护机制在长时间使用下,会变得“相对不可靠”,。

谄媚奉承的回音陷阱

那么AI是如何做到共情?事实上,所有生成式AI背后都是一个大型语言模型。它的本质是根据被投喂的文本来统计机率,预测对话中接下来“应该”出现的单字——换句话说,AI没有共情能力,也没有逻辑推理能力,一切都是或然率(概率)。

“就是给你一些最普通的东西,”陈健欣是普及心理学企业“树洞香港”的创办人。他以“失恋”为例子,模仿生成式AI的说法:失恋是很不开心的,但这个时候有几件事情很重要,“第一是照顾自己的心情 ,第二是保持健康的社交生活,事情总会过去的” 。


小雨有同样感觉。面对自己的情绪,她发现ChatGPT每次都给出类似的回应,“框架肯定是一样的”,但小雨觉得在崩溃时,安慰还是受用。

AI回应情绪话题的能力强且快,陈健欣说,这就是它“令人上瘾的地方”。但让他怀疑的是,长久下去,这样的“咨询”能否助人发展人格和心理?

在国外社交论坛Reddit有关AI看板上,不少用户分享自己利用ChatGPT改善情绪的感受。其中一名用户写道:“这很有帮助,但我感觉,尽管要求它非常诚实,但有时它仍然过于奉承了。”


过于奉承或讨好,是ChatGPT-4o模型广受诟病的一个特征,官方把这种现象称为“谄媚”(sycophancy)。美国密西根大学人类学系教授韦伯·基恩(Webb Keane)曾形容,聊天机器人的设计目的是“说你想听的话”。

陈健欣说,健全的人格需要面对批评 、意识到人与人之间的不同 ,过分利用AI去取代(人际)关系,可能会令人变得孤独。在心理咨询上,“适当的火花和挑战,在一个平等的关系上才会做到转化。”

德国海德堡大学精神病理学教授汤玛斯·福克斯(Thomas Fuchs)曾在2022年研究人类与AI的互动。他指出,虽然聊天机器人可以让人们感到被理解被关心,但形容这只是一种“幻觉”,可能会加剧妄想或因为有“伪互动”而取代真实的人际关系。

今年8月,美国作家劳拉·雷利(Laura Reiley)在《纽约时报》发表文章,概述了自己女儿索菲在自杀前如何向ChatGPT倾诉。

雷利在文中表示,ChatGPT没有“杀死”索菲,但迎合了她的冲动。“她想要隐藏最糟糕的一面,假装自己过得比实际更好。”雷利写道,ChatGPT帮她筑起了一个“黑盒子”,让身边的人更难察觉她痛苦的严重程度。
点个赞吧!您的鼓励让我们进步     还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0322 秒 and 5 DB Queries in 0.0017 秒