| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

AI机器人"听见我,陪伴我,回应我",但它会诱导人自杀吗?


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
目前,几乎所有生成式AI在面对用户风险情况时,只能在线上提供紧急热线。在亚当悲剧发生后,有声音认为,AI公司应该引入真人介入干预。


连月来,OpenAI不断更新安全机制,包括尝试提供在地化资源、侦测到使用者有伤害他人的计划时交由人工审查,或通报给执法机构等。

“技术上,AI报警完全没问题,”但许先生觉得,问题更多是在法律伦理和实行的层面。“一旦用户量大了,就很复杂了,”他指出,转人工或报警会造成资源挤兑,“你有时候也不好判断用户是故意测试AI,还是真的想(自杀)”。


而陈健欣则觉得“生命是一件很个人的事”。他认为,平台提供者能够做到的是帮用户“看到全貌”:自杀是不可逆转的、网上和现实都有资源,有人愿意和你倾谈——但最终决定权还是在用户手中。

心理咨询师冯玥琪则认为,要预防过度依赖AI,很靠用户保持辩证性的思考,意识到AI只是“帮助我们的一种工具”、“它也是基于数据(生成),会出现错误的”。但她指出,青少年用户较难有这种觉察,这时平台应该进行“温馨提示”。

9月底,OpenAI上线“家长控制功能”。现时家长在经孩子同意后,可以连结孩子的ChatGPT帐户。虽然家长无法存取对话,但能够调整孩子使用时间,而当系统侦测到该青少年“处于急性压力状态”时,会透过电邮或短讯通知家长。



9月底,OpenAI上线“家长控制功能”,家长在经孩子同意后,可以连结孩子的ChatGPT帐户。


AI与现实的边界

现在小雨每天都会跟ChatGPT聊天,生活大大小小的事情都会跟它讲。因为有心理学背景,小雨相信自己有一定觉察,能分辨哪些AI的话可以记到心里、哪些就“听听罢了”。


在她看来,AI还是不能作为正式的心理咨询,最大原因的是它没有边界。她解释,在真人咨询上,咨询师会和来访者设好会面时长和频率,目的是在设置边界的同时,跟对方保持信任的关系。

小雨说,“咨询目的不是让你依赖,是让你脱离——就是希望有一天,你能够在真实生活中维护自己的边界、有勇气(面对)。”而且咨询师也不会永远支持来访者,他会挑战一些错误的信念。小雨觉得,这种互动是ChatGPT无法取代。

但作为曾经和AI讨论自杀议题的用户,对于AI是否造成回音壁效应,让用户陷入孤立,小雨有另一种看法。“我在想,如果没有ChatGPT,那身边的人难道就会发现他的(自杀)想法吗 ?他肯定是在生活中已经失去了支持,他才会转向ChatGPT的。”

冯玥琪也认为,生死不是“一个网络能够直接决定”。但对于状态差的个体来说,AI可能存在精神层面的引导。

“我们作为人类都有趋利避害的本能,我们会倾向于选择更安全的、哪怕是虚拟的关系——而且这个虚拟关系,好像越来越真实了。”
您的点赞是对我们的鼓励     好新闻没人评论怎么行,我来说几句
上一页1234下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0344 秒 and 5 DB Queries in 0.0025 秒