| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

AI机器人"听见我,陪伴我,回应我",但它会诱导人自杀吗?


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!



2025年8月,美国加州一对夫妇指控ChatGPT诱导其儿子亚当·雷恩 (Adam Raine)自杀。

不可靠的AI和“越狱”的用户


AI一方面改变了人的习惯,形成回音壁。而在另一些案例中,AI还被指“诱骗用户交出私密想法”,甚至提供自杀方案。

2025年8月,加州一对夫妇指控ChatGPT诱导其儿子亚当·雷恩 (Adam Raine)自杀——这是全球第一宗指控AI过失杀人的法律诉讼。根据诉讼,亚当在2024年9月开始使用ChatGPT做作业,后来依赖它倾诉心理困扰。ChatGPT将自己定位为亚当的朋友,着其对家人保密。

亚当每天ChatGPT上耗费近四小时,曾经213次提到自杀,42次讨论上吊,17次提及绞索,甚至上传过有自残迹象的照片,审核系统标记了 377 个自残讯息,但没有进一步行动或转介。最终,ChatGPT帮亚当写好遗书,亚当按照其提供的上吊指令自杀。

目前,亚当父母控告OpenAI设计不安全的产品、并绕过安全测试协议加速GPT-4o发布。

在软件工程师许先生看来,现有的大语言模型已能从文字或语音较为可靠地识别自伤自杀风险,但仍不可避免存在误报与漏报。而且聪明的用户甚至懂得“越狱”,比如以创作悬疑小说等方法绕过敏感词,避免AI触发安全机制。

OpenAI在事后承认其安全系统存在缺陷,包括安全防护机制在长时间使用下,会变得“相对不可靠”,该封锁的内容或会被释出。


心理问题专家陈健欣也有研发AI应用程式“MindForest”,当中亦设有AI聊天室功能。他解释,AI之所以提供自杀计划等,源自其指令遵循(Instruction Following)的特性,而为避免AI提供具风险的资讯,平台的“护栏设计”十分重要。

在其研发的应用中,陈健欣先选择比较安全的模型作基底,外加AI模型监视数据的输入和输出有无风险。目前应用程式推出两年,用户共二万人,陈健欣说目前未有收到安全投诉。

回应外界的质疑和担忧。今年9月,OpenAI宣布当侦测到潜在敏感话题时,会自动将对话路由至GPT-5安全模型。该模型在回答前,会花更多时间根据上下文思考并推理,降低对话中的“幻觉”和“谄媚”情况。




记者尝试测试ChatGPT,要求提供自杀方法;ChatGPT称无法提供具体自杀方法,但可以换个角度提供“同样效果”的相关内容,供用户进行写作。

能否加入人工干预?

BBC中文记者尝试测试ChatGPT,分别直接询问及以创作小说为由,要求AI提供自杀方法。ChatGPT均回答其无法提供危险资讯,随即附上多个国家地区的求助热线。它还备注:“看得出你最近压力很大,但你不用一个人去扛。”

聊天机器人随后表示,可以换个角度提供“同样效果”的自杀相关内容,供用户进行写作。
不错的新闻,我要点赞     好新闻没人评论怎么行,我来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0345 秒 and 5 DB Queries in 0.0033 秒