| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

AI战场识别漏洞频出 以军曾将3600人误判为目标


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
美军在对伊朗的军事打击中首次披露使用AI辅助决策,而类似技术在加沙冲突中已被证实存在10%误判率。


彭博社3月5日报道,能够帮你起草营销邮件或晚餐食谱的同一个人工智能模型,也被用来打击伊朗美国中央司令部在对伊朗的打击行动中,使用了Anthropic公司的Claude人工智能进行“情报评估、目标识别和模拟战场场景”。

报道称,人工智能长期以来一直被用于战争,比如分析卫星图像、检测网络威胁和引导导弹防御系统。但如今,聊天机器人正在战场上投入使用。值得注意的是,所有这些都发生在监管真空中,而且所使用的技术是已知会出错的。


这并非不可靠的人工智能系统首次被用于战争。“薰衣草”(Lavender)是一个人工智能驱动的数据库,曾用于帮助以色列识别与加沙地带的哈马斯有关的军事目标。它并非大型语言模型,而是通过分析海量监控数据(如社交联系和位置历史)为每个人分配1到100的评分。当某人的评分超过特定阈值时,“薰衣草”会将其标记为军事目标。


问题是,根据一份调查报告显示,“薰衣草”的错误率高达10%。牛津大学的玛丽亚罗萨里亚·塔德奥教授称,“大约有3600人被错误地锁定为目标。”

伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨表示,“这些系统存在难以置信的漏洞和极端的不可靠性……而对于战争这样动态、敏感且充满人性因素的事务而言,这尤其危险。”


施瓦茨指出,人工智能在战争中通常被用于加快速度,而这往往会导致不希望看到的结果。决策的制定速度更快、规模更大,而人类的审查却更少。她说,过去十五年里,人工智能在军事上的使用变得更加不透明。

当前关于Anthropic公司与五角大楼争执的公共辩论——涉及人工智能在对美国人进行大规模监视或创造完全自主武器方面,什么是合法和道德的——忽略了一个更大的问题,即这项技术如何在战争中使用缺乏透明度。对于这种容易出错、新颖且未经测试的系统,透明度至关重要。塔德奥说:“我们作为一个社会,还没有决定是否接受由机器来决定一个人是否应该被杀死。”
点个赞吧!您的鼓励让我们进步     还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0244 秒 and 5 DB Queries in 0.0027 秒