| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

将在2024年实现的3项恐怖的AI突破

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
虽然2023年对于人工智能来说,是一个改变游戏规则的一年,但这只是开始,2024年将迎来一系列令人恐惧的突破,包括**通用人工智能**和甚至更加逼真的深度伪造技术。


人工智能(AI)已经存在了几十年,但今年对于这项令人毛骨悚然的技术来说是一个突破性的时刻,OpenAI的ChatGPT为大众创造了实用、易用的AI。然而,人工智能的历史却充满了争议,今天的技术是由一系列失败的实验累积而来的。

总的来说,人工智能的创新看起来有望提升诸如医学诊断和科学发现等领域。例如,一个人工智能模型可以通过分析X光扫描来检测你是否有高风险患肺癌。在新冠病毒流行期间,科学家们也构建了一个能够通过听人们咳嗽的微妙差别来诊断病毒的算法。AI也已被用于设计超越人类构思的量子物理实验。


但并非所有的创新都那么善良。从致命的无人机到威胁人类未来的AI,以下是一些可能在2024年出现的最恐怖的AI突破。

Q-Star:通用人工智能的时代?

我们不清楚为何OpenAI的CEO Sam Altman在2023年底被解职并复职。但在OpenAI的企业混乱中,有谣言传出,有一种称为Q-Star (读作 Q星)的先进技术可能威胁到人类的未来。这个由OpenAI开发的系统可能是通用人工智能(AGI)这个引人注目的概念的具体体现,据路透社报道。关于这个神秘系统我们知之甚少,但如果报道属实,它可能将AI的能力提升到一个新的层级。

通用人工智能是一个假设的转折点,也被称为"奇点",在这个点上,AI变得比人类更聪明。当前的AI在一些人类擅长的领域,如基于语境的推理和真正的创造力,仍然落后。大多数(如果不是所有的)AI生成的内容只是以某种方式重复训练数据。

但是,研究人员称通用人工智能可能比大多数人更好地完成某些工作。 它也可能被武器化,用于创建增强型病原体,发起大规模的网络攻击,或者进行大规模的操纵。


通用人工智能的想法长期以来一直被限制在科幻小说中,许多科学家认为我们永远不会达到这个点。如果OpenAI已经达到了这个转折点,那无疑会令人震惊-但也并非没有可能。我们知道,例如,Sam Altman在2023年2月就已经开始为通用人工智能做前期准备,他在博客文章中概述了OpenAI对通用人工智能的方法。我们也知道专家们开始预测即将发生的突破,包括英伟达的CEO Jensen Huang在11月份表示,通用人工智能在未来五年内将变得触手可及,这是巴伦报报道的。2024年会是通用人工智能的突破年吗?只有时间会告诉我们答案。



(示意图)


影响选举结果的超现实深度伪造

人们对网络威胁最重要的一种担忧是深度伪造技术** -- 完全捏造的人像图片或者视频,可能被使用来误导他们,污名化他们,甚至对他们进行欺凌。但深度伪造的AI技术还没有发展到足以构成重大威胁的程度,但这个情况或许即将改变。

AI现在可以实时生成深度伪造 - 换句话说,现场视频 - 它现在变得非常擅于生成人脸,以至于人们无法分辨真假。另一项发表在11月13日的《心理科学》杂志上的研究揭示了"超现实主义"的现象,其中AI生成的内容比实际的真实内容更有可能被视为"真实"。

这将使得人们几乎不可能用肉眼分辨事实与虚构。尽管有工具可以帮助人们检测深度伪造,但这些工具还没有成为主流。例如,英特尔制造了一个可以实时检测深度伪造的设备,其工作方式是使用AI来分析血液流动。但是据BBC报道,该设备,被称为FakeCatcher,的结果参差不齐。

随着生成型AI的成熟,一个恐怖的可能性是,人们可能使用深度伪造技术来试图影响选举结果。例如,据金融时报报道,孟加拉正准备迎接一个可能被深度伪造技术干扰的1月选举。当美国为2024年11月的总统选举做准备时,AI和深度伪造技术可能会改变这个关键投票的结果。例如,加州大学伯克利分校正在监控竞选中的AI使用情况,NBC新闻也报道说,许多州缺乏法律或工具来应对人工智能生成的假信息的激增。
不错的新闻,我要点赞     还没人说话啊,我想来说几句
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0335 秒 and 4 DB Queries in 0.0032 秒