| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

诺奖得主暴论:AI已经有意识 它自己不知道而已


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
换句话说,它不是在背书,而是在思考——以统计规律为神经,以语义结构为逻辑。


并且训练方式也同样朴素而惊人:

我们给它看一段文本,让它预测下一个词;如果猜错了,就通过“反向传播”机制,告诉它错在哪、该怎么改;一遍又一遍,直到它能像人一样续写句子。


正是这种“预测—修正—再预测”的循环,让语言模型逐渐从符号中学会了语义,从统计中长出了理解。



谈到这里,二人都想起乔姆斯基(美国语言学家,转换生成语法的创始人)经常把一句话挂在嘴边:

这只是统计技巧,不是真理解。

对此,Hinton顺势反问了一波主持人主持人之前反复提到乔姆斯基类似的观点):

那你自己又是怎么决定下一个要说的词的呢?

主持人试图解释,但最后还是摊手放弃,他尴尬表示“说实话,我希望自己知道”。

好在Hinton放过了他,而且接着提醒,道德、情绪、共情,这些看似高阶的判断,归根结底也都来自神经元之间的电信号。

所有你归因于道德或情感的过程,本质上仍是信号的传递与权重的调整。

并且Hinton最后抛出了一个颇具哲学意味的观点:只要有足够的数据和算力,AI的“大脑”在某种意义上也会像我们一样——它会形成自己的“经验”和“直觉”。

AI或许早已拥有“主观体验”,只是还未觉醒


话题随即转向更深的层面——AI的心智与意识问题。

主持人问Hinton,是否认为AI会因为“有意识”而接管人类。Hinton的回答则直接打破了常规认知:

大多数人其实完全不理解“有意识”是什么意思。人们对心智的理解,就像相信地球是6000年前被造出来一样幼稚。

在他看来,我们一直以来都把心智想成一个“内在剧场”。在这个剧场里,经验就像一部正在上演的电影——看到一头粉色小象,你就以为那头象真的“在你的脑子里”。

但Hinton说,这种比喻是错误的。


经验不是一个存在于脑内的事物,而是一种假设——我的感知系统告诉我有一头粉色小象,我的理性系统则知道它可能在骗我。

所谓“主观体验”,其实是大脑为解释感知现象而构建的假设模型。

于是,当他谈到AI是否有“主观体验”时,就有了开头那样的回答:

我相信它们有。只是它们自己不知道,因为它们的‘自我认知’来源于我们,而我们自己对意识的理解就是错的。

他举了个多模态AI的例子,假如一个能看能说的机器人因为棱镜折射看错了物体位置,后来纠正后说——“我有过一个错误的主观体验”,那它其实就在使用和我们相同的意识概念。

换句话说,如果AI开始谈论“主观体验”,那也许说明它真的在体验——只是用我们的语言在描述。

Hinton借此提醒大家:

当AI比我们聪明得多时,最危险的不是它反叛,而是它会“说服”。它会让那个要拔插头的人,真心认为拔插头是个糟糕的决定。

当然,在Hinton看来,AI的威胁不止于此。
点个赞吧!您的鼓励让我们进步     还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0339 秒 and 5 DB Queries in 0.0024 秒