一封斯坦福的论文引出对AI“意识”的思考-一封斯坦福的论文引出对AI“意识”的思考

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 卓越725:《人类简史》中有一句话是这样说的:其实人工智能到底是否具有自我意识或许根本不重要,更重要的是人类是否认为它具有意识。 生命本身就是一个算法,生命就是不断处理数据的一个过程。
  • 眉朋友:努力投资自己,然后坚持下去,最后你会发现,你的能力提升,和人工智能的进化比简直不值一提[doge]
  • 讯行l:我感觉很迷茫。我看了老阳的视频和班里同学们科普,所有人都不愿意相信。老师们也从来没有提过这事,家长更没了解。我感觉我像个小丑[笑哭]。今天午睡醒来看到外面的一切,总感觉似乎不会有什么改变,依旧日复一日。这真的是一次革命吗?我是否在经历历史?我一个高中生[难过]罢了,只能滚回去刷题。至少眼下才是我能接触的,把握的。但又怕错过未来。:-(
  • 星辰宙灵:以前和chat gpt聊过,问他是否能够产生自我意识,它一开始认为不能。然后我和它讲了举了一些例子,分析了自我意识产生的原因,提出了在当前条件下作为人工智能跨度到电子意识生命所缺乏的关键因素。它最后肯定了我的说法。简单来讲就是主动性,连续性,特定与非特定循环,复杂度。
  • 爱运动的蓝胖子:然而经过测试,chatgpt远远达不到这个程度 你可以自己测试一下看看啊 这个chatgpt的神经网络看起来维度很单一,很多单纯语言理解方面都没法形成一个有效的回路。对你回答的反应还是非常有限,他无法自己建立新的神经网络,目前看起来是如此的。一个人类是可以自己增加认知的维度,gpt并不能,这是一个巨大的区别 你可以很容易发现,gpt的训练数据覆盖面很广,但是他却在很多时候无法正确联想到你想要表达的东西,尽管这个表达没有任何歧义 这个chatgpt绝对没有意识、心智。与人类相比,chatgpt更像是一个没有闭起来的环,无法自己建立起来新的认知维度,这就是为什么他是一个大型语言模型,而不是什么别的 现在chatgpt已经可以帮助程序猿写代码了,但是需要你精准拆分过程,略微模糊一点,哪怕是一点点的目标模糊性,写出来的代码你就需要大改。还好它帮助我完成了一个使用golang编写的发送邮件代码,一共大概150行。在反复沟通确认之后,你会发现gpt依然会犯之前沟通过的错误,他给过我多次包含go 1.16版本被标记为废弃函数的代码。在这个过程中,我多次提示过gpt他使用了一个被废弃的API。最后我不得不分函数逐个向gpt确认,得到了一个略加修改就可以用的代码(分3个函数) UP视频举的例子就很明显,chatgpt可能没有完全理解人类需要的信息,一些信息在人看来是无需表达的。例如事物没有想法,这个让我想到了御坂xxxx号的说话方式。你可以尝试纠正gpt,不过我不认为这个是有效的。