预言GPT-4(✅已验证)和会颠覆谁(❓待验证)-预言GPT-4(✅已验证)和会颠覆谁(❓待验证)

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • Kratos666:主要国内的话,真正的人工智能要学的第一件事是怎么闭嘴。[doge]
  • purecyan:ChatGPT只是一只超级鹦鹉,目前所谓“涌现”的看似reasoning的能力是有局限的,可靠的Common Sense Reasoning依然很遥远,我感觉up主太想要去相信ChatGPT,ChatGPT的确也有非常强的迷惑性,或许它能完成一些对人来说很难的回答,但也可以轻松地在一些对人来说很简单的任务上给出错误答案,当然我也很好奇up主有没有什么具体的学界或者业界的科研证据
  • 何大:我也感觉chatgpt很强大,但主要还是语言处理和生成方面的, 而且我感觉他的初衷也是用来说话,而不是用来当一个给出显示问题答案的AI。 我个人的理解啊,造成ChatGPT这种“全知全能”的错觉的,还是语言学习这个东西本身的特殊性。 因为他是通过大量的输入大量的文本来学习语言,而这些描述客观世界的文本,除了抽象语言的文法之外, 还包含了大量的客观世界的规律,好像如果你学习了法语,就或多或少对法国的历史和文化有了更多的了解。 而问题在于ai并不知道这部分规律是不是文法的一部分。 比如说,问“苹果是什么颜色的?” 那么回答“苹果是蓝色的”文法上就已经是一个人在说话了,只不过背后客观世界的逻辑是错的。 但ChatGPT的回答会是“苹果是红色的”,并不是因为逻辑上知道苹果不是红的,而是他学习的文本中苹果是红的。 应该说绝大多数时候ChatGPT都会给出“红苹果”的答案,但还是会时不时的给出“蓝苹果“的答案,也就是大家常说的ChatGPT会”一本正经的说胡话“。 所以目前的使用场景还是类似文本的生成,即你知道问题的答案,只不过你懒得写一篇长篇大论的回答。 而对于如果你压根就不知道问题的答案,那么完全相信ChatGPT还是相当危险的, 应该说bing那个给出相关url的方案就是一个补救措施,目的就是方便你有需要的时候再看看相关的搜索的人的回答。 (*但如果有一天网上都是ChatGPT的写文章,你就不知道到底苹果到底是蓝的还是红的了)
  • 古达达小朋友:chatGPT在原理上还是接近模仿,拟合大量训练数据和反馈得到统计规律来生成可能有用的文字输出。但是目前看来它的模仿能力已经强大到足够“涌现”出“看似理解”和看起来能进行推理的能力。而如果它生成的文字输出看起来能理解我们的自然语言输入,看起来能做出合理泛用的推理,那对于很多任务来说,看起来像乌鸦的鹦鹉是不是真的乌鸦就不重要了。
  • 吃瓜群众xyy:我觉得你太乐观了。我并不觉得ChatGPT是乌鸦。本质上ChatGPT系列模型还是在寻找词汇之间的关联。你可以发现,他明显在胡诌一些问题,比如你问他一些既定的事实,他显然回答不对,这并不需要他生成。你可以说他还处于儿童阶段,随着教材水平的提高(高质量的人工标注的数据集,比如openAI雇人写prompt,打分),他的生成能力也会提高。它将能胜任一些辅助工作,比如你提到的结构化的搬砖工作。同时有一个问题是,人类训练小孩,动物训练幼崽,显然不可能用上全部的互联网文字。所以,以BERT和GPT为代表的LLM真的会通向人工智能之路吗?我非常怀疑。我觉得ChatGPT不是通向AGI的路子,他可以辅助人类生产生活。要让它成为会思考的乌鸦,可能还需要不同于神经网络的方法