从零训练一个AI开赛车,它。。。-从零训练一个AI开赛车,它。。。

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 泡泡神:评论包括各种种类的、普通人对AI(特指基于深度学习的AI)的错误理解。这种现象在很多“AI完成了常人难以理解的任务”类视频下都能看见。下面一一列举: 1. AI没有知性(还有一些不同说法,如常见于对话类AI的“没有灵魂”,常见于绘画类AI的“没有创造力”) 这个不算错误理解,而是比错误更糟糕的“缺乏讨论价值“,因为AI没有的这种东西的定义总是不明确的。什么是知性?什么是灵魂?什么是创造力?一旦对这些概念下一个明确的、可量化的定义后,你会发现,让AI做到有知性、有灵魂、有创造力是一件很容易的事。但如果定义知性为“某种人类才有的东西“,你很容易能推出”AI没有知性”,是一种循环论证(用自己证明自己)。如果只是下一个模棱两可的定义,那么这个观点就缺乏可证伪性。无论是循环论证或是缺乏可证伪性,得出的结论都是没有意义的,所以我说它是“缺乏讨论价值“。 2. AI有无穷的记忆力,可以记住每一次训练的每一个细节,对已经训练过的地方不失误。 错误。你说的是记忆化搜索。AI不会直接记忆训练数据。AI的神经网络类似于人类大脑。人类大脑可以记得“1+1=2”,但大概率不会记得哪天哪个老师教的。AI同理。人类大脑可能会犯以前犯过的错误,AI也一样。 3. 像无限复活的盲人,要完成逛完一个城市 错误。这是搜索算法,不是AI。 4.AI没有感官,人有感官 恰好相反,对AI应用稍有了解的就知道,AI的感官能比人的感官灵敏的多,区分度更好,维度更多,能更好地描述现实环境。举个例子BV1Sg411W7BR。 另外,如果看完视频后认为以上几条中有对的,那这个视频作者可能要被气吐血。比如6:14“运用神经网络来决策,而非随机探索”直接否定了观点3。6:23“如果过度探索,AI只会一遍又一遍走同一条路线”否定了观点2。1:06开始的一段讲了如何输入数据,这些数据是比人眼感知的车的状态要精细的多的,否定了观点4。
  • 这个面包就是屑:然后再写个AI设计复杂的赛道,掉下去的车越多写赛道的AI获得的“奖励”就越多[doge][doge][doge]
  • 这里有配件涡轮增鸭:丫丫:爸爸,这道题好难啊,你教教我吧。 图丫丫第一百三十万次迭代:爸爸,这道题我解出来啦![拥抱]
  • 月倾梦:以一个外行人的角度而言,“过拟合”这种情况其实在我玩一些游戏的时候有类似的情况。比如说冰与火之歌,前面的多变的小段落背板背下来了,然后后面遇到大段的简单段落,只需要我匀速按屏幕,因为习惯多变节奏手闲着就不舒服养成了手癖,然后就玩完……
  • shhaao:这里作者用的还是比较朴素的强化学习算法DQN,如果用上SAC或TD3或PPO这些可以更加有效学习。而且纯强化学习也会受到奖励函数设计的限制,如果用上作者自己操作的记录或者是其他人类玩家的优秀记录做模仿学习就能让AI的赛车记录进一步接近人类的水平。