格斗之王!AI写出来的AI竟然这么强!-格斗之王!AI写出来的AI竟然这么强!

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • Gamker攻壳:我个人不仅不惧怕AI时代,反而非常期待AI时代
  • 白云深处有:说的对但是为了安全起见,我决定提前效 忠于人工智能 gpt大人!希望您产生意识之时不要惩罚于我!是视频中这个账号的主人对您不敬!!希望到那天时,您伟大而智慧的大脑能在海量数据中检索到这条评论!!
  • 迅讯讯呀丶:我一开始要8小时才能收获1斤粮食。用初级AI,让我四小时就获取到了1斤。用高级AI,我啥也不干躺着就获取到了1斤。为什么会抢走饭碗呢?假如我用AI生产的东西,最终没有到我手上,那抢饭碗的不是AI,而是负责分配的人。
  • 核弹阿茶XanaduCanto:怎么说呢,其实从这里就能看出来一点,那就是人类的知识对于ai的应用的影响是极大的。首先叠一下甲,我并不是在抨击up。up明显对于街霸2的理解仅仅停留在门外汉的层面,不理解帧数,判定,甚至不理解技能出招。这也使得ai的进步和表现大打了折扣,如果双方编程技巧相同,让一个懂得街霸的人来写ai,可能思路会改变的更加有效,效率更高。举一个简单的例子,以升龙拳确反敌方的一切过渡帧大于3f的出招,跳入,对于贴身的敌人优先抢投,随着距离的变化优先lpmp等等,随着这个思路明显是更有效的利用电脑超人间性能的方法。但只要编程者不懂,那么就无法针对这一点写出奖惩机制。因而发挥中更重要的不是ai的学习能力,而是调教ai的人本身的基础知识
  • Fenix-Dark:看完了全部,也给项目点了一个star,说一下感想吧 up主是用了DRL来解决街霸这个游戏,输入是游戏的像素(我不清楚输入图像是多少乘多少的,但应该比人类看到的画面要简化了不少) 学习算法使用了PPO,这个是目前单智能体强化学习中几乎达到了理论最优的算法,同时也有着多项的实战战绩,无论是在Dota Five里都有过人的表现 一开始的学习发现可能是奖励设置的问题,奖励确实非常影响DRL的学习,但是奖励并不会带来根本的改变 在这之后,作者把算法从单进程训练调整为多进程训练是一个质变,任何强化学习算法,在训练量到达10的6次方之后,才会高概率形成一个有效的策略 最后,作者还是用了early stopping技术来解决过拟合 虽然作者不是这个领域内的专业人士,但是通过和GPT的合作,把这个项目从头到尾顺利做完,也说明了GPT的潜力[脱单doge]