直接生成16秒高清视频 我国自研视频大模型Vidu发布-直接生成16秒高清视频 我国自研视频大模型Vidu发布

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 天秀之爆炸秀:vidu的论文发布是要比sora早一年多的。国内投资商其实是有鲶鱼效应的,看到老外的东西落地了才敢投资,特斯拉之余电车,之前波士顿动力那个机器人也是,看到老外融资了,才敢投国内的项目,总体来说,摸石头过河摸惯了,投资商对风险控制太高了
  • HoloNesan:热知识,sora没开源,而且发布的论文比sora还要早一年
  • Kfeimeo:其实侧面也看到国内资本比较畏惧风险。这其实弊端,把论文更早的优势掩盖了.这方面得在加强一下啊[支持]
  • jessie520530_喵喵喵:演员再不认真演戏的话,这个职业也就没有存在的必要了
  • 罪_resoL_罰:外行看门道,内行看热闹。 在一个大模型的细分垂直领域的子模型真没必要争辩太多,模型主要就是层级架构堆出来的,知道扩散模型diffusion和烂大街的transformer,也已知在视频生成层面,大概效果或者优化都差不多。就像去饭馆吃个辣椒炒肉回来自己复刻一下。味道知道了具体要加什么知道了,至于是青椒 小米椒 灯笼椒 尖椒全凭感觉实验就行了,也不用从地里培养,超市里买完直接用就行了,都是现成的。 说谁家的正宗也没有意义,更没必要上升到某些层面。技术含量肯定是有的。只不过这个方向门槛主要就在于数据和计算量,需要硬件支持。一般个人和组织没有条件进行实验。ps:类似的图像生成已经烂大街了 另外sora也就那样吧,backbone早就扒光了,也没必要吹。离按需,可控,可复制还有一段距离。