发布日期:2024-08-11 11:57 点击次数:173
IT之家 6 月 7 日消息,腾讯混元团队联合中山大学、香港科技大学联合推出全新图生视频模型“Follow-Your-Pose-v2”,相关成果已经发表在 arxiv 上(IT之家附 DOI:10.48550/arXiv.2406.03035)。
据介绍,“Follow-Your-Pose-v2”只需要输入一张人物图片和一段动作视频,就可以让图片上的人跟随视频上的动作动起来,生成视频长度可达 10 秒。
与此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗时更少的情况下,支持多人视频动作生成。
此外,该模型具备较强的泛化能力,无论输入人物是什么年龄、服装,背景如何杂乱,动作视频的动作如何复杂,都能生成出高质量的视频。
正如IT之家前一天的报道,腾讯已经公布了针对腾讯混元文生图开源大模型(混元 DiT)的加速库,号称大幅提升推理效率,生图时间缩短 75%。
官方表示,混元 DiT 模型的使用门槛也大幅降低,用户可以基于 ComfyUI 的图形化界面使用腾讯混元文生图模型能力。
相关阅读:
《腾讯混元文生图开源大模型加速库发布:生图时间缩短 75%》金操盘网
","del":0,"gnid":"9f88f332d7f699022","img_data":[{"flag":"2","img":[{"desc":"","height":"928","title":"","url":"http://p9.img.360kuai.com/t11508c75c8c965d054927f49b0.jpg","width":"727"},{"desc":"","height":"1280","title":"","url":"http://p9.img.360kuai.com/t11508c75c88c353c7bcdd848c0.jpg","width":"895"}]}],"original":0,"pat":"art_src_1,fts0,sts0","powerby":"cache","pub_time":1717689600000,"pure":"","rawurl":"http://zm.news.so.com/d3f56b379d8e550c02eab00e3729e840","redirect":0,"rptid":"456ab8b16d695513","rss_ext":[],"s":"t","src":"IT之家","tag":[{"clk":"ktechnology_1:香港科技大学","k":"香港科技大学","u":""},{"clk":"ktechnology_1:中山大学","k":"中山大学","u":""},{"clk":"ktechnology_1:腾讯","k":"腾讯","u":""}],"title":"腾讯联合中山大学、港科大推出图生视频模型Follow-Your-Pose-v2","type":"zmt","wapurl":"http://zm.news.so.com/d3f56b379d8e550c02eab00e3729e840","ytag":"科技:互联网:行业要闻","zmt":{"brand":{},"cert":"IT之家官方账号","desc":"爱科技,爱这里 - 前沿科技人气平台","fans_num":29241,"id":"2951916302","is_brand":"0","name":"IT之家","new_verify":"5","pic":"https://p0.img.360kuai.com/t01d48572270765952c.jpg","real":1,"textimg":"https://p9.img.360kuai.com/bl/0_3/t017c4d51e87f46986f.png","verify":"0"},"zmt_status":0}","errmsg":"","errno":0}