LivePortrait:一种让照片动起来的开源技术方案
当前位置:点晴教程→知识管理交流
→『 技术文档交流 』
:LivePortrait:一种让照片动起来的开源技术方案 LivePortrait:一种让照片动起来的开源技术方案LivePortrait 是能让照片动起来的开源技术方案。需提供“谁动”和“如何动”的素材,试用网址用于研究学习。它高效且可控,论文有原理介绍。技术人员可参考官方文档搭建,包括创建新环境、下载源码和准备运行环境等,还需下载模型权重,最后执行命令生成结果,更多内容见官方说明。 关联问题:LivePortrait要付费吗模型权重在哪下载自己搭建难不难有一款开源项目,它主要功能就是让静态照片动起来。 你只需要提供两个素材,第一个素材是让谁动。就比如下面的这个兵马俑。 第二个素材是如何动,就比如下面这个视频。 然后,将这俩数据交给开源项目处理,最终就得出如下结果。 不但对一个人有效,多个人也可以了。 不但对人类有效,萌宠动物或者二次元也行。 试用网址是:huggingface.co/spaces/Kwai… 这个网址是研究和学习用的。 只需要上传那两个素材,然后点击确定。 就可以获得一个会动的视频。 好了。上面这些操作,其实就可以卖钱了。 有很多人利用信息差,白嫖这项开源技术。用上面的网址,制作一些亲人照片怀念视频、萌宠搞怪视频进行售卖。你得开个会员,或者花上九块九才能使用一次。 下面部分内容是给技术人员看的。如果你对此感兴趣,想进一步了解其中的原理,可以继续阅读。 这项开源框架叫LivePortrait,它是具有拼接和重定向控制的高效肖像动画。它的论文概要内容如下: 肖像动画旨在从单一源图像合成逼真的视频,将其用作外观参考。我们没有遵循主流的基于扩散的方法,而是探索和扩展了基于隐式关键点的框架的潜力,从而有效地平衡了计算效率和可控性。为了提高生成质量和泛化能力,我们将训练数据扩展到大约6900万个高质量帧,采用混合图像-视频训练策略,升级网络架构,并设计更好的运动转换和优化目标。此外,我们发现紧凑的隐式关键点可以有效地表示一种混合形状,并精心提出了一个拼接和两个重新定位模块,它们利用一个计算开销可忽略不计的小型MLP来增强可控性。实验结果表明,与基于扩散的方法相比,我们的框架是有效的。在RTX 4090 GPU上使用 PyTorch的生成速度显著达到12.8毫秒。推理代码和模型可在 github.com/KwaiVGI/Liv… 获得。 技术人员如何自己搭建呢? 对于技术人员,最直观的方式就是去官方的ReadMe.md文档查看 github.com/KwaiVGI/Liv… 这里面不但有入门操作,项目源码,还有版本更新说明。 比如在7月19日,框架开始支持视频编辑,又名v2v。照片到视频是p2v,即picture to video。v2v就是视频到视频。 图片到视频是让静态图片动起来,感觉很有用。 但是视频到视频有什么用呢? 举个例子,比如有个美女跳舞,她走的是冷酷风。但是老板想让她走嘻哈风,但是美女就是不从。这时就可以找个爱笑的女孩子,通过v2v让不爱笑的美女笑起来。 其实,你们网上看得那些武松和潘金莲、孙悟空和白骨精的改编版,估计用的也是v2v这项技术。 好了,下面就说说如何搭建和使用。7月25日,官方发布了安装包,可以通过下载安装包直接使用。甚至连搭建都不用了。解压即可使用。 两个下载地址如下: 如果,你还有执念,就是想自己搭建,并且融于到自己的产品中。那么继续往下看。 我们用conda管理环境,首先要准备一个新环境。相当于给项目批了一块地。 ini代码解读复制代码 然后,将源码下载下来,存放到一个位置。并且进入文件目录。 bash代码解读复制代码 下载源码,可以用git形式。也可以直接下载zip文件。 第三步,准备运行支持环境。上面新建了一个环境,批了一块地。现在要进行装修和水电网的铺设。安装采用pip。 bash代码解读复制代码 requirements.txt里面是: ini代码解读复制代码 requirements_macOS.txt里面是: ini代码解读复制代码 他们都有requirements_base.txt,然后区分了一些系统特性。 我们看requirements_base.txt里面是这样: ini代码解读复制代码 很明显,它是需要GPU的。就算是你下载上面那个windows版本的压缩包,也需要你电脑具有GPU。 准备完环境就具备了运行资格。下一步是下载模型权重。不用你训练,只需要你下载人家训练好的模型,放到你电脑中使用即可。 官方的给出的方式比较国际化: bash代码解读复制代码 其实,在实际操作中,一般很难执行。最好还是去用浏览器下载,然后放到文件目录中。 以下是百度云下载地址: 下载完了,让文件解压并将它们放在./pretrained_weights。其实这一步和上面命令行执行的步骤一样。哪一个能走通,更好实现,就走哪一步。 但是,不管怎样,你要确保最终存放模型的文件夹里是这样的结构: markdown代码解读复制代码 最后一步啦,最后一步!开始享受使用过程!准备好两类素材,一个让什么动,一般是图片(假设名字叫p.jpg)。另一个如何动,一般是视频(假设名字叫v.mp4)。然后在环境中,在项目目录下,执行以下命令: css代码解读复制代码 此时会在animations文件夹下生成结果。 如果你一时间找不到素材,也可以使用项目里提供的素材。位置在 assets/examples/下。里面有图片也有视频。 如果想要操作视频到视频,命令如下: 代码解读复制代码 关于更多的内容,开发者可以去看官方说明,里面讲解的很详细 该文章在 2024/11/30 11:01:32 编辑过 |
关键字查询
相关文章
正在查询... |