这段文字介绍了人工智能生成的视频,并将其分为三大类:纯文本视频、基于文本和图像的视频以及基于视频的视频。
1. 纯文本视频:
- 纯文本视频是由人工智能仅使用文本生成,是目前最难的技术。
- 作者展示了去年和今年的纯文本视频的对比,说明该技术已取得很大进步。
- 作者还提到了其他优秀的纯文本视频生成工具。
2. 基于文本和图像的视频:
- 基于文本和图像的视频利用文本和图像生成视频,可以生成更生动的视频。
- 作者展示了不同工具的生成效果,并解释了其背后的技术原理。
3. 基于视频的视频:
- 基于视频的视频利用现有视频进行处理,例如视频编辑、视频修复等。
- 作者介绍了该技术的应用场景,并展示了相关工具。
此外,作者还介绍了OperaGX浏览器,并赞扬了其功能。
最后,作者强调了人工智能视频生成技术的快速发展,并鼓励观众探索更多相关内容。
本视频是目前所有与视频生成和处理相关的最佳AI技术的超级合集。从Deepfake到Stable Diffusion,这是一个展示AI技术发展程度的奇妙旅程。所有研究/应用程序来源[CogVideo] https://github.com/THUDM/CogVideo[Zeroscope V2] https://huggingface.co/spaces/hysts/zeroscope-v2[Modelscope] https://modelscope.cn/models/damo/text-to-video-synthesis/summary[Runway Gen-1 & Gen-2] https://app.runwayml.com/[Pika Labs] https://www.pika.art/[AnimateDiff] https://animatediff.github.io/[DeepFaceLab] https://www.deepfakevfx.com/downloads/deepfacelab/[DeepFaceLive] https://github.com/iperov/DeepFaceLive[SimSwap] https://github.com/neuralchen/SimSwap[Roop] https://github.com/s0md3v/roop[Face Fusion] https://github.com/facefusion/facefusion[FOM Model] https://aliaksandrsiarohin.github.io/first-order-model-website/[DaGAN] https://harlanhong.github.io/publications/dagan.html[Wav2Lip] https://github.com/Rudrabha/Wav2Lip[SadTalker] https://github.com/OpenTalker/SadTalker#generating-3d-face-from-audio[HeyGen] https://www.heygen.com/[Ebsynth] https://ebsynth.com/[TemporalNet] https://huggingface.co/CiaraRowles/TemporalNet2[Tokyo Jab Method] https://www.reddit.com/r/StableDiffusion/comments/11zeb17/tips_for_temporal_stability_while_changing_the/[CoDeF] https://qiuyu96.github.io/CoDeF/[TokenFlow] https://diffusion-tokenflow.github.io/[Warp Diffusion] https://www.patreon.com/sxela[DeForum] https://deforum.github.io/所有结果相关来源(按出现顺序)[Google Doc] https://docs.google.com/document/d/1e3gR7oZety1xe-CFNZrgyjhyUWSs8NKYOvzhUj_s9Is/edit?usp=sharing