用 GPT 写脚本,用剪映做动画,创意一分钟落地

GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

AI创作——AI生成创意视频

在这里插入图片描述

一. 背景

用 GPT 写脚本,用剪映做动画,创意一分钟落地。
GPT 负责创意和脚本,剪映负责画面和动画,让 AI 成为创作搭档,把灵感快速变成可观看、可分享的动画内容。

二. 生成流程

主要分为两个步骤:GPT生成创意脚本、剪映通过脚本生成动画。
下面以一个例子说明:

1. GPT生成创意脚本

提示词如下:

请帮我设计一个AI应用场景,结合起来应用自然: 场景1:进小区时,通过人脸识别,闸机开门; 场景2:对着小米手机说:“小爱同学,播放音乐。”手机就开始播放音乐; 场景3:对着智能音响说:“天猫精灵,现在几点钟?”,天猫精灵会给出答案; 场景4:对着智能音响说:“小度小度,关闭窗帘。” 窗帘会自动关闭。 请你将上述场景串联起来,自然流畅。
要求:生成儿童版动画脚本(12 分钟),语言简单、画面可爱、节奏慢,非常适合 36 岁小朋友理解,动画中的主人翁为郭景航。

生成结果:

🎬 儿童动画脚本:《郭景航和他的AI小帮手》

目标观众:36 岁小朋友
时长:约 90 秒
风格:明亮卡通、幽默生动
核心逻辑:AI看、听、懂、帮忙

🎞️ 镜头 1012 秒)|小区门口

画面

郭景航背着小书包走到小区门口

闸机有卡通小眼睛在“眨眼”

旁白

“郭景航回家啦!小区门口有个聪明的闸机,会认识他哦~”

动作/特效

闸机“滴”一声,自动打开

郭景航开心地走进去

🎞️ 镜头 21228 秒)|路上听音乐

画面

郭景航拿出小米手机

手机屏幕亮起来,像有小脸在笑

郭景航(童声)

“小爱同学,播放音乐~”

动作/特效

手机播放轻快的音乐

郭景航一边走一边摇头晃脑,开心地哼唱

旁白

“他说一句话,手机就知道他想听音乐啦!”

🎞️ 镜头 32850 秒)|到家问时间

画面

郭景航进家门,坐在沙发上

客厅里智能音响带卡通小眼睛

郭景航(童声)

“天猫精灵,现在几点钟呀?”

音响(童声)

“现在是晚上七点整!”

动作/特效

郭景航眨眨眼,指着音响笑

音响闪闪发光

旁白

“音响听懂了问题,还会回答郭景航哦!”

🎞️ 镜头 45075 秒)|关窗帘

画面

郭景航看向窗户

天色渐暗,窗帘微微晃动

郭景航(童声)

“小度小度,关闭窗帘~”

动作/特效

窗帘自己慢慢关闭

郭景航拍手欢呼

旁白

“小度小度听懂了,帮郭景航关上了窗帘。”

🎞️ 镜头 57590 秒)|总结

画面

郭景航坐在沙发上,身边有手机、音响、窗帘动画化的小笑脸

整个房间温暖、明亮

旁白

“看一看,听一听,懂一懂,帮一帮~
AI小帮手让郭景航的生活变得好方便、好开心!”

字幕
👀 看一看 → 👂 听一听 → 🧠 懂一懂 → 🤝 帮一帮

2. 在剪映中生成动画

打开剪映软件,点击AI故事成片
再将GPT生成的脚本(文案)贴如对话框中,点击生成视频,几分钟后即可获得想要的动画效果。
在这里插入图片描述
生成的动画如下:

视频效果

您可能感兴趣的与本文相关的镜像

GPT-oss:20b

GPT-oss:20b

图文对话
Gpt-oss

GPT OSS 是OpenAI 推出的重量级开放模型,面向强推理、智能体任务以及多样化开发场景

好的,下面是使用GPT2模型进行文本分类的Python代码,具体解释见注释: ```python import torch from transformers import GPT2Tokenizer, GPT2Model from torch.utils.data import Dataset, DataLoader # 定义分类任务数据集 class MyDataset(Dataset): def __init__(self, texts, labels, tokenizer, max_len): self.texts = texts self.labels = labels self.tokenizer = tokenizer self.max_len = max_len def __len__(self): return len(self.texts) def __getitem__(self, idx): text = self.texts[idx] label = self.labels[idx] # 将文本转换成token inputs = self.tokenizer(text, add_special_tokens=True, max_length=self.max_len, padding='max_length', truncation=True, return_tensors='pt') inputs['labels'] = torch.tensor(label) return inputs # 加载GPT2模型和分词器 tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2Model.from_pretrained('gpt2') # 定义分类任务数据 texts = ['I love playing football.', 'I hate studying.', 'I enjoy watching movies.'] labels = [1, 0, 1] # 定义分类任务数据集 dataset = MyDataset(texts, labels, tokenizer, max_len=20) # 定义分类任务数据加载器 loader = DataLoader(dataset, batch_size=2) # 定义分类任务训练函数 def train(): model.train() optimizer = torch.optim.Adam(model.parameters(), lr=1e-5) criterion = torch.nn.CrossEntropyLoss() for batch in loader: optimizer.zero_grad() inputs = {k: v.reshape(-1, v.size(-1)) for k, v in batch.items()} outputs = model(**inputs) logits = outputs.last_hidden_state[:, -1, :] # 取最后一个token的输出作为分类结果 labels = inputs['labels'].reshape(-1) loss = criterion(logits, labels) loss.backward() optimizer.step() # 进行分类任务训练 for i in range(10): train() ``` 该代码使用GPT2模型进行文本分类,首先定义了一个分类任务数据集`MyDataset`,其中将文本转换成token,再将token和标签打包成一个输入。 然后加载GPT2模型和分词器,定义了分类任务数据和数据集,再定义了分类任务数据加载器,将数据分批次加载。最后定义了分类任务训练函数,使用Adam优化器和交叉熵损失函数进行训练。 最后通过多次训练,得到分类任务的结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

guopeiAI

请博主加个火腿

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值