python-chatgpt自动化批量改写文章-基于gpt-3-5-turbo模型

本文介绍了如何通过Python调用OpenAI的ChatGPTAPI和GPT-3.5Turbo模型,展示了一种基于上下文提问的方法。GPT-3.5模型相比GPT-3成本更低且响应更快,支持在对话中记住历史信息。此外,文中提供了代码示例,帮助用户理解如何实现与AI的多轮对话,并分享了相关项目的链接和资源。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者:虚坏叔叔
博客:https://xuhss.com

早餐店不会开到晚上,想吃的人早就来了!😄

在这里插入图片描述

一、ChatGPT官方文档介绍:

在这里插入图片描述

在这里插入图片描述

  • ChatGPT API—0.002美元,1000个token。
  • 比之前的GPT-3.0,成本直接降低了90%。
  • Whisper API—0.001美元,10秒语音转录
  • 基于gpt-3.5-turbo模型,在微软Azure上运行
  • 大客户(每天超过4.5亿个token)选择专用实例更实惠
  • 默认情况下,提交的数据不再用于AI训练

messages中的centent就是我们要提问的问题,可以看到chatgpt已经支持基于上一个问题进行提问了

二、Python调用具体方法:

1.升级openai模块

在这里插入图片描述

2.导入openai模块

在这里插入图片描述

3.Python调用gpt-3.5模型代码

在这里插入图片描述

4.完整代码:让chatgpt基于上下文回答

import openai
openai.api_key = "填写你的openai key"
 
conversation=[{"role": "system", "content": "You are a helpful assistant."}]
while True:
    prompt = (input("请输入您的内容:"))
    conversation.append({"role": "user","content": prompt})
    response = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        messages = conversation,
        temperature=1,
        max_tokens=2048,
        top_p=0.9
    )
    conversation.append({"role": "assistant", "content": response['choices'][0]['message']['content']}) #将上一次会话信息返回给chatgpt
    print("\n" + response['choices'][0]['message']['content'] + "\n") #打印答案

5.拓展:让chatgpt记忆第一句话,并基于上下文回答(推荐)

import openai
openai.api_key = "填写你的openai key"
 
 
conversation=[{"role": "system", "content": "You are a helpful assistant."}]
max_history_len = 5 #保存5个会话给chatgpt
first_message = None
while True:
    prompt = (input("请输入您的内容:"))
    if first_message is None:
        first_message = prompt # 存储第一句话
        
    conversation.append({"role": "user","content": prompt})
    prompt_history = "\n".join([f"{i['role']}: {i['content']}" for i in conversation])
    prompt = f"Conversation history:\n{first_message}\n{prompt_history}"
 
    
    if len(conversation) > max_history_len:
        conversation = conversation[-max_history_len:]
 
       # 将第一句话添加到生成的 prompt 中
    conversation.insert(0, {"role": "user", "content": first_message})
        
    response = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        messages = conversation,
        temperature=1,
        max_tokens=1024,
        n=1,
        timeout=15,
        stop=None,
        top_p=0.9
        
    )
    conversation.append({"role": "assistant", "content": response['choices'][0]['message']['content']})
    print("\n" + response['choices'][0]['message']['content'] + "\n")

三、GPT-3.5跟ChatGPT网页版用的都是同一个模型

1、GPT-3.5模型比GPT3更便宜

2、GPT-3.5模型比GPT3响应速度快了接近一倍多

3、GPT-3.5可以基于上一个问题来提问

4、GPT-3.5模型的答案更完美

总结

最后的最后
由本人水平所限,难免有错误以及不足之处, 屏幕前的靓仔靓女们 如有发现,恳请指出!

最后,谢谢你看到这里,谢谢你认真对待我的努力,希望这篇博客对你有所帮助!

你轻轻地点了个赞,那将在我的心里世界增添一颗明亮而耀眼的星!

💬 往期优质文章分享

🚀 优质教程分享 🚀

  • 🎄如果感觉文章看完了不过瘾,可以来我的其他 专栏 看一下哦~
  • 🎄比如以下几个专栏:Python实战微信订餐小程序、Python量化交易实战、C++ QT实战类项目 和 算法学习专栏
  • 🎄可以学习更多的关于C++/Python的相关内容哦!直接点击下面颜色字体就可以跳转啦!
学习路线指引(点击解锁)知识定位人群定位
🧡 Python实战微信订餐小程序 🧡进阶级本课程是python flask+微信小程序的完美结合,从项目搭建到腾讯云部署上线,打造一个全栈订餐系统。
💛Python量化交易实战 💛入门级手把手带你打造一个易扩展、更安全、效率更高的量化交易系统
❤️ C++ QT结合FFmpeg实战开发视频播放器❤️难度偏高分享学习QT成品的视频播放器源码,需要有扎实的C++知识!
💚 游戏爱好者九万人社区💚互助/吹水九万人游戏爱好者社区,聊天互助,白嫖奖品
💙 Python零基础到入门 💙Python初学者针对没有经过系统学习的小伙伴,核心目的就是让我们能够快速学习Python的知识以达到入门

🚀 资料白嫖,温馨提示 🚀

关注下面卡片即刻获取更多编程知识,包括各种语言学习资料,上千套PPT模板和各种游戏源码素材等等资料。更多内容可自行查看哦!

请添加图片描述

<think>好的,我现在需要回答用户关于通义千问大模型的问题。首先,用户想知道助手的身份和模型类型,以及通义千问大模型是什么。根据用户提供的引用内容,我需要综合这些信息来构建一个清晰准确的回答。 首先,查看引用[3],里面提到通义千问是阿里达摩院自主研发的超大规模语言模型,属于通义大模型系列的一部分,包括内容生成、音频处理和AI绘画。引用[2]和[4]提到了通义千问的API调用和具体应用,比如文本生成和改写。引用[1]则说明了通义大模型的应用领域,如问答系统、文本生成、翻译和智能客服。 接下来需要确定助手的身份。根据问题,用户可能认为当前助手是基于通义千问的,但根据引用内容,可能实际是其他模型,比如GPT,但用户提供的引用都是关于通义千问的。需要明确回答助手的身份是否与通义千问相关。但根据用户提供的引用,可能当前助手并非通义千问,但用户想了解通义千问的信息。所以应专注于解释通义千问,而不是助手本身。 然后,结构上需要分点说明,包括模型类型、技术特点、应用场景和使用方式。引用中提到的模型是自研的预训练语言模型,支持多种任务,如文本生成、对话、翻译等。技术特点包括大规模参数、多模态支持和中文优化。应用场景对应引用[1]中的问答系统、文本生成、翻译、智能客服。使用方式包括API调用(引用[2]和[4])以及体验入口(引用[3])。 需要注意使用正确的LaTeX格式,行内公式用$...$,独立公式单独成段用$$...$$。但当前回答可能不需要数学公式,所以可能不需要使用,但需遵守格式要求。 最后生成相关问题,需要根据通义千问的技术细节、应用、使用方法等方面提出问题,如技术架构、训练数据、与其他模型的区别、商业应用案例、API调用步骤等。 确保回答结构清晰,分点明确,引用正确,例如在提到应用场景时添加[^1],API调用时引用[^2][^4],体验入口引用[^3]。</think>### 通义千问大模型详解 #### 1. **模型定义与类型** 通义千问是**阿里达摩院自主研发的超大规模预训练语言模型**,属于生成式人工智能(Generative AI)的范畴。它以深度学习为基础,基于Transformer架构构建,能够理解并生成自然语言、代码等多种形式的内容[^3]。模型参数规模覆盖7B到数百B级别,支持多轮对话、复杂推理和跨领域知识调用。 #### 2. **核心技术特点** - **多模态能力**:除文本生成外,通义系列还包含音频处理(通义听悟)、图像生成(通义万相)等扩展能力[^3]。 - **中文优化**:针对中文语义和语法进行了专项优化,适合处理中文场景任务。 - **高效部署**:提供轻量化版本(如Qwen-7B-Chat),支持本地化部署和API调用[^2][^4]。 #### 3. **主要应用场景** - **智能问答**:构建高准确率的问答系统,如客服机器人[^1]。 - **内容创作**:生成文章、营销文案、代码等(示例见下方代码块)[^4]。 - **多语言翻译**:支持跨语言信息转换与理解[^1]。 - **数据分析**:通过自然语言交互实现数据查询与可视化。 ```python # 示例:调用通义千问API生成文本(引用自DashScope接口[^4]) import requests def generate_text(prompt, api_key): url = "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" headers = {"Authorization": f"Bearer {api_key}"} data = {"model": "qwen-turbo", "input": {"prompt": prompt}} response = requests.post(url, json=data, headers=headers) return response.json()[&#39;output&#39;][&#39;text&#39;] ``` #### 4. **使用方式** - **公开体验**:通过官网(https://tongyi.aliyun.com/)申请试用[^3]。 - **API集成**:通过阿里云API或DashScope平台接入企业应用(需API密钥)[^2][^4]。 - **本地化部署**:支持下载模型权重在自有服务器运行[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

虚坏叔叔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值