python基础知识总结

本文详细介绍了Python中的不可变和可变数据结构(如Number,String,Tuple,List,Dictionary,Set),以及输入输出、函数、装饰器和垃圾回收机制。还涵盖了Faker库、面向对象编程、正则表达式、Pandas和Numpy在数据处理中的应用,以及如何使用PyInstaller打包Python脚本为可执行文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Python数据结构
不可变数据结构(3 个):Number(整数)、String(字符串)、Tuple(元组)
可变数据结构(3 个):List(列表)、Dictionary(字典)、Set(集合)
Python 支持三种不同的数值类型:整型(int)、浮点型(float)、复数(complex)
Python不同于其它语言,整数只有一种int类型,不区分short、int、long类型;浮点数只有一种float类型,不区分float与double类型
1.1 列表
list = [‘red’, ‘green’, ‘blue’, ‘yellow’, ‘white’, ‘black’]
列表是可变的,列表的内容可以通过各种方法如append()、extend()、insert()、remove()和pop()来添加、删除或修改元素
list列表反转方法:
第一种,是可以通过倒序切片反转,步长是 -1;
第二种,通过列表反转的方式,使用reverse函数
列表切片:
“切片”操作用于从某个对象中抽取部分值的情况。
索引方式:object[start_index:end_index:step]

start_index:表示起始索引(包含该索引对应值)

end_index:表示终止索引(不包含该索引对应值)

step:正负数均可,其绝对值大小决定了切取数据时的"步长"

List = [0,1,2,3,4,5,6,7,8,9]
例1:

输入:a[-1:-6:-1]
输出:[9, 8, 7, 6, 5]
例2:
输入:b = a[::2]
//从最开始的值取到最后的值,步长为2
输出:[0, 2, 4, 6, 8]
例3:
a[6:]
[6, 7, 8, 9]
当只有一个“:”时,默认第三个参数step=1
//从start_index=6开始,步长为1,一直取到“终点”值9
1.2 元组
tuple = (‘Google’, ‘Runoob’, 1997, 2000)
1.3 字典
d = {key1 : value1, key2 : value2, key3 : value3 }
例:tinydict = {‘name’:

### DeepSeek-R1-Distill-Qwen-7B 模型使用指南 #### 一、模型概述 DeepSeek-R1-Distill-Qwen-7B是一个经过大规模强化学习蒸馏的大规模语言模型[^2]。该模型旨在通过减少参数数量来提高效率,同时保持较高的性能水平。 #### 二、环境准备 为了顺利运行此模型,需先安装必要的依赖库。推荐使用Python虚拟环境来进行管理: ```bash python3 -m venv env source env/bin/activate pip install --upgrade pip pip install transformers torch datasets ``` #### 三、加载模型 可以利用Hugging Face Transformers库轻松加载预训练好的DeepSeek-R1-Distill-Qwen-7B模型: ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-7B") model = AutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-7B", trust_remote_code=True).half().cuda() ``` 注意:上述代码中的`.half()`方法用于将模型转换为FP16精度以节省显存;而`.cuda()`则表示将计算迁移到GPU上执行。如果硬件条件不允许,则可省略这两步操作[^3]。 #### 四、生成文本 定义一个简单的函数来实现给定输入后的响应生成过程: ```python def generate_text(prompt, max_length=50): inputs = tokenizer(prompt, return_tensors="pt").to('cuda') outputs = model.generate(**inputs, do_sample=True, top_p=0.95, temperature=0.7, max_new_tokens=max_length) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return result[len(prompt):] print(generate_text("你好啊")) ``` 这段脚本会根据传入的`prompt`(即提示词),调用模型生成一段长度不超过指定值的新文本,并打印出来。 #### 五、提示词建议 对于不同的应用场景,可以选择不同类型的提示词: - **开放式对话**:"你觉得今天天气怎么样?" - **封闭式问答**:"太阳是由什么组成的?" - **创意写作辅助**:"写一首关于秋天的小诗吧!" - **编程帮助**:"如何在Python中创建类?" 以上这些例子都可以作为有效的提示词供用户尝试。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值