Mysql下载安装教程(图文版)

一、下载Mysql

1.打开mysql官网,找到第二个点击Download

2.点击“No thanks,just start my download.”即进入下载状态

3.等待下载完成

二、安装Mysql

1.双击安装包,等待几秒钟

2.默认选项,点击下一步

3.点击“Excute",执行完毕后点击“Next”

4.点击“Next”

5.点击“Next”

6.选中第二个,点击“Next”

7.输入密码后点击“Next”

8.点击“Next”

9.默认第一个,点击“Next”

10.点击“Excute”

11.执行完成后,点击“Finish”

12.点击“Next”

13.点击“Finish”

三、验证Mysql是否安装成功

1.找到Mysql安装路径

我的路径在C:Program FilesMySQLMySQL Server 8.0in

打开该目录后在该框内输入cmd

2.输入mysql -h localhost -u root -p,然后输入之前设置好的密码

出现如图所示内容则说明安装成功

四、启动和停止Mysql

方法一:win+R 输入services.msc

找到Mysql80点击右键可以启动和停止服务

在上文安装时该服务的名字为默认的Mysql80,而且安装时也默认开机自启

方法二:以管理员身份运行cmd

输入net stop/start mysql80来停止或开启服务

五、连接Mysql

方法一:

点击开始,找到Mysql,点击Mysql自带的连接工具(这两个客户端都可以)

输入密码即可连接

方法二就是上文提到验证Mysql是否安装成功时的操作

如果不想找到Mysql的目录再执行的情况下,可以配置Mysql的环境变量

六、配置环境变量

1.右键我的电脑,点击属性,然后点击高级系统设置

2.点击环境变量

3.找到系统变量中的Path

4.点击新建,然后找到Mysql目录下的bin文件打开,复制整个目录

5.然后依次点击确定

这样打开cmd后可以不用进入Mysql的目录直接连接Mysql

### 对Qwen 2.5-7B模型应用LoRA微调技术 #### 安装依赖库 为了能够顺利地对Qwen 2.5-7B模型进行LoRA微调,需要安装必要的Python包。这通常包括`transformers`、`peft`以及其他可能用到的数据处理工具。 ```bash pip install transformers peft datasets evaluate accelerate bitsandbytes ``` #### 加载预训练模型与分词器 加载Hugging Face上的Qwen 2.5-7B模型及其对应的分词器是开始微调的第一步。通过指定正确的模型名称可以轻松完成此操作[^1]。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name_or_path = "Qwen/Qwen-7B" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained( model_name_or_path, trust_remote_code=True ) ``` #### 配置并初始化LoRA适配层 接下来,在原始模型基础上添加LoRA参数高效的调整能力。这里会涉及到设置一些超参数来控制LoRA的行为模式,比如秩大小(r)以及目标模块的选择等。 ```python from peft import LoraConfig, get_peft_model lora_config = LoraConfig( r=8, # LoRA attention dimension lora_alpha=32, target_modules=["q_proj", "v_proj"], lora_dropout=0.05, bias="none", ) model = get_peft_model(model, lora_config) ``` #### 准备数据集 对于特定任务(如对话系统),准备合适的数据集至关重要。如果是以中文法律问答为例,则应采用专门为此场景设计的数据集DISC-Law-SFT来进行训练[^2]。 ```python from datasets import load_dataset dataset = load_dataset('path_to_DISC_Law_SFT') ``` #### 训练配置与启动 定义好优化算法和其他训练选项之后就可以正式开启训练流程了。考虑到资源的有效利用,建议合理设定batch size、epoch数量等参数,并考虑使用混合精度加速计算效率。 ```python import torch from transformers import Trainer, TrainingArguments training_args = TrainingArguments( output_dir="./results", per_device_train_batch_size=4, num_train_epochs=3, logging_steps=10, save_strategy="steps", evaluation_strategy="epoch", fp16=True, # Enable mixed precision training. ) trainer = Trainer( model=model, args=training_args, train_dataset=train_data, eval_dataset=val_data, tokenizer=tokenizer, ) trainer.train() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值