【Java若依框架】RuoYi-Vue的前端和后端配置步骤和启动步骤-初始化项目

🎙告诉你:Java是世界上最美好的语言

💎比较擅长的领域:前端开发

是的,我需要您的:

🧡点赞❤️关注💙收藏💛

是我持续下去的动力!


2025年6月4日进行测试,确认文章配置步骤有效!可以放心更着步骤来配置!

目录

一. 作者有话说 

 1.1 本平台需要准备

二. 若依的了解 

 2.1 若依的版本

三 .后端的配置 

3.1 步骤

3.2  打开GitHub

 3.3  复制地址

3.4 通过idea导入到vcs 

 3.5 执行代码 

3.6 配置数据库的密码 

 3.7 启动redis

3.8  修改redis配置

3.9 右键启动若依 

四. 前端的配置

 4.1 步骤

4.2 拿到地址,打开终端进行命令  

4.3 然后进行安装依赖 

4.4 启动前端项目

4.5 打开项目

4.6 判断是否配置完好


一. 作者有话说 

 1.1 本平台需要准备

redis 你可以不用,但是不可以没有,因为若依一些配置和redis有关

mysql 一定要有,学到这个地步了mysql应该是有的吧

需要有软件 idea 和  vs

二. 若依的了解 

 2.1 若依的版本

bd42db4e7e6d47a492240eb4e00ca8bf.png

三 .后端的配置 

3.1 步骤

8eb324e4f98b49ca846ada925ace95ff.png​ 

3.2  打开GitHub

点此打开

 3.3  复制地址

 0347b3108db846d99b33d696ac65ade0.png

3.4 通过idea导入到vcs 

9b95cb6a9d424200bd1a0ef4cdbdb8af.png​ 

 3.5 执行代码 

在vcs导入后的代码中,找到两个sql文件,到数据库中去一键执行。

这里要在数据库中创建一个数据库【ry-vue】,然后找到下面的两个sql文件,执行这两个sql脚本

eecc96b9c1ff4ec1b94621b8dc795082.png​ 

 

3.6 配置数据库的密码 

自己按自身条件进行更改 

【这里主要是改数据库的密码以你的为标准和数据库的名字】 

​ 

 3.7 启动redis

注意看,执行的是如下图的命令去打开redis,没有redis去下载redis,然后打开redis所在文件的终端,进行代码执行打开redis 

到这个样子才算redis启动成功了 

95f2d3c70e7c44e39d6e1001f2430697.png

3.8  修改redis配置

注意默认是没密码的,下面的图默认的就可以了,这一步可以不用改。

找到77行代码,把你的redis密码改一改即可,没有密码则不用修改

8ec0d368c2b84d83bf52ff0719eb8ec4.png

3.9 右键启动若依 

在ruoyi-admin文件夹下 

 454d24972b3a4af6b3ee68bb1db772b3.png

显示若依启动成功就是成功了,是中文! 

四. 前端的配置

 4.1 步骤

0c071fd092ff42aaa4db79f303523ed4.png

4.2 拿到地址,打开终端进行命令  

点我拿到地址

同样也是拿到地址,和后端不同的是执行的方式 

然后去你想要放若依前端的文件夹中,打开cmd 

 

如果生成了若依的文件夹,就是说明成功了

4.3 然后进行安装依赖 

这样才算开始下载依赖: 

4.4 启动前端项目

启动前端项目: 

4.5 打开项目

运行后:

 

重要:如果登录成功,那么前端后端都配置成功了 ,一定要注意:redis要启动,后端要启动 

前端就完成了 !!!到此为止都完成了!!!

4.6 判断是否配置完好

能登录成功若依就说明前端后端都配置好了 

🎙座右铭:得之坦然,失之淡然。

💎擅长领域:前端

是的,我需要您的:

🧡点赞❤️关注💙收藏💛

是我持续下去的动力!

### 大模型对齐微调DPO方法详解 #### DPO简介 直接偏好优化(Direct Preference Optimization, DPO)是一种用于改进大型语言模型行为的技术,该技术通过结合奖励模型训练强化学习来提升训练效率与稳定性[^1]。 #### 实现机制 DPO的核心在于它能够依据人类反馈调整模型输出的概率分布。具体来说,当给定一对候选响应时,DPO试图使更受偏好的那个选项具有更高的生成概率。这种方法不仅简化了传统强化学习所需的复杂环境设置,而且显著增强了模型对于多样化指令的理解能力执行精度[^2]。 #### PAI平台上的实践指南 为了便于开发者实施这一先进理念,在PAI-QuickStart框架下提供了详尽的操作手册。这份文档覆盖了从环境配置直至完成整个微调流程所需的一切细节,包括但不限于数据准备、参数设定以及性能评估等方面的内容。尤其值得注意的是,针对阿里云最新发布的开源LLM——Qwen2系列,文中给出了具体的实例说明,使得即使是初次接触此类工作的用户也能顺利上手。 ```python from transformers import AutoModelForCausalLM, Trainer, TrainingArguments model_name_or_path = "qwen-model-name" tokenizer_name = model_name_or_path training_args = TrainingArguments( output_dir="./results", per_device_train_batch_size=8, num_train_epochs=3, ) trainer = Trainer( model_init=lambda: AutoModelForCausalLM.from_pretrained(model_name_or_path), args=training_args, train_dataset=train_dataset, ) # 假设已经定义好了train_dataset trainer.train() ``` 这段代码片段展示了如何使用Hugging Face库加载预训练模型并对其进行微调的过程。虽然这里展示的例子并不完全对应于DPO的具体实现方式,但它提供了一个基础模板供进一步定制化开发之用[^3]。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

潜意识Java

源码一定要私信我,有问题直接问

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值