- 博客(20)
- 收藏
- 关注
原创 Caddy的安装(端口映射,反向代理,HTML文件通过IP地址访问)
本文介绍了Caddy服务器的安装与基本配置方法。首先详细说明了从官网下载Caddy的步骤,包括可选插件安装建议。然后指导用户创建Caddyfile配置文件,并提供了三种常见功能的配置示例:端口映射(5300转8080)、反向代理设置以及HTML文件访问配置。最后说明了如何通过命令行启动Caddy服务,并验证服务是否正常运行。文章为初学者提供了快速上手Caddy服务器的实用指南,同时建议用户可进一步学习更高级的功能配置。
2026-01-07 10:11:27
144
原创 内网穿透(把本地的端口暴露到公网,让所有人都能访问)
本文介绍了ngrok内网穿透工具的安装和使用方法:1)从官网下载对应系统的安装包并解压;2)使用官网提供的AuthToken进行认证;3)通过运行"ngrok http 80"命令将本地80端口服务暴露到公网。完成操作后,终端会显示专属访问地址,使外部用户能够访问本地服务。整个过程简单快捷,适用于Windows/Mac/Linux系统。
2026-01-04 15:15:55
245
原创 java学习笔记-004(封装)
本文演示了Java中封装特性的实现。通过创建User类,将age属性设为private并使用getter/setter方法进行访问控制。在setAge方法中加入有效性检查(0-100岁),确保数据安全。测试类UserTest01展示了如何通过getAge()读取年龄和通过setAge()设置年龄,当输入非法值(如-10)时会提示错误信息。这体现了封装的核心思想:隐藏内部实现细节,通过公共方法控制对属性的访问,确保数据完整性。
2025-12-24 10:03:35
110
原创 使用Docker本地部署Dify
本文详细介绍了Dify的本地部署和使用方法。首先需要完成两项准备工作:安装ollama并部署deepseek模型,以及安装docker。具体安装步骤包括:从GitHub下载Dify源码,复制并重命名.env文件,在docker目录执行docker-compose命令完成部署。安装完成后,通过浏览器访问127.0.0.1即可进入Dify界面。使用步骤包括:注册登录后连接ollama,设置基础URL为http://host.docker.internal:11434,完成配置后即可开始对话。
2025-12-23 10:54:35
193
原创 java学习笔记-003(New和调用)
本文介绍了Java中Student类的创建与测试过程。首先定义了一个包含name、sex、age三个属性的Student类,然后创建测试类StudentTest01实例化该对象并输出默认属性值。程序运行后会输出null(默认name值)、0(默认age值)和"女"(默认sex值为false)。最后提到可以通过JVM内存分析图来理解对象在内存中的存储情况。整个过程演示了Java类的基本定义、实例化及默认属性值的访问方法。
2025-12-22 11:00:12
99
原创 电脑桌面右键的菜单总是折叠,如何默认打开
本文介绍了通过修改注册表来调整Windows资源管理器默认展开/折叠状态的方法。要改为默认展开,需在注册表HKEY_CURRENT_USER\SOFTWARE\CLASSES\CLSID下新建{86ca1aa0-34aa-4e8b-a509-50c905bae2a2}项及其子项InprocServer32,保持默认值为空后重启生效。若要恢复默认折叠状态,只需删除该新建项即可。操作需谨慎,建议修改前备份注册表。
2025-12-18 11:05:09
208
原创 java学习笔记-002(安装开源的社区版IDEA)
本文简要介绍了使用IDEA社区版开发Java项目的步骤:首先从官网下载安装IDEA,然后新建空项目并配置JDK。接着在项目中创建模块,在src文件夹下建立符合规范的包(以com开头),最后在包中创建类文件即可开始编写代码。文章还提示编译生成的class文件存放位置需要注意。整个过程为Java初学者提供了清晰的项目创建指南。
2025-10-16 10:51:12
118
原创 使用ragflow搭建本地知识库
本文介绍了在本地部署RAGFlow的完整流程。首先需要安装ollama并部署DeepSeek模型,以及安装Docker环境。具体步骤包括:下载RAGFlow源码、配置.env文件、通过Docker命令启动服务、访问localhost页面完成注册登录。重点说明了如何添加本地AI模型、创建知识库、上传文件进行解析,最后通过聊天功能实现交互。文章还提示了可能遇到的报错情况及解决方法,确保用户能顺利完成整个部署过程。
2025-09-30 11:24:21
951
原创 【本地知识库部署】使用docker在局域网共享 AnythingLLM 知识库
本文介绍了通过Docker部署AnythingLLM的完整流程。首先需要检查并安装Docker,然后通过命令行拉取AnythingLLM镜像。若出现拉取错误,需修改Docker配置添加多个国内镜像源。成功拉取后,通过设置存储路径和环境变量来运行容器,可使用Docker Desktop或命令行验证运行状态。最后可通过生成的链接共享工作区,并在管理界面进行用户权限设置。文中提供了详细的命令操作和配置修改方法,并附有参考链接。
2025-09-23 11:25:11
2495
原创 java学习笔记-001(纯纯零基础小白的学习笔记)
本文介绍了如何编写并运行第一个Java程序。首先指导用户新建文本文档并修改为.java后缀文件,复制示例代码时必须使用英文半角符号。示例代码解析了public class、main方法等基础语法结构,强调类名需与文件名一致。文章还简要说明运行Java程序需要安装JDK(Java开发工具包),内含编译工具和JVM(Java虚拟机)。整个过程从文件创建到代码解析,为Java编程入门提供了基础指导。
2025-09-19 11:25:52
357
原创 制作启动U盘与装系统
本文提供了两种制作Windows系统启动U盘的方法:1)微软官方方法,包含制作教程视频链接和Win10下载地址;2)使用极客狗工具的方法,提供官网和制作教程链接。同时介绍了将启动盘恢复为普通U盘的操作步骤:通过运行diskpart命令完成。具体操作可参考相关图文教程。
2025-09-15 09:24:19
191
原创 Deepseek本地部署后,局域网共享
要在局域网共享Ollama服务,需设置两个环境变量;然后查找主机IP地址;其他设备访问时,将localhost替换为主机IP,即可调用AI模型。
2025-08-26 09:01:00
191
原创 deepseek本地部署后,open WebUI安装
本文介绍了openWebUI的安装步骤:首先需安装Docker并更新WSL组件;然后下载openWebUI,通过Docker命令运行;最后可查看容器状态。文中提供了详细的操作命令和注意事项,主要指导用户完成从Docker准备到openWebUI部署的全过程。
2025-08-25 16:14:43
435
原创 Tomcat安装
Tomcat安装与配置指南:需先查看官网确认JDK版本要求,下载安装包解压即可使用。启动Tomcat后访问localhost:8080验证运行状态,遇到乱码需修改配置文件并重启。可自定义服务端口号,修改后需重新启动服务生效。操作流程包括下载、解压、运行及基础配置调整。
2025-08-25 16:03:58
200
原创 JDK安装
本文介绍了JDK的下载安装及环境配置方法:1)通过Oracle官网下载JDK;2)安装完成后了解各文件夹功能;3)演示如何运行Java代码;4)详细讲解环境变量配置的两种方法,推荐使用JAVA_HOME变量方式配置以避免冲突。重点说明了配置环境变量的原理和注意事项,强调专业配置的重要性。
2025-08-25 15:55:11
287
原创 用Python生成二维码
本文介绍了Python环境配置及二维码生成的基本流程:1)下载安装Python解释器并配置环境变量;2)通过cmd验证安装,使用pip管理第三方库;3)演示安装qrcode和Pillow库的方法;4)提供了完整的二维码生成代码示例,包含数据编码、尺寸调整、颜色设置等功能。该代码可生成自定义参数的二维码图片,并支持网址等文本内容转换。
2025-08-25 15:30:17
498
原创 deepseek本地部署后,搭建本地知识库(Anything LLM)
本文介绍了搭建本地知识库的6个步骤:1)下载AnythingLLM软件;2)安装并运行;3)完成初始设置;4)在对话框测试对话功能;5)配置聊天参数并保存;6)向AI知识库添加自定义内容。整个过程简单易操作,适合快速建立个人知识管理系统。
2025-08-25 15:15:59
290
原创 ollama更改安装路径
本文介绍了如何更改ollama的安装和模型部署路径。安装时需在cmd中指定路径(如:OllamaSetup.exe /DIR=D:\路径),随后按提示完成安装。要更改模型部署位置,需添加系统环境变量OLLAMA_MODELS,值为目标路径(如D:\路径\ollama_models)。配置后必须重启电脑使更改生效,否则模型仍会默认安装在C盘。注意环境变量名称必须准确为OLLAMA_MODELS。
2025-08-25 14:50:34
665
原创 DeepSeek本地部署(ollama、Cherry Studio)
《Deepseek本地部署教程》摘要:本文提供Deepseek模型本地部署的完整指南。首先需在ollama官网下载开源工具(需Win10+系统),完成安装后通过cmd验证。接着选择适合的DeepSeek-R1版本(模型越大对配置要求越高),使用ollama run命令完成部署。最后推荐搭配CherryStudio第三方工具构建可视化对话界面,通过设置关联ollama API即可实现窗口化操作。整个流程涵盖从环境配置、模型下载到可视化交互的全链路部署方案。
2025-08-25 14:21:26
803
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅