- 博客(16)
- 资源 (1)
- 收藏
- 关注
原创 phidata自定义工具的使用方法
利用自带的duckduckgo网络搜索工具和本地自己写的文件保存函数,实现将搜索到的关于奥运会的信息保存到本地的PDF文件中。duckduckgo运行速度慢,可以在windows环境,需要打开科学上网,7899为设置的代理端口,自行设置。
2024-12-26 13:13:51
347
原创 PHIDATA智能体AGENT构建框架
Phidata 是一个用于构建多模式代理和工作流的框架。利用记忆、知识、工具和推理构建代理。建立可以协同工作解决问题的代理团队。使用美观的 Agent UI 与您的代理和工作流程进行交互。
2024-12-24 19:20:16
230
原创 wav2lip部署方案-数字人项目
音频源可以是 FFMPEG 支持的任何文件,包含音频数据: *.wav 、 *.mp3 ,甚至是视频文件,代码会自动从中提取音频。大约需要30s,合成好的视频默认放在了results/result_voice.mp4目录下。大约需要15s,显卡最高占用8G。显卡: 2080ti。
2024-12-18 20:03:29
787
原创 crewai学习
CrewAI 使您能够创建 AI 团队,其中每个代理都有特定的角色、工具和目标,共同完成复杂的任务。可以将其视为组建您的梦之队 - 每个成员(代理)都拥有独特的技能和专业知识,无缝合作以实现您的目标。执行特定任务根据其角色和目标做出决策使用工具来实现目标与其他代理沟通和协作保留互动记忆在允许的情况下委派任务在CrewAI框架中,Task是由 完成的特定任务Agent。任务提供执行所需的所有必要细节,例如描述、负责的代理、所需的工具等等,从而促进各种行动的复杂性。
2024-12-15 17:18:25
688
原创 sensevoice部署,python调用本地部署的sensevoice的api接口
python调用本地部署的sensevoice的api接口
2024-12-10 19:06:50
1663
原创 llamaindex连接xinference-embeddings模型的方法
继续使用的时候直接Settings一下就可以啦。有其他方法的小伙伴欢迎评论讨论。
2024-12-05 10:26:10
293
原创 chainlit界面配置相关-未完结,持续更新
找到chainlit.md进行修改,修改完该文件帮助文档就会默认修改为你编写的内容。该文件就在你启动chainlit的那个目录下。修改LOGO需要修改。
2024-11-25 11:03:25
478
1
原创 llamaindex、chainlit知识库大模型基础篇
修改utils.py,比如增加deepseek、moonshoot、qwen等,不修改直接使用会报错,因为底层限制死了部分源码只能使用特定的模型,每一次更新llamaindex都要修改这个文件的信息,大致路径为:**\site-packages\llama_index\llms\openai\utils.py。2.创建llm.py文件,以后所有的大模型都通过这个文件进行交互。
2024-11-19 21:49:36
427
原创 python自动识别验证码 模拟登陆古诗文网
#接下来发表的是自动识别验证码模拟登陆的方式 --共勉1.验证码识别,获取验证码数据2.对post请求发送处理参数import osimport requestsfrom lxml import htmlimport chaojiying as cjyif name == ‘main’:# 使用session 自动获取到cookie信息session = requests.Session()url = ‘https://so.gushiwen.cn/user/collect.aspx’
2021-05-22 18:03:24
477
原创 python使用xpath爬取模板
import requestsfrom lxml import htmlimport os防止爬取中断报错verify=False要实现循环获取创建目录if not os.path.exists("/Users/apple/Desktop/job模版"):os.mkdir("/Users/apple/Desktop/job模版")设置文件保存的基本目录os.chdir("/Users/apple/Desktop/job模版")if name == ‘main’:# url地址url
2021-05-21 23:12:42
244
原创 使用python爬取三国演义
此篇使用的是python进行数据爬虫爬取工具使用的是:bs4,requests爬取的网站:https://www.shicimingju.com/book/sanguoyanyi.html爬取的内容:三国演义– coding:utf-8 –from bs4 import BeautifulSoup as bsimport requestsimport os爬取三国演义章节标题及其对应的内容os.chdir(’./爬取的文件’)if name == ‘main’:url = 'https
2021-05-15 18:21:59
2607
2
windows-x64_FineBI5_1-CN.exe
2020-09-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人