- 博客(13)
- 收藏
- 关注
原创 【Datawhale 8月组队学习】动手学Ollama ——Task05 【Ollama 应用案例(使用 LangChain 实现本地 Agent)】学习心得
ReAct(Reasoning and Acting)是一种将推理与行动相结合的框架,用于增强智能体在复杂任务中的表现,Task05主要学习如何使用 ReAct 框架在 Ollama 中构建本地智能体(Agent)。1、本文仅实践了Agent调用天气预报查询工具,还可尝试添加 “计算器工具”等,以及本文代码中天气预报工具是采用预设的虚拟返回,可将此替换为真实天气 API 调用(如高德开放平台天气 API)教程中提供了代码片段,下面基于教程的代码片段进行补全实践。
2025-08-23 12:05:59
442
原创 【Datawhale 8月组队学习】动手学Ollama ——Task04 【Ollama 在LangChain中的使用】学习心得
Ollama 是一个开源的大语言模型部署工具,而 LangChain 则是一个用于构建基于语言模型的应用的框架。2、理解代码含义后,可将教程中的配置改为适合自己本地的配置,例如这里将教程中的默认模型llama3.1更改为之前本地下载好的qwen3:8b。1、本次Task旨在学习将Ollama与LangChain结合,以便于AI应用的开发,实践过程需要根据教程提供的关键代码片段进行补全。教程中提供了Python和JavaScript的集成教程,接下来以Python为例,展示我的实践过程。
2025-08-23 10:42:51
775
原创 【Datawhale 8月组队学习】动手学Ollama ——Task03 【Ollama API 的使用】学习心得
Ollama 提供了强大的 REST API,Task03主要学习如何使用Ollama提供的API使得能与大语言模型进行交互。教程中提供了各类编程语言调用API的教程,包括Windows上使用 curl 命令的方式,接下来以Python为例,展示我的实践过程。尽管直接生成的自然语言文本适合人类阅读,但以 JSON 、 YAML 、 XML 或其他格式返回数据,使其更容易被机器解析和使用。(问答作为调用模型进行结构化输出的示例,回答内容的准确度依赖大模型的能力)
2025-08-22 10:58:03
374
原创 【Datawhale 8月组队学习】动手学Ollama ——Task02 【Ollama 自定义导入模型】学习心得
Task02主要学习如何使用 Modelfile 来自定义导入模型,有从 GGUF 导入、从 Pytorch 或 Safetensors 导入、由模型直接导入等方式。2、上传模型到自己的huggingface仓库时要注意创建具有writing权限的access token,以及在上传代码中配置对自己的用户名。3、从huggingface上下载模型除了教程提供的基于huggingface_hub的代码方式外,还有一些其他方式,可参考。然后就可在自己的huggingface仓库上看到自己上传的模型了。
2025-08-22 00:08:24
379
原创 【Datawhale 8月组队学习】动手学Ollama ——Task01 【Ollama 介绍、安装和配置】学习心得
本次组队学习官方旨在让学习者通过动手学 Ollama 教程,实现掌握大模型本地化部署,下述官方教程涵盖了从基础入门到进阶使用的全方位内容:https://github.com/datawhalechina/handy-ollama?tab=readme-ov-filehttps://datawhalechina.github.io/handy-ollama/#/Task01主要学习了Ollama的介绍、安装和配置,主要知识点如下:1、Ollama 是一款聚焦于本地运行大语言模型(LLM)的开源工具,旨在
2025-08-19 21:41:48
362
原创 【Datawhale AI夏令营】多模态RAG图文问答挑战赛学习笔记(2)
本次实践对硬件资源及代码优化的要求较高,目前已经完成了采用mineru提取pdf文档多模态信息的实验以及rerank的代码实现,其中官方提供的mineru_pipeline_all.py的实现中需要注意api_key等环境参数的正确配置以及图片路径的正确导入,rerank的实现即在原来的一轮排序基础上再加一轮精排,例如原来直接取top5 现在加入rerank之后先取top20 再用更强大的模型精选top 5以提升模型召回信息的相关性。让系统在检索一次之后,能自己判断一下找到的上下文够不够回答问题。
2025-08-12 09:43:20
273
原创 【Datawhale AI夏令营】多模态RAG图文问答挑战赛
近年来,大语言模型(LLM)的崛起为自然语言理解带来了革命。然而,它们也面临两大挑战:1、知识局限性 :LLM的知识是预训练好的,对于私有的、最新的或特定领域的文档(比如本次比赛的财报)一无所知,并且可能产生幻觉。2、模态单一性 :大多数LLM本身只能处理文本,无法直接“看到”和理解图像。检索增强生成(RAG) 技术的出现,通过从外部知识库中检索信息来喂给LLM,有效地解决了第一个挑战。而本次比赛的核心—— 多模态检索增强生成(Multimodal RAG),则是应对这两大挑战的前沿方案。
2025-08-08 11:41:08
1561
原创 【Datawhale AI夏令营】-让AI理解列车排期表_学习心得及优化思路(2)
本次大赛提供了结构化数据表格(列车时刻表)作为数据集,参赛者需基于构建一个人工智能模型,该模型能基于给定表格中的结构化数据,结合表格内容提取信息并回答指定的问题。
2025-07-30 16:20:13
393
原创 【Datawhale AI夏令营】-让AI理解列车排期表_学习心得及优化思路
本次大赛提供了结构化数据表格(列车时刻表)作为数据集,参赛者需基于讯飞星辰MaaS平台 (https://maas.xfyun.cn/modelSquare) 构建一个人工智能模型,该模型能基于给定表格中的结构化数据,结合表格内容提取信息并回答指定的问题。
2025-07-27 21:52:20
613
原创 全连接神经网络二分类
1、背景应用背景是一个企业非法集资风险预测的竞赛,赛题提供了各个企业多维度特征的数据以及标注了部分企业有无非法集资风险的数据,目的是根据所提供的企业数据资料去预测出未标注的企业有无非法集资风险。其中有非法集资风险标注为1,无非法集资风险标注为0。该问题可以归结为一个二分类问题。本文采用keras框架搭建神经网络(keras框架高度模块化,使用简单上手快,以Tensorflow、Theano或CNTK为后端,这里使用Tensorflow为后端)有关keras的基本介绍可参阅:https://www.cnb
2021-01-20 12:57:30
5939
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1