- 博客(578)
- 资源 (14)
- 收藏
- 关注

原创 txtai系列教程
txtai系列教程翻译自 : https://dev.to/neuml/export-and-run-models-with-onnx-fof1.txtai 初识2.使用 Hugging Face 数据集构建 Embeddings 索引3.从数据源构建嵌入索引4.将语义搜索添加到 Elasticsearch5.使用 txtai 进行抽取式 QA6.使用 Elasticsearch 进行抽取式 QA7.使用零样本分类应用标签8.txtai API 库9.构建抽象文本摘要10.从文档中提
2021-12-17 13:20:10
1988
1
转载 向量数据库weaviate
对应AUTHENTICATION_APIKEY_ALLOWED_KEYS中的密钥# 注意:此处只需要密钥即可,不需要用户名称连接的本地部署的,可以连接服务器上部署的向量服务器。http_host和grpc_host替换服务器地址,两个是一样的5.注意事项如果你翻墙了或者开了代理,报502,连接失败。开启代理解决办法:Clash Verge点击系统代理,代理绕过里面添加192.168.*(代理里面使用规则,不要使用全球)
2024-11-08 10:14:07
418
1
原创 大型语言模型的生物医学知识图优化提示生成
KG-RAG框架,较好的结合了生物医学知识图谱SPOKE和LLM的优势。SPOKE是一个开放知识图谱,提供数据下载和开放API,整合了超过40个公开可用的生物医学知识源,涵盖了基因、蛋白质、药物、化合物、疾病等概念和概念之间的关系,可以为LLM提供一个强大的医疗领域知识。研究人员对KG-RAG框架进行了广泛的测试,包括单跳和双跳提示、药物再利用查询、生物医学真假问题和多项选择题。结果表明,KG-RAG显著提高了LLMs的性能,特别是在具有挑战性的多项选择题数据集上,LLMs都取得了较大的提升。
2024-07-21 12:28:57
1335
原创 中药垂直大模型汇总
ShenNong-TCM由华东师范大学计算机科学与技术学院智能知识管理与服务团队完成,旨在推动大型语言模型在中医药领域的发展和落地,提升大型语言模型的在中医药方面的知识与回答医学咨询的能力,同时推动大模型赋能中医药传承。
2024-05-22 17:18:51
4843
转载 Supervisor进程管理
https://blog.youkuaiyun.com/lly1122334/article/details/122713267
2023-12-24 20:49:36
366
原创 2023-ICLR-Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
2023-ICLR-Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
2023-11-01 11:04:58
374
转载 2023-arxiv-LLaMA-Adapter Efficient Fine-tuning of Language Models with Zero-init Attention
2023-arxiv-LLaMA-Adapter Efficient Fine-tuning of Language Models with Zero-init Attention
2023-11-01 10:19:08
255
转载 2022-arxiv-Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning
少样本参数高效微调比上下文学习更好、更便宜
2023-10-31 18:01:11
361
原创 2021-arxiv-LoRA Low-Rank Adaptation of Large Language Models
2021-arxiv-LoRA Low-Rank Adaptation of Large Language Models
2023-10-30 11:10:59
513
原创 2022-arxiv-P-Tuning v2 Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and
2022-arxiv-P-Tuning v2 Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and
2023-10-30 09:53:20
136
原创 2021-arXiv-The Power of Scale for Parameter-Efficient Prompt Tuning
2021-arXiv-The Power of Scale for Parameter-Efficient Prompt Tuning
2023-10-25 09:57:01
700
原创 2021-arxiv-Prefix-Tuning- Optimizing Continuous Prompts for Generation
2021-arxiv-Prefix-Tuning- Optimizing Continuous Prompts for Generation
2023-10-19 13:18:00
978
BBBP BACE ClinTox Tox21 ToxCast SIDER HIV PCBA MUV
2022-05-28
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人