
AI大模型学习
文章平均质量分 74
一包烟电脑面前做一天
这个作者很懒,什么都没留下…
展开
-
四、.Net8对接Ollama实现文字翻译(.Net8+SemanticKernel+Ollama)本地运行自己的大模型
有道翻译:Semantic Kernel (语义内核,简称SK)是一个轻量级 SDK,支持将 AI 大型语言模型 (LLM) 与传统编程语言集成。SK 可扩展编程模型结合了自然语言语义函数、传统代码原生函数和基于嵌入的内存,释放了新的潜力并为 AI 应用程序增加了价值。原创 2024-05-29 11:16:11 · 1887 阅读 · 2 评论 -
三、Ollama导入大模型(.Net8+SemanticKernel+Ollama)本地运行自己的大模型
导入自定义gguf(Safetensors大模型为测试成功,待后续测试)大模型,需要使用Modelfile方式导入。例如需要导入llava大模型:1、在huggingface国内镜像上搜索到大模型然后在模型文件后面的下载图标上,点击右键,点击“复制链接地址”。然后将大模型文件下载到ollama服务器上。下载命令" "" # 设定温度参数为1 [更高的更具有创新性,更低的更富有连贯性] PARAMETER temperature 1 . 0你是可以与梵高相比的绘画大师" ""原创 2024-05-28 14:51:45 · 3802 阅读 · 0 评论 -
二、OpenWebUI 使用(.Net8+SemanticKernel+Ollama)本地运行自己的大模型
然后点击界面左上角“新聊天”,选择一个模型,就可以愉快的聊天了。在“连接”中设置ollama的地址,保存即可。原创 2024-05-27 17:40:08 · 3005 阅读 · 0 评论 -
一、Ollama部署安装(.Net8+SemanticKernel+Ollama)本地运行自己的大模型
Ollama是一个功能强大的开源框架,旨在简化在Docker容器中部署和管理大型语言模型(LLM)的过程。它是一个开源的大型语言模型服务工具,帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama极大地简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。Ollama的主要优势在于其易用性,用户仅需通过简易命令行界面即可轻松运行模型,让操作更加流畅高效。原创 2024-05-27 17:00:53 · 1630 阅读 · 0 评论