人工智能
文章平均质量分 91
北海屿鹿
越努力,越幸运
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
在 Open WebUI+Ollama 上运行 DeepSeek-R1-70B 实现调用
默认情况下,Ollama API 监听 http://localhost:11434。的大模型管理工具,它可以在本地运行 DeepSeek-R1-70B。如果安装成功,将返回 Ollama 的版本号。以下是完整的部署步骤。在终端中运行以下命令,下载。原创 2025-02-08 14:59:51 · 2080 阅读 · 0 评论 -
7个用于运行LLM的最佳开源WebUI
一切都在浏览器内运行,没有服务器支持,并通过WebGPU加速。智能选型:Anthropic(Claude),AWS Bedrock,OpenAI,Azure OpenAI,BingAI,ChatGPT,Google Vertex AI,插件,助手API(包括Azure助手)丰富的模型支持:WebLLM支持一系列原生大模型,包括:Llama 3,Phi 3,Gemma,Mistral,Qwen(通义问)等,使其成为各种AI任务的通用工具。OpenLLM支持多种模型,并提供友好的用户界面,提供内置的聊天UI。原创 2025-02-07 17:34:01 · 2846 阅读 · 0 评论 -
DeepSeek:全栈开发者视角下的AI革命者
为什么说DeepSeek所带来的模式是“颠覆性”的,其最重要的不是它性能有多好,速度有多快,这些短期成绩都是可以被超越的,其最大的革新在于模式的差异,在于思路的更迭。之前几乎所有的大模型都是堆砌算力,谁的算力强,谁的投入多,谁的大模型就领先,而DeepSeek通过算法的革新解决了无限堆砌算力的死循环,甚至让一些美国资本方、大模型公司开始怀疑自家工程师存在摸鱼、缺乏创新性,浪费开发资金的问题。原创 2025-02-06 13:30:19 · 883 阅读 · 0 评论
分享