- 博客(25)
- 收藏
- 关注
原创 零基础个人电脑部署DeepSeek-R1——智能助手保姆级教程!
DeepSeek-R1官方满血版本是671B( 6710 亿参数),这需要极其高昂的算力才能运行起来。但是官方依然提供了一些更小尺寸的模型供研究和学习使用,比如:7b、8b、14b、32b。相应的,当参数量降低时,大模型的能力也会对应的降低,但作为日常的学习使用已基本足够。版本越高,相应的功能也明显更强大,但它需要更多内存和CPU 资源。要根据自己的需求和PC配置来选合适的模型版本。
2025-02-24 16:13:45
499
原创 LLM benchmark简介
综合性的中文评估基准,专门用于评估语言在中文语境下的知识和推理能力。CMMLM涵盖了从基础学科到高级专业水平的67个主题,比如:需要计算和推理的自然学科、需要知识的人文科学和社会学科以及需要生活常识的中国驾驶规则等,包括在其他地区或语言中并不适用的中国特定答案。全面的中文基础模型评估套件,涵盖了52个不同学科的13948个多项选择题,分为4个难度级别。由人类问题作者创建的8.5K高质量多样化小学数学单词问题的数据集,通过这套数据集可以评估大模型的数学推理运算能力。
2025-01-09 16:56:33
328
原创 JavaWeb项目
数据给别人就是数据服务。作为工程实践的我们要考虑的就是怎么给?什么样格式的数据给?怎么高效率的给?怎么更加稳定的给? 在企业有很多重要数据,将数据利用起来产生巨大价值我们数据才显得有价值。数据可能存储于MySQL、Oracle、SQL Server、RDS、Redis、MongoDB和文件等等一系列数据存储载体中。那这些数据是在哪儿产生、怎么存储进去、怎么取出来、取出来用来干什么?
2025-01-06 14:40:46
887
原创 初识Transformer架构
Transformer算法是一种基于的深度学习模型,相比较RNN网络结构,最大优势是可以并行计算,创新点在于完全摒弃了传统序列模型(RNN、LSTM)中的循环结构,克服了传统序列模型在处理长距离依赖和并行计算方面的局限性,采用架构,依赖于注意力机制来捕捉序列数据中元素之间的相关性。
2025-01-06 13:52:09
894
原创 Consumer(topic,partition和offset)使用详解
Consumer(topic,partition和offset)使用详解
2022-11-03 20:34:17
1501
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人