LORA

博客首页:

https://blog.youkuaiyun.com/a13698709128   

 

NBiot和lora是最近流行起来的两项新物联网技术,nbiot 和之前搞得silicom的sim800很像,都是借助移动网络进行通信,学到的东西感觉不是特别多,所以选择了入手lora。我在使用的时候从淘宝买了lora的sip模块,应为射频部分没有调适能力,一方面是没有无线调试的设备环境,另一方面也是因为自己在硬件上还有所欠缺,射频电路部分搞不定。

主控使用了意法半导体的c8t6,本来打算用兆易科技的片子,但是国产芯片说实话我没有太大信心,怕哪里出个坑自己填不满,给调试带来很大困难(个人玩家一般没有厂家技术支持),另外就是对st的芯片也比较熟悉一点。

 

lora端点芯片使用的是sx1278,lora通信一般需要一个网关,一般就是sx1301,但是这个芯片太贵了,模块便宜的也要4到500块,做个demo感觉没必要上它了,就完成一个p2p通信就可以了

这里先把硬件相关的东西放上来。这里我画了一块板子,水平有限,开发板级别,达不到产品级,硬件已经确认没有任何问题了,调试的过程中也遇到一些问题,最基础的就是把原件封装过孔画小了,但是不影响,因为只是差了一点点,所以就用力按了一下,sma座子也安装上去了,还有就是开窗没经验,top层没有敷铜,PCB板厂生产的时候就在PCB基质上面给我划了一下,好的是开窗部分没有走线,不然的话就鸡鸡了。然后就是复位电路上拉电阻的选型,严重影响jlink下载调试代码,导致代码不能下载,或者是不能调试。芯片周围的滤波电容放置也影响这芯片抗干扰性,尽量让他靠近引脚。做这个板子还是下了血本,包括画原理图库PCB库,用料,滑板,原料采购,花了我差不多三个星期时间,都是平时下班回来搞的,对芯片电源还有信号线等也用了点心思,原件上板后没有任何问题,天线的那一段走线也咨询了厂家,让他帮忙处理了一下,应该是没有问题了,先把硬件放上来,争取在这个周周末赋予它有趣的灵魂,板子上的问题就不修改了,丝印还有问题,字符大小不一致、过孔大小有几个还有问题,这些都不影响,胆电容的封装还要在改一下、开窗还有问题、microusb距离板边缘距离还需要在调一下,这些都是小问题,看情况吧,因为只是做一个demo,要是以后有需要的话我会修改出第二版。

通信距离的话下周看效果吧。

顺便说一下,嘉立创这个PCB板厂还是可以的,之前打过很多PCB都是在他家,下面是他的链接,之前也在淘宝上面发过伴,感觉没有他家的好。

 

 

lora模块购买:https://item.taobao.com/item.htm?spm=a1z09.2.0.0.245b2e8dYgpgUe&id=540698685551&_u=dlua5arac73

stm购买链接:https://item.taobao.com/item.htm?spm=a1z09.2.0.0.245b2e8dYgpgUe&id=563158502742&_u=dlua5ar8256

PCB厂家:https://www.sz-jlc.com/

原理图PCB下载地址:https://download.youkuaiyun.com/download/a13698709128/10665544

总结:https://blog.youkuaiyun.com/a13698709128/article/details/82694703

 

 

 

 

03-25
### LoRA(低秩适配)概述 LoRA 是一种用于高效微调大型语言模型的技术,其核心思想是在保持预训练权重冻结的情况下引入可训练的低秩矩阵来适应新任务。这种方法显著减少了需要优化的参数数量,同时能够维持较高的模型性能[^3]。 具体来说,在传统的全量微调方法中,所有的模型参数都会被更新,这不仅计算成本高而且容易过拟合到特定数据集上。相比之下,LoRA 只允许部分新增的小规模矩阵参与训练,这些矩阵通常具有较低维度(即所谓的“low-rank”),从而大幅降低了内存消耗和计算复杂度。 #### 训练过程中的效率改进 尽管 LoRA 提供了一种高效的解决方案,但在实际应用过程中发现增加 **lora_rank** 参数可能会导致训练速度变慢的情况发生。这是因为较大的 rank 值意味着更多的计算资源需求以及更复杂的梯度传播路径[^1]。不过针对这一局限性提出了改进版本——rsLoRA(Rank-Stabilized LoRA)。该算法通过对缩放因子进行调整使整个流程变得更加平稳可靠;更重要的是它消除了因改变 lora_rank 所带来的额外开销问题。换句话说,在启用 rsLoRA 后即使调节不同的 ranks 设置也不会再明显影响整体运行时间了。 另外值得注意的一点是如果决定采用 rsLoRA 方案,则只需简单设置 `use_rslora=True` 即可完成切换操作而不需要再去单独调整其他相关配置项比如 lora_rank 或者 lora_alpha 等等。 以下是实现标准 LoRA 方法的一个 Python 示例代码片段: ```python from peft import LoraConfig, get_peft_model config = LoraConfig( r=8, # The rank of the low-rank decomposition. alpha=32, target_modules=["q_proj", "v_proj"], # Specify which modules should have adapters added. bias="none", ) model = get_peft_model(pretrained_model, config) ``` 上述脚本展示了如何利用 Hugging Face 的 PEFT 库快速构建基于 Transformer 架构上的自定义 LoRA 配置对象,并将其应用于目标模块之中以便后续进一步定制化开发工作得以顺利开展下去。 --- ###
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值