- 博客(247)
- 资源 (4)
- 收藏
- 关注
原创 使用Langchain+Qwen完成一次问答和联网搜索
关于Langchain的介绍已经有很多了,博主还未深入的了解学习,所以这里不做介绍。Langchain项目地址:https://github.com/langchain-ai/langchain。
2025-03-04 12:36:51
421
原创 《asyncio 并发编程》(第四章)——并发网络请求
第三章中,我们构建了一个基本的回显服务器,在本章中,我们将学习一个名为的异步库,以实现同时发出数百个请求,并同时运行这些请求。
2025-02-28 20:39:42
644
原创 OmniParser v2本地部署(1)部署OmniParser_v2模型
前不久,微软开源了最新的OmniParser v2版本在新的基础测试基准 Screen Spot Pro 上,使用 OmniParser v2 实现了 39.5% 的最新业界领先结果。关于omniparser的技术解析可以参考这篇博客,这里主要介绍OmniParser v2本地部署。
2025-02-27 10:28:58
1889
9
原创 《asyncio 并发编程》(第三章)——第一个asyncio应用程序
本章通过利用asyncio,仅使用一个线程,构建一个可以同时处理多个用户请求的回显服务器。
2025-02-04 18:20:38
354
原创 《asyncio 并发编程》(第一章)——asyncio的基本概念和原理
特点是大部分时间都花在等待输入输出操作完成上。I/O操作通常包括与文件系统、网络、数据库等进行交互。异步编程模型非常适合处理I/O密集型任务,因为它允许程序在等待I/O操作的同时去做其他事情。指那些需要大量CPU计算的任务,比如图像处理、视频编码、复杂的数学运算等。并行处理可以显著加速CPU密集型任务。
2024-12-09 20:44:30
1128
原创 从0开始深度学习(35)——YOLO V5原理详解
负责从输入数据中提取特征。对卷积层的输出计算均值和方差,并用它们来标准化该层的输入,有助于加快训练速度、提高模型收敛性并减少过拟合的风险。引入非线性因素,得模型能够学习到复杂的映射关系。
2024-12-06 19:51:59
1384
原创 Python学习笔记(5)Python的创建型设计模式
单例模式可以用Python的模块来实现,没有特别的地方。由于Python可以动态的访问类对象,所以原型模式也什么意义(python提供了内置的copy方法)所以最有用的是抽象工厂模式工厂方法模式建造者模式。
2024-12-01 18:39:19
1073
原创 从0开始深度学习(32)——循环神经网络的从零开始实现
本章将从零开始,基于循环神经网络实现语言模型(不是单词级)首先我们把中的train_iter中的每个数字都表示在vocab中的索引,将这些索引直接输入神经网络可能会使学习变得困难,我们通常将每个词元表示为更具表现力的特征向量,即。
2024-11-26 21:38:32
831
原创 从0开始深度学习(31)——循环神经网络
前面介绍了n元语法模型,里面有一个叫隐状态,也被叫做隐藏变量,循环神经网络(recurrent neural networks,RNNs) 是具有的神经网络。
2024-11-25 20:23:43
1278
原创 Python学习笔记(4)Python多线程
通过直接从继承创建一个新的子类print ("开始线程:" + self.name)print ("退出线程:" + self.name)print(f'
2024-11-24 19:07:30
1101
原创 微调Helsinki-NLP-en-zh模型
Helsinki-NLP 是一个广泛使用的开源机器翻译(Machine Translation,MT)模型系列,基于 Marian NMT 框架原本的模型对于国内外公司的名称支持度很差,比如会把‘FireFox‘翻译成‘消防’,所以我需要在保留原本翻译能力的基础上,增强对公司名称的翻译能力。
2024-11-20 20:21:19
810
2
原创 Python学习笔记(3)编程建议(6条)
Python Enhancement Proposal #8叫作PEP 8,它是一份针对Python代码格式而编订的风格指南,采用一致的风格可以使代码更易读、更易懂,
2024-11-19 19:33:13
1034
原创 Python学习笔记(2)正则表达式
正则表达式是一个特殊的字符序列,它能帮助你方便的检查一个字符串是否与某种模式匹配。在 Python 中,使用 re 模块提供的函数来处理正则表达式,允许你在字符串中进行模式匹配、搜索和替换操作。
2024-11-16 21:01:38
1392
原创 屏幕解析工具——OmniParser
OmniParser是微软开源的一种屏幕解析工具,提供了一种将用户界面截图解析为结构化元素的综合方法,通过此方法可以对UI界面进行可交互元素的提取和描述,然后将此结构化信息和任务指令,输入到大模型中,以增强大模型对用户界面的动作预测能力。
2024-11-12 17:08:55
3489
18
原创 从0开始深度学习(29)——文本预处理
序列数据中,最常见的例子就是文本数据,例如,一篇文章可以被简单地看作一串单词序列,甚至是一串字符序列。本节中,我们将解析文本的常见预处理步骤。
2024-11-10 14:20:13
741
原创 从0开始深度学习(28)——序列模型
序列模型是指一类特别设计来处理的神经网络模型。序列数据指的是数据中的每个元素都有先后顺序,比如(股票价格、天气变化等)、(句子中的单词顺序)、等。
2024-11-09 15:44:58
1378
原创 从0开始深度学习(27)——卷积神经网络(LeNet)
LeNet是最早的卷积神经网络之一,由Yann LeCun等人在1990年代提出,并以其名字命名。最初,LeNet被设计用于手写数字识别,最著名的应用是在美国的邮政系统中识别手写邮政编码。LeNet架构的成功证明了卷积神经网络在解决实际问题中的有效性,为后续更复杂、更强大的CNN模型的发展奠定了基础。结构如下:我们知道手写数字识别数据集的数据,都是28×28的灰度图,下面我们将输入一个28×28的矩阵,看看经过这个模型过后,会输出什么。可以发现最后输出为1×10。
2024-11-08 14:54:08
1124
1
原创 从0开始深度学习(26)——汇聚层/池化层
池化层通过减少特征图的尺寸来降低计算量和参数数量,同时增加模型的平移不变性和鲁棒性。汇聚层的主要优点之一是减轻卷积层对位置的过度敏感。
2024-11-07 21:37:04
665
原创 从0开始深度学习(25)——多输入多输出通道
×之前我们都只研究了一个通道的情况(二值图、灰度图),但实际情况中很多是彩色图像,即有标准的RGB三通道图片,本节将更深入地研究具有多输入和多输出通道的卷积核。
2024-11-07 20:58:29
688
原创 从0开始深度学习(24)——填充和步幅
这样保持空间维度的同时,我们可以在顶部和底部填充相同数量的行,在左侧和右侧填充相同数量的列。当卷积核的高度和宽度不同时,我们可以填充不同的高度和宽度,使输出和输入具有相同的高度和宽度。在如下示例中,我们使用高度为5,宽度为3的卷积核,高度和宽度两边的填充分别为2和1。,这样可能会导致原始图像的边界丢失了许多有用信息,如果应用多层卷积核,累积丢失的像素就更多了,为了解决这个问题,可以采用填充方法。将每次滑动元素的数量称为步幅(stride),下面是在上面例子中,使用垂直步幅为3,水平步幅为2进行卷积操作。
2024-11-06 20:59:11
1018
原创 《CUDA编程》12.使用统一内存编程
本章将学习一种新编程模型:统一内存(unified memory)编程。在这种新的编程模型下,将不再需要手动地在主机与设备间传输数据。统一内存编程模型由 CUDA 6 引入,从开普勒架构开始就可用,到目前为止,统一内存的某些功能在 Windows 操作系统中依然受到限制,本章的部分例子也只能在 Linux 系统中通过测试。
2024-10-29 16:05:08
789
原创 《CUDA编程》10.线程束的基本函数与协作组
本章将对及相关的 CUDA 语法和编程模型进行更加深入、系统的介绍,涉及的大部分 CUDA 编程功能由 CUDA 9 引入,而且有些功能仅受到帕斯卡或更高架构的支持。
2024-10-27 20:30:36
1089
原创 从0开始深度学习(22)——从全连接层到卷积
多层感知机在处理图像这种高维数据时,因为模型需要大量的数据来训练这么多参数,会导致巨大的计算成本,还会增加过拟合的风险,所以人们选择使用卷积神经网络。
2024-10-27 14:00:19
939
原创 从0开始深度学习(21)——读写数据和GPU
学习如何加载和存储权重向量和整个模型,并且将讨论如何利用如何使用单个GPU,然后是如何使用多个GPU和多个服务器(具有多个GPU)进行计算。
2024-10-27 12:45:43
959
原创 从0开始深度学习(20)——延后初始化和自定义层
我们构造一个没有任何参数的自定义层,下面的CenteredLayer类要从其输入中减去均值。要构建它,我们只需继承基础层类并实现前向传播功能。传入一些数据进行验证现在,我们可以将层作为组件合并到更复杂的模型中。作为额外的健全性检查,我们可以在向该网络发送随机数据后,检查均值是否为0。由于我们处理的是浮点数,因为存储精度的原因,我们仍然可能会看到一个非常小的非零数。Y.mean()
2024-10-24 21:18:11
614
原创 从0开始深度学习(19)——参数管理
w∼U510可能性140可能性12U−10−5可能性14U(5, 10) & \text{ 可能性 } \frac{1}{4} \\0 & \text{ 可能性 } \frac{1}{2} \\U(-10, -5) & \text{ 可能性 } \frac{1}{4}w∼⎩⎨⎧U5100U−10−5可能性41可能性21可能性41w从均匀分布U510中取值。
2024-10-24 21:02:37
1403
原创 从0开始深度学习(18)——层和块
将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。存储和访问前向传播计算所需的参数。根据需要初始化模型参数。在下面的代码片段中,我们从零开始编写一个块。它包含一个多层感知机,其具有256个隐藏单元的隐藏层和一个10维输出层。自定义的MLP 类继承自 nn.Module。
2024-10-23 16:48:12
1316
原创 从0开始深度学习(18)——环境和分布偏移
有时,根据测试集的精度衡量,模型表现得非常出色。但是,模型在部署中会出现灾难性的失败。有时模型的部署本身就是扰乱数据分布的催化剂。举一个有点荒谬却可能真实存在的例子。假设我们训练了一个贷款申请人违约风险模型,用来预测谁将偿还贷款或违约。这个模型发现申请人的鞋子与违约风险相关(穿牛津鞋申请人会偿还,穿运动鞋申请人会违约)。此后,这个模型可能倾向于向所有穿着牛津鞋的申请人发放贷款,并拒绝所有穿着运动鞋的申请人。本章会揭露揭示一些常见的问题。
2024-10-23 16:02:21
1020
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人