【黑马前端—开发工具】一个小工具:snipaste

转自https://docs.snipaste.com/zh-cn/getting-started?id=%e9%9a%90%e8%97%8f%e6%89%80%e6%9c%89%e8%b4%b4%e5%9b%be

让 Snipaste 帮你提高工作效率

Snipaste 是一个简单但强大的截图工具,也可以让你将截图贴回到屏幕上!下载并打开 Snipaste,按下 F1 来开始截图,再按 F3,截图就在桌面置顶显示了。就这么简单!

你还可以将剪贴板里的文字或者颜色信息转化为图片窗口,并且将它们进行缩放、旋转、翻转、设为半透明,甚至让鼠标能穿透它们!如果你是程序员、设计师,或者是大部分工作时间都在电脑前,贴图功能将改变你的工作方式、提升工作效率。

Snipaste 使用很简单,但同时也有一些较高级的用法可以进一步提升你的工作效率。感兴趣的话,请抽空读一读用户手册

Snipaste 是免费软件,它也很安全,没有广告、不会扫描你的硬盘、更不会上传用户数据,它只做它应该做的事。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

Snipaste 是一个简单但强大的截图工具,也可以让你将截图贴回到屏幕上.
前端推荐快捷方式:

  1. F1 可以截图. 同时测量大小, 设置箭头 书写文字等
  2. F3 在桌面置顶显示
  3. 点击图片, alt 可以取色 (按下shift 可以切换取色模式)
  4. 按下esc 取消图片显示

基础操作

Snipaste 是一个简单但强大的贴图工具,同时也可以执行截屏、标注等功能。

开始截图

快捷键(默认为 F1)
鼠标左键 单击托盘图标

何谓一次 成功的截图

在这里插入图片描述

取消当前截图

任何时刻按 Esc
任何时刻点击工具条上的关闭按钮
非编辑状态下,按下鼠标右键
任何时刻有其他程序的窗口被激活
可在选项窗口关闭此行为

回放截图记录

在这里插入图片描述

逐像素控制光标移动

W A S D

像素级控制截取区域

在这里插入图片描述

放大镜

放大镜会在合理的时机自动出现和隐藏,如果你需要它的时候它没在,请按 Alt 召唤它

取色

在这里插入图片描述

标注

手动结束当前图案

单击 鼠标右键

如何重新编辑已经结束的图案

按 撤销 直到你需要编辑的图案已经消失,再按 重做
将来会支持直接的二次编辑

画板里没有我想要的颜色

请点击那个大的颜色按钮

调整画笔宽度

鼠标滚轮
1 2

调整文字大小

拖动文字框四角

旋转文字

拖动文字框上方的小圆点

将旋转过的文字重新变为水平的

按住 Shift 再拖动文字框四角

贴图

所谓贴图,是指将系统剪贴板中的内容转化成图片,然后作为窗口置顶显示。

所以,能否贴出来、贴出来的是什么,取决于系统剪贴板中的内容。

如何贴图

快捷键(默认 F3)
鼠标中键 单击托盘图标
截图时选择 贴到屏幕

什么时候可以贴图

在这里插入图片描述

旋转贴图

在这里插入图片描述

水平/垂直翻转

在这里插入图片描述

缩放贴图

在这里插入图片描述

设置贴图透明度

在这里插入图片描述

使贴图鼠标穿透

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

他们都告诉你,必须要做什么,却没告诉你为什么。
##《 欢迎访问我的网站,ai工具箱https://4398ai.com里面有免费的chatgpt网站,和很多免费的编程资源的干货》
在这里插入图片描述

### Transformer 模型详解 #### 一、Transformer 整体架构 Transformer 是一种基于自注意力机制(Self-Attention Mechanism)的神经网络模型,旨在解决序列数据处理中的长期依赖问题。该模型摒弃了传统的循环神经网络(RNN) 和卷积神经网络(CNN),完全依靠自注意力机制来捕捉输入和输出之间的全局依赖关系[^1]。 整个架构由编码器(Encoder)和解码器(Decoder)两部分组成: - **编码器**:负责接收输入序列并将其转换成高维向量表示; - **解码器**:根据编码器产生的上下文信息生成目标序列; 两者之间通过多头自注意层(Multi-head Self-Attention Layer)连接,在每一层内部还包含了前馈神经网络(Feed Forward Neural Network, FFN)[^2]。 ```mermaid graph LR; A[Input Sequence] --> B{Encoder Stack}; subgraph Encoder Layers C[MHSA (Multi Head Self Attention)] --- D[Add & Norm]; E[FFN (Feed Forward Networks)] --- F[Add & Norm]; end G{Decoder Stack} <-- H[Memory from Encoders]; I[Output Sequence] <-- J{Decoder Layers} ``` #### 二、工作流程解析 当给定一个源语言句子作为输入时,经过分词后得到一系列token组成的列表。这些tokens会被映射到对应的嵌入(embedding)空间中形成矩阵形式的数据。随后进入多个相同的编码单元堆叠而成的编码栈内进行特征提取操作。每个编码单元主要包含两个子模块——一个多头自关注层用于计算query(Q), key(K), value(V)三者间的相似度得分,并据此调整value权重获得新的context vector; 另一个是全连接前馈网络用来进一步变换维度大小以便更好地表达语义信息。 对于翻译任务而言,则需额外构建一组类似的解码组件以逐步预测下一个可能的目标单词直至结束符为止。值得注意的是,在训练阶段为了加速收敛速度通常会采用teacher forcing技术即利用真实的上一步骤输出而非当前时刻所估计的结果参与后续迭代更新过程。 #### 三、核心特性阐述 ##### 自注意力机制 这是Transformer区别于其他传统RNN/CNN的最大亮点之一。它允许模型在同一时间步长下同时考虑所有位置的信息而不仅仅是相邻几个节点的影响范围。具体实现方式就是让每一个position都能与其他任意一处建立联系并通过softmax函数规范化后的概率分布加权求和最终得出综合考量过全部因素的新状态描述。 ##### 多头设计 考虑到单一head可能会丢失某些重要的局部模式匹配机会因此引入了multi-head策略使得不同heads可以专注于特定类型的关联性挖掘从而提高整体表现力。简单来说就是在同一层次里平行运行若干组独立却又相互补充的小规模self-attention units然后把它们各自的输出拼接起来再送往下一层继续加工处理直到最后一刻才汇总输出最终结果。 ##### 前馈神经网络 除了上述提到的核心部件之外每层还会配备有一个简单的线性变换+ReLU激活构成的标准MLP结构充当非线性的引入手段增强系统的表征能力同时也起到一定的正则化作用防止过拟合现象发生。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值