和yoyo谈论PVT打法

A. XX + 电
==================

我的意思是PV什么都可以XX+电。 

龙其其实怕很多东西的。Z的蜈蚣+小狗,或者是T的tank 就可以了。 

T的tank太强了.70攻击三下一个龙骑就报销了. 


PVT 出XX+电,  还可以出几个白球,器应该够的。 
 
运输机要操作好,运XX或者白球都行。 投到架好的tank 中间。 


yoyo她爹 16:27:53
白球很不错.就是太昂贵了.舍不得电兵. 

阿呆 16:28:58
 资源是谁的都不知道,你要去抢。 

阿呆 16:29:04
把所有的资源都占了。 



B. 占资源
==================

yoyo她爹 16:29:12
占资源还是P最厉.跑过去先放几个地堡. 

阿呆 16:30:15
  那是big  

阿呆 16:30:22
 在LT上没有这种占法的。 
当然PVZ是可以这样的。  但是也很难。 因为高手过招,不能相差一个电。 



yoyo她爹 16:30:08
LT上直接BN.如果是熟悉你的人,不用侦查直接空投过去了. 
阿呆 16:31:10
 当然是直接BN 

阿呆 16:31:24
 因为你造BC,敌人也会干掉的。 

阿呆 16:31:47
 不如先省点钱,出兵,要相信自己的操作。


C. 出大箭
==================

PVT 是这样的,如果在资源还行的情况下,和T打了一陈子,难分上下,可以考虑出大箭。 

另外P的终财转移功能要多用。 
记得P占两矿的情况, PVZ 就可以出仲裁+大舰 



D. 敌进我退,敌退我进, 打击弱点
==================

反正就是这样,敌人哪里弱就打哪里,一定要想方法找出敌人弱的地方。 

敌人肯定有弱的地方。 

如果都守的很好,你就发展,因为他根本没机会出来打,一出来打,你就搞他弱的地方。 



敌进我退,敌退我进。敌孟功,我受不了,就四周全功,一定要四周围功。
在敌孟功, 瞬速推进的情况下,要沉着,要空投敌后方,在围功前准备两个白球冲在最前面送死。 
这些都是PVT的要点。 

另外不要操作太多,因为我们的手速是超慢的。我们只能靠我们的意识和大局观来赢战争。 


E. 白球的死
==================

yoyo她爹 16:40:34
知道了.原来那么昂贵的白球用来送死....都是有钱人啊...不心疼.虽然是游戏,但是我一样爱兵如子. 

阿呆 16:41:36
 你错了, 

阿呆 16:41:48
 白球用来送死,  我也是爱兵如子的做法。 

阿呆 16:42:37
 我说给你听:如果不用白球送死,你将会死6个XX或者8个龙起,
如果用白球用来送死, 你会少死XX,让XX接近tank. 

原因是:白球血多,tank 一下两下打不死。 

手快固然好,但意识是打星际是最高境界。高手过招打的就是意识。 



意识是需要积累的。 

现在你要炼好自己的大局观。因为大局观是重要的。 



F. 战争之迷
==================

PVT 开战的时候,你只要操作:
1. 把所有的bing 一起冲,连运输机。白球最好在前面。  
2.  如果有运输机,操作运输机,(选中运输机,点里面的bin, 自动会下来。)  
3. 操作电。4. 扩展和操作家里或者空投。 
5. 不要去操作XX或者龙起。 
 

不要去操作XX或者龙起, 这话其他是错的,
原因是:我相信我们没有机会去操作,因为更重要的是发展,
要注意大局,只要兵多,我不相信10XX 打不死一个tank. 


如果到我们的大局观很好的时候,知道什么时候在哪里开矿,知道要造什么兵,那们我们已经对手不多了。再炼习操作。因为操作不是这么容易炼上去的。 


whopawho
17:01 2006-3-16
### PVT Swin Transformer 的架构与实现细节 #### Progressive Vision Transformer (PVT) Progressive Vision Transformer (PVT) 是一种分层设计的视觉变换器,旨在通过逐步降低分辨率增加嵌入维度来提取更深层次的空间特征。这种设计使得 PVT 能够有效捕捉多尺度信息,并显著减少了计算开销。 - **分层结构**:PVT 使用多个阶段(stages),每个阶段由一系列变压器块组成。随着网络深入,输入图像的分辨率逐渐减小,而嵌入向量的维度则相应增大[^1]。 - **局部窗口注意力机制**:为了进一步优化性能,PVT 引入了局部窗口注意力机制,在保持全局感受野的同时降低了计算复杂度。这种方法允许模型专注于特定区域内的像素关系,从而提高了效率[^4]。 - **实施技巧**:在实际应用中,可以通过调整各阶段的数量以及每阶段内部的具体配置参数来控制整体资源消耗水平。例如,可以改变每一层中的头数或者前馈神经网络隐藏单元数目等超参设置以满足不同的需求场景下的约束条件[^3]。 ```python class PVTEncoderLayer(nn.Module): def __init__(self, dim, num_heads=8, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.norm1 = nn.LayerNorm(dim) self.attn = Attention(dim, num_heads=num_heads, qkv_bias=qkv_bias, attn_drop=drop_rate, proj_drop=drop_rate) ... ``` --- #### Swin Transformer Swin Transformer 提出了基于滑动窗口策略构建层次化的表征学习框架,其中核心创新点在于交替采用固定大小非重叠子窗格间相互作用形式的标准自注意模块(SA),以及跨相邻两个此类分区之间额外引入相对位置偏差项后的增强版版本——即所谓的“Shifted Window Multi-head Self-Attention”(SW-MSA)[^5]。 - **滑动窗口划分方式**:原始输入会被分割成若干互不交叠的小块儿作为基本单位参与后续运算过程;当切换到下一层时,则重新组织这些片段形成新的组合布局以便更好地融合远距离依赖关系[^2]。 - **移位窗口机制**:不同于常规做法仅限于当前视野范围之内建立联系,“shift operation”让原本属于不同组别的元素有机会互相感知对方的存在状况,进而促进更加全面的信息交流共享活动开展起来。 - **具体实操指南**:开发者们可以根据目标任务特点灵活定制各项属性值比如最大序列长度限制、隐含状态宽度设定等等要素指标来进行针对性调优尝试直至找到最佳平衡点为止。 ```python def window_partition(x, window_size): B, H, W, C = x.shape x = x.view(B, H // window_size, window_size, W // window_size, window_size, C) windows = x.permute(0, 1, 3, 2, 4, 5).contiguous().view(-1, window_size, window_size, C) return windows ``` --- ### 比较分析 | 特性 | PVT | Swin Transformer | |---------------------|-----------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------| | 层次化设计 | Yes | Yes | | 注意力机制 | 局部窗口注意力 | Shifted Window Multi-head Self-Attention | | 参数数量 | 较少 | 更多 | | 计算成本 | 中等 | 高 | | 数据效率 | 对大数据集表现良好 | 即使在较小规模的数据上也能取得不错的结果 | 尽管两者都致力于解决传统 ViTs 存在的一些局限之处并通过各自独特的方式实现了不同程度上的改进提升,但从上述对比可以看出它们各有侧重方向且适用场合也有所区别。 ---
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值