每天上班 16 个小时,要钱还是要命?

640?wx_fmt=gif

640?wx_fmt=jpeg

作者 | 岳京杭

责编 | 胡巍巍

华为、阿里、头条等公司的加班是出了名的,当然回报也给力。有个朋友去年去了某金服。配了3万股期权,35岁左右,按内部公允价200RMB/股,这部分期权值600万,四年兑现。

有次跟他聊天,问他在那边怎样,他说太累,同事之间氛围也不好,部门之间,同事之间相互抢活内斗,很不习惯。加班强度也大,晚上11点下班算早的。保温杯枸杞成了标配,不然一天根本撑不下来。

他说现在的策略是:不敢奢求升职,保住饭碗,混满4年,兑现全部期权,就谢天谢地了。哪怕不被裁,为了多活几天,4年之后自己也要撤。


640?wx_fmt=png


前几天水木上有个帖子,如下:

发信人: kanji0430 (子持年华), 信区: WorkLife 
标  题: 蚂蚁金服和今日头条 
发信站: 水木社区 (Tue Dec 18 10:00:32 2018), 站内 
  
30+,有必要从蚂蚁金服去今日头条么? 
蚂蚁太累了,今日头条应该不会更累。但是去了蚂蚁的期权就拿不全,只能卖给公司。头条据说周末也要上班。而且头条路程单程要1小时,蚂蚁单程30分钟内。好处就是可能压力小一点,钱多一点。 


发信人: kanji0430 (子持年华), 信区: WorkLife 
标  题: Re: 蚂蚁金服和今日头条 
发信站: 水木社区 (Tue Dec 18 10:19:23 2018), 站内 
  
主要是蚂蚁加班太厉害了,早上8,9点干到凌晨1点普遍情况。 
【 在 xiaoweiwang 的大作中提到: 】 
: 你去今日头条是为了钱,还是为了实现自我价值? 
: 如果为了钱就算了。真没必要。 


发信人: kanji0430 (子持年华), 信区: WorkLife 
标  题: Re: 蚂蚁金服和今日头条 
发信站: 水木社区 (Tue Dec 18 10:56:18 2018), 站内 
  
9,1,周末在家加班。 
【 在 touchsoul219 的大作中提到: 】 
: 蚂蚁据说996,是真的吗 

总结一下:发帖人30多岁,在蚂蚁金服上班,早上9点上班,晚上1点下班,工作日上班时长16小时(包括午饭、午休、晚餐时间),周末还要在家里加班。他提到期权,应该是个P7,一年期权差不多150万。


640?wx_fmt=png


同样是P7,期权数量差别很大。去年入职的P7,最高可以给到3万股,今年年初是2万股左右,现在社招的P7,不到9000股。从金钱回报的角度看,同样是P7,对加班的忍受程度很定是不一样的。

社招P7以下级别,没有期权,加班强度和手握期权的P7一样,从这个角度看,蚂蚁真不是个好出去。

640?wx_fmt=png


640?wx_fmt=png


现在大多数企业经营成本高昂,盈利困难,小厂关门大吉,大厂裁员。一般来说,不到万不得已,大厂不会轻易裁员。裁员毕竟会上新闻,对企业商誉造成伤害,所以有些企业会变着法子裁员。

比如说全员降薪,年终奖减半。有些人受不了主动离职,省了赔偿又实现了减员,完美。这么一来可能造成逆淘汰,有能力的走了,混子老白兔留下来。你猜老板会不会跟业务骨干提前打好招呼?

还有一种是疯狂加班,目的可能并不是降成本,而是洗掉老白兔。比如某金服,新老板上位,push团队疯狂加班,晚上11点下班改到1点下班,加班一方面能出业绩,另一方面洗掉不能加班的老白兔,招新人,实现团队的新陈代谢,一举两得。

对于刚上班的年轻人,适当的加班是有好处的,但一定注意休息,身体是革命的本钱吗,来日方长。大疆25岁猝死,入职半年的应届硕士就是一个警醒。

上了年纪的老员工,一是有了家庭牵绊,时间上不再像年轻人富裕。二是高强度的加班,身体真的扛不过来。最后,多年积累也有了一些其他选择,主动或无奈,逐渐就退出了游戏。所以就有了XX公司员工平均年龄28岁,连续多年不变,永远是一家年轻的公司。

中国IT公司的加班风气,不是一天两天形成的,剧场效应,作为一个玩家,你改变不了,要走忍要么滚。

640?wx_fmt=png


640?wx_fmt=png


针对阿里的加班,有人是这么认为的。

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

公司不是家,不做没有回报的加班。

什么样的回报值得加班,就看个人情况来了。下文帖子中的小哥,京杭君认为他的加班强度是完全可以忍受的,毕竟好几千万的回报呢,如果是真的话。

640?wx_fmt=png

640?wx_fmt=png

作者简介:岳京杭,湖南人、北邮硕士。曾北漂8年,后跑路杭州,通信从业多年、后转行互联网,先后经历三星电子、百度等公司,目前从事人工智能相关开发工作。

本文系作者投稿,版权归公众号「中产之路」所有,「中产之路」以技术人的角度,探讨行业动态、职场见闻转行路径工资外收入中产中年等实际话题。

640?wx_fmt=png

640?wx_fmt=jpeg

640?wx_fmt=gif

 热 文 推 荐 

燃爆了!胡歌秒变最帅产品经理发布荣耀V20!

雷军:执掌金山纯属意外

假如程序员也修仙……

面向对象编程,再见!

别说创业维艰,16岁开发者从辍学歧视死亡威胁, 到开发出爆款应用, 她的人生远非成人想象

AI in 美团:吃喝玩乐背后的黑科技

老程序员肺腑忠告:千万别一辈子靠技术生存!

关于5G接入网,看这一篇就够啦!

 
 

print_r('点个好看吧!');
var_dump('点个好看吧!');
NSLog(@"点个好看吧!");
System.out.println("点个好看吧!");
console.log("点个好看吧!");
print("点个好看吧!");
printf("点个好看吧!\n");
cout << "点个好看吧!" << endl;
Console.WriteLine("点个好看吧!");
fmt.Println("点个好看吧!");
Response.Write("点个好看吧!");
alert("点个好看吧!")
echo "点个好看吧!";

640?wx_fmt=gif点击“阅读原文”,打开 优快云 App 阅读更贴心!

640?wx_fmt=png 喜欢就点击“好看”吧!
<think>好的,用户想了解RCAB模块在图像超分辨率任务中的作用和原理。首先,我需要回忆一下RCAB的相关知识。RCAB全称是Residual Channel Attention Block,应该是在残差块的基础上加入了通道注意力机制。这通常用于提升超分辨率模型的性能。 记得残差块(Residual Block)在ResNet中被广泛使用,通过跳跃连接缓解梯度消失的问题,帮助训练更深的网络。而通道注意力机制,比如SENet中的Squeeze-and-Excitation模块,能够自动学习各个通道的重要性,增强有用的特征,抑制不重要的。RCAB可能结合了这两者。 接下来,需要确认RCAB的具体结构。根据常见的设计,RCAB可能包含多个卷积层,然后是通道注意力模块,最后通过残差连接相加。这样可以在提取特征的同时,动态调整各通道的权重,让网络更关注重要的信息。 在超分辨率任务中,RCAB的作用应该是增强高频细节的恢复,比如边缘和纹理,这对于提升图像清晰度至关重要。同时,通道注意力机制能有效利用通道间的依赖关系,优化特征表达,从而提升重建质量。 应用场景方面,RCAB可能被用于如EDSR、RCAN等超分辨率模型中。这些模型通常堆叠多个RCAB模块,通过深层的网络结构逐步恢复高分辨率图像。特别是在处理大倍数超分辨率(如4x、8x)时,RCAB能帮助保持细节,减少模糊。 还需要考虑RCAB的优势。比如,通过残差学习简化了优化过程,而通道注意力则增强了特征的区分能力。这可能使得模型在计算资源有限的情况下仍能保持高效,同时提升性能。 需要验证这些信息是否正确。参考用户提供的资料,引用[1]提到多尺度卷积和特征融合,引用[2]提到信息交互和注意力机制。虽然没有直接提到RCAB,但通道注意力属于注意力机制的一种,符合引用中的信息。因此可以推断RCAB的应用场景与这些模块类似,用于特征提取和优化。 总结来说,RCAB的作用是通过残差结构和通道注意力机制,有效提取并优化特征,提升超分辨率重建的质量。应用场景包括各种基于深度学习的超分辨率模型,特别是在需要恢复细节和高效利用特征时。</think>RCAB(Residual Channel Attention Block)模块在图像超分辨率任务中主要用于**增强特征表达能力并优化高频细节恢复**,其核心原理是通过残差学习与通道注意力机制的结合,动态调整特征通道的重要性权重。 ### 作用与原理分步说明: 1. **残差学习框架** RCAB基于残差块(Residual Block)设计,包含两个卷积层和激活函数,通过跳跃连接(Skip Connection)将输入与输出相加。这种方式缓解了梯度消失问题,支持更深的网络训练,公式为: $$F(x) = H(x) + x$$ 其中$H(x)$为残差函数,$x$为输入特征。 2. **通道注意力机制** 在残差块后引入通道注意力模块(Channel Attention Module),通过全局平均池化(Global Average Pooling)统计通道特征,并利用全连接层生成通道权重: $$w_c = \sigma(W_2 \cdot \delta(W_1 \cdot \text{GAP}(x)))$$ 其中$\sigma$为Sigmoid函数,$\delta$为ReLU,$W_1$和$W_2$为全连接层参数。最终输出特征为各通道加权后的结果: $$x' = w_c \cdot x$$ 该机制使网络自动关注对重建更重要的特征通道[^1]。 3. **多尺度特征融合** RCAB常与多尺度特征提取模块结合(如引用[1]中提到的多尺度卷积层),通过不同感受野的卷积核捕获低频和高频信息,再利用通道注意力筛选关键特征,减少冗余计算,提升重建效率。 ### 应用场景 - **单图像超分辨率(SISR)**:如RCAN(Residual Channel Attention Networks)模型,通过堆叠多个RCAB模块恢复高分辨率图像的细节[^2]。 - **多模态超分辨率融合**:在红外与可见光图像融合任务中,RCAB用于增强跨模态特征的表征能力,保留边缘和纹理信息[^1]。 - **轻量化超分辨率网络**:由于通道注意力可抑制无效特征,RCAB在减少计算量的同时保持性能,适用于移动端部署。 ### 示例模型结构 ```python class RCAB(nn.Module): def __init__(self, channels): super().__init__() self.conv1 = nn.Conv2d(channels, channels, 3, padding=1) self.conv2 = nn.Conv2d(channels, channels, 3, padding=1) self.ca = ChannelAttention(channels) # 通道注意力模块 def forward(self, x): res = self.conv1(x) res = F.relu(res) res = self.conv2(res) res = self.ca(res) # 通道加权 return x + res # 残差连接 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值