远离电视,告别“弱智”

      今天看到一篇博文,很有感慨,很有启发。其实我个人一直都比较抵制电视,也在努力帮助身旁的人远离电视。不过一直都是收效甚微......

 

博文原文:“

      做为一个长期泡在网上的网民,我发现互联网和电视这两大社会媒体正处于一种对立和相互敌视的状态,电视界不懂互联网,他们做节目一提到网络,尽是妖魔化的批评,网民也不信任电视媒体,反而宁可听信网络上的消息。这一切到底是什么原因呢?

  低智商社会

  最近看了日本大前研一教授写的《低智商社会》一书让我豁然开朗,答案正如大前研一先生在《低智商社会》一书中提出的:电视等媒体正在把人们引向?低智商社会?的深渊。

      ......

      原文地址: http://www.williamlong.info/archives/2290.html

 

      //我要找来这本书《低智商社会》看看

 

      记得本科的时候,同学就跟我说过,好像是美国或者哪个国家的科学家统计过。两组人,一个月,一组上网一组看电视。一个月后两组人电视组整体智商降低,上网组部分人智商升高,部分人智商降低。

      当时我还不太能够理解,认为电视和网络就是一个媒体而已,虽然门槛不同(看电视会用遥控就行了,上网需要的基本素质比较多:电脑操作、浏览器的认识、哪里是地址栏、自己寻找娱乐的能力和搜索的能力)。

 

后来逐渐的,懂事了,逐渐知道为什么那么多网民抵制电视了:

      1.电视是一种垄P断行为,网络是一种释放

      打开电视,无论有再多的台也好,播放的内容都是一样的。新闻是一样的,电视剧是一样的,就连娱乐节目也是一样的。从形式到内容,从化妆到发型,就连开场白都是一样的。这其中当然有模仿的成分,可最多的就是垄P断。资源的垄P断、播放权的垄P断、审查的垄P断,以及意识形态的垄P断。

      网络则不然,虽然有很多的绳索一条一条的绑上网络的肩膀,网络还是在不停地向我们释放各种不同的内容,多元化的意识和养分。就算中文的网络完了,我们还有英文的网络,还有不同的声音。

      正应了那句话:“以前学习英文是为了了解世界,现在才知道学习英文是为了了解我们自己”。

 

      2.电视是一种灌输,网络是一种互动

      电视从一开始就不是娱乐的工具和渠道,而是灌输的通道和方式。

      打开电视,电视正在不断地给我们灌输,正在不断地校正我们的价值观和世界观。尤其是小孩子,以前的小孩子还能够接触到日本的动画片等不同的价值观,而现在只能接触到康乾盛世的价值观。在这种虚假的虚伪的三雅的灌输下,我表示对电视机前的小观众的慰问。

      网络则不同,网络给我们互动的机会。我不同意你的观点,但是我也不能抹杀你表达你观点的权力。这就是网络给我们的一个最基本最公平的表达自己观点的渠道,如果网络可以不被捆绑的话。

 

      3.电视是明目张胆的造假,网络是潜伏的真相

      电视给我们的是一个预定好的页面,一个约定好的意识。例如:

      “央视《每周质量报告》吹嘘三鹿奶粉经过了?1100道检测?,在《花朵在网游中迷失 只为报P复母亲》的新闻报道少女沉迷于劲舞团,但网络游戏画面却是日本色P情游戏尾P行3,连续几年在CCAV的春晚亮相的宋P山P木则是个强J犯??电视购物买来的全是垃圾手机垃圾产品..

      ”

      在这种强大的造假面前,很多人选择了相信网络而不是相信电视。

 

      不能否认,网络中也存在虚假、骗局等等假象,可是只要存有去伪存真的心,总能找到真相的蛛丝马迹。可是电视呢?

      在这样一个强势而又虚假的媒体面前,我为那些每天还捧着电视机不放手的大朋友小朋友们表示遗憾。

 

                                                         elemark

                                                2010年8月24日12:59:45

                                           http://elemark.iteye.com

 

PS. 电视节目也不能一棍子敲死,很多美剧很多英美电视节目真的能让我学习到很多。比如Lie to me, Lost等等

体育台和游戏台也不在我的打击范围内,爱体育爱游戏爱生命

 

PS. 看到这篇博文的朋友,请您想想,您所看到的电视台和电视节目存在以上的问题么?您认为继续看下去,您的思维方式会逐渐变得跟电视一样弱智么?

### 对大型预训练模型进行微调的方法 对于大型预训练模型的微调,存在多种策略来优化性能并减少资源消耗。具体来说: #### 微调方式的选择 有三种主要类型的微调方法适用于不同的场景和需求[^1]。 - **仅预测模式** 这是最简单的形式,其中预先训练好的模型被用于直接做预测而不改变其任何参数。这种方式适合于源域与目标任务非常相似的情况,在这种情况下能够快速获得较好的效果而无需额外训练时间。 - **部分微调(迁移学习)** 此方法涉及冻结大部分网络权重,只调整最后一层或多层以适应新任务的需求。这通常意味着更改全连接层(fc layer),以便它可以处理新的类别数。这种方法既利用了原始模型强大的特征提取能力又减少了过拟合的风险。 - **全面微调** 当希望进一步改进模型表现时可以选择此选项,即不仅更新顶层还解冻一些甚至全部卷积层来进行端到端的学习。虽然这样做会显著增加计算成本,但对于那些拥有充足算力并且追求更高准确性的项目而言可能是值得的投资。 #### Adapter-Tuning 方法简介 除了上述传统意义上的微调外,还有专门设计用来应对大规模预训练模型特殊挑战的技术——比如 Adapter-Tuning 。这是一种轻量级方案,通过向现有架构内部添加小型辅助结构(称为适配器) 来实现高效的任务定制化改造[^3]。这些新增组件允许在不影响整体稳定性的同时引入必要的灵活性去捕捉特定领域内的细微差别。 ```python class Adapter(nn.Module): def __init__(self, input_size=768, adapter_size=64): super().__init__() self.down_project = nn.Linear(input_size, adapter_size) self.up_project = nn.Linear(adapter_size, input_size) def forward(self, hidden_states): adjusted_hidden_state = self.down_project(hidden_states) nonlinearity_applied = torch.relu(adjusted_hidden_state) output = self.up_project(nonlinearity_applied) return output + hidden_states ``` 这段代码展示了如何构建一个基本版本的 Adapter 层,它接受来自 BERT 或其他 Transformer 架构中的隐藏状态作为输入,并经过两次线性变换以及 ReLU 激活函数作用后再返回给原位置继续传播下去。 #### 实践建议 当决定采用哪种方式进行微调时应考虑多个因素,包括但不限于可用硬件条件、预期精度水平及开发周期长短等实际限制条件。如果目标是在短时间内得到满意的结果,则可能更倾向于选择前两种较为保守的方式;而对于长期研究或工业界应用则不妨尝试更加激进但也更有潜力取得突破进展的做法。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值