习得性无助

今天学了个新词---习得性绝望

习得性无助是描述动物 -- 包括人在内 -- 在愿望多次受到挫折以后,表现出来的绝望和放弃的态度。
这时的基本心理过程是退缩和放弃,对人来说,还有自我怀疑、自我否定和自我设限等,使人变得悲观绝望、听天由命。

实验一
1975年,心理学家塞里格曼用狗做实验。 塞里格曼把狗分为两组,一组为实验组,一组为对照组。
        程序一:先把实验组的狗放进一个笼子里,这个笼子是狗无法逃脱的,里面还有电击装置。给狗施加电击,电击的强度能够引起狗的痛苦,但不会伤害狗的身体。实验者发现,这只狗在一开始被电击时,拼命挣扎,想逃脱这个笼子,但经过再三的努力,仍然发觉无法逃脱后,挣扎的程度逐渐降低了。
        程序二:随后,把这只狗放进另一个笼子,这个笼子由两部分构成,中间用隔板隔开,隔板的高度是狗可以轻易跳过去的。隔板的一边有电击,另一边没有电击。当把经过前面实验的狗放进这个笼子时,实验者发现它们除了在头半分钟惊恐一阵子之外,此后一直卧倒在地接受电击的痛苦,那么容易逃脱的环境,它们连试也不去试一下。
        而把对照组中的狗,即那些没有经过前面第一个程序实验的狗直接放进后一个笼子里,却发现他们全部能逃脱电击之苦,轻而易举地从有电击的一边跳到安全的另一边。


实验二
       在一个鱼缸里养两条鱼,一条大的,一条小的(被大鱼吃的)。在鱼缸中间放置一块透明玻璃,然后小的就常常到大的身边游弋(不知道危险),
大的多次试图吃掉小的不能够得手(因为有玻璃隔着)。 过了一段时间,撤掉玻璃,两条鱼真正会面,结果小鱼自然高兴的乱游,而大鱼则对此视而不见。

### CBOW 模型学习词嵌入的过程 连续词袋(Continuous Bag-of-Words, CBOW)模型是一种用于训练词向量的方法。该方法通过预测给定上下文中的目标单词来学习词语的分布式表示。 在CBOW模型中,输入是一组上下文单词,而输出是一个中心单词。具体来说,在定义模型时会使用Keras Sequential API[^1]: ```python from keras.models import Sequential from keras.layers import Dense, Embedding, Lambda model = Sequential() model.add(Embedding(input_dim=vocab_size, output_dim=embedding_dims, input_length=max_len)) model.add(Lambda(lambda x: K.mean(x, axis=1), output_shape=(embedding_dims,))) model.add(Dense(vocab_size, activation='softmax')) ``` 此代码片段展示了构建一个简单的CBOW架构的方式。`Embedding`层负责将词汇表中的索引映射到低维空间内的稠密向量;随后利用平均操作聚合这些向量作为当前窗口内所有上下文词的整体表达形式;最后经过全连接层计算得到最终的概率分布并选取最可能的目标字。 为了防止模型记住特定位置上的目标词而不是真正理解其语义含义,在准备数据集阶段应当去除掉原本处于中间位置的那个待预测项[^2]。此外还需注意确保覆盖全部潜在组合情况下的样本对以便充分训练网络参数。 当评估这类基于概率的任务表现好坏程度的时候,则通常采用比较预期频次同实际观测所得之间差异大小的形式来进行衡量而非单纯依靠类别标签匹配度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值