一文读懂曲线调色原理


图一

1. 光学三原色

红、绿、蓝三个颜色组成光学三原色,当他们三个颜色等量混合的时候就会变成白色,而白色代表亮,所以也称为加色模式。

2. 印刷三原色

青、品、黄三个颜色组成印刷三原色,与光学三原色正好相反,当他们三个颜色等量混合的时候变成黑色,而黑色代表暗,所以也称为减色模式

3. 互补关系

光学三原色(RGB)和印刷三原色(CMYK)又是互补关系,所以从上述图中的互补关系可以看出以下对应关系:

  • 红色 - 青色 所以红色增加青色减少,青色增加红色减少
  • 绿色 - 品色 所以绿色增加品色减少,品色增加绿色减少
  • 蓝色 - 黄色 所以蓝色增加黄色减少,黄色增加蓝色减少
4. 颜色混合结果

从上图还可以看出光学三元色任意两个原色组合,都可以得到以下结果:

  • 蓝 + 绿 = 青色(红色的互补色)
  • 红 + 蓝 = 品色(绿色的互补色)
  • 红 + 绿 = 黄色(蓝色的互补色)
5. 如何应用

如果了解以上几点,那么就可以使用曲线去调节暗部、中间掉、高光区域的色调,具体有以下事例:

  • Q:如果想要为画面增加青色,使用曲线该怎么做,是直接降低R曲线还是有别的方法呢?
  • A:如果直接调整R曲线,增加青色,那么画面就在增加青色的同时也会变暗,因为青色属于印刷三原色,更重要的也是减色模式,增加青色的同时,其实也在减少红色,所以会变暗;最好的办法是使用光学三原色混合为画面增加青色,因为光学三原色是加色模式,在增加光学三原色的时候也会提亮画面。因此,我们知道蓝色 + 绿色为青色,所以为需要调整的地方分别增加蓝色和绿色,就会为画面注入青色,同时也会体提亮画面。

相同的道理,如果想要减少画面中的蓝色,那么可以增加黄色,而增加黄色有两种方式,就是直接加黄,直接加黄就会导致湖面变暗,和上边相同的道理,所以采用原色混合得到黄色,然后增加混合为黄色的原色,就会减少蓝色同时还会提亮画面。

6. 总结

核心是要掌握原色混合会得到什么颜色,加色模式和减色模式的区别,以及对应的互补色是什么,掌握这些,灵活运用,多尝试,就会掌握曲线调色。

### Transformers框架的原理 Transformers框架的核心基于Transformer架构,这是一种由Vaswani等人于2017年提出的神经网络模型[^4]。该架构主要分为两个部分:Encoder(编码器)和Decoder(解码器)。然而,在实际应用中,某些变体可能仅使用其中一个部分。 #### 输入表示 对于像BERT这样的模型,其输入是由三种嵌入向量相加构成的:Token Embeddings、Positional Embeddings以及Segment Embeddings[^1]。这种组合允许模型不仅学习单词的意义及其位置关系,还能区分不同句子片段间的差异。 #### 架构组成 - **自注意力层**:这是Transformer的关键创新之一,它让模型可以关注到输入序列的不同部分,从而捕捉更丰富的语义信息[^3]。 - **前馈神经网络**:应用于每一个位置上的独立转换操作,增加了表达能力。 - **归一化与残差连接**:通过加入这些技术来改善深层结构的学习效果并防止梯度消失问题的发生[^3]。 ### 使用教程 要开始使用Transformers库来进行自然语言处理任务,可以从安装Hugging Face提供的`transformers`包入手: ```bash pip install transformers ``` 加载预训练好的模型非常简便,比如下面是如何加载BERT用于分词的例子: ```python from transformers import BertTokenizer, TFBertModel tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = TFBertModel.from_pretrained("bert-base-uncased") inputs = tokenizer("Hello world!", return_tensors="tf") outputs = model(inputs) print(outputs.last_hidden_state) ``` 这段代码展示了如何初始化一个BERT tokenizer 和对应的TF (TensorFlow) 版本的 BERT 模型,并对一句话进行了编码得到隐藏状态作为输出。 ### 实战案例 - 计算词语相似度 如果想探索词汇间的关系,则可以通过Word Embedding实现这一点。这里给出一段简单的Python脚本来展示这一过程[^5]: ```python from gensim.models import KeyedVectors # 加载Google News pre-trained vectors word_vectors = KeyedVectors.load_word2vec_format('./GoogleNews-vectors-negative300.bin', binary=True) similar_words = word_vectors.most_similar('king', topn=5) for w,score in similar_words: print(f"{w}: {score}") ``` 此示例说明了如何利用预先训练好的谷歌新闻数据集中的词向量找到最接近给定单词的概念。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值