Computer keyboard key explanations

本文详细介绍计算机键盘上各按键的功能及用途,包括常见的Windows键、Mac命令键、功能键(F1-F12)、特殊符号键等,并提供使用实例。

http://www.computerhope.com/keys.htm

When talking to tech support or to other people about keyboard commands, web pages, and command line commands, you may hear such things as forward slash,backward slash, and caret. Many times this can be confusing for users unfamiliar with each of the symbols found on a keyboard. Below is a chart that can be used to identify each keyboard key and give even more information about what that key is used for and examples of how it could be used.

Symbol Explanation
Windows PC keyboards have a Windows key represented by a flag.
Command Apple Mac computers have a command key.
F1 - F12 Information about the F1 through F12 keyboard keys.
Tab Tab key
Caps lock Caps lock key
Shift Shift key
Ctrl Ctrl (Control) key
Alt Alt (Alternate) key (PC Only; Mac users have Option key)
Back Space Back space key
Delete Delete or Del key
Enter Enter key
Prt Scrn Print screen key
Scroll lock Scroll lock key
Pause Pause key
Break Break key
Insert Insert key
Home Home key
Page up Page up or pgup key
Page down Page down or pgdn key
Num Lock Num Lock key
~ Tilde
` Acute, Back quote, grave, grave accent, left quote, open quote, or a push
! Exclamation mark, Exclamation point, or Bang
@ Ampersat, Arobase, Asperand, At, or At symbol
# Octothorpe, Number, Pound, sharp, or Hash
£ Pounds Sterling or Pound symbol
Euro
$ Dollar sign
¢ Cent sign
¥ Japanese Yen
$ Generic currency
§ Micro or Section
% Percent
° Degree
^ Caret or Circumflex
& Ampersand, Epershand, or And
* Asterisk and sometimes referred to as star.
( Open parenthesis
) Close parenthesis
- Hyphen, Minus or Dash
_ Underscore
+ Plus
= Equals
{ Open Brace, squiggly brackets, or curly bracket
} Close Brace, squiggly brackets, or curly bracket
[ Open bracket
] Close bracket
| Pipe, Or, or Vertical bar
\ Backslash or Reverse Solidus
/ Forward slash, Solidus, Virgule, or Whack
: Colon
; Semicolon
" Quote, Quotation mark, or Inverted commas
' Apostrophe or Single Quote
< Less Than or Angle brackets
> Greater Than or Angle brackets
, Comma
. Period, dot or Full Stop
? Question Mark

先展示下效果 https://pan.quark.cn/s/a4b39357ea24 遗传算法 - 简书 遗传算法的理论是根据达尔文进化论而设计出来的算法: 人类是朝着好的方向(最优解)进化,进化过程中,会自动选择优良基因,淘汰劣等基因。 遗传算法(英语:genetic algorithm (GA) )是计算数学中用于解决最佳化的搜索算法,是进化算法的一种。 进化算法最初是借鉴了进化生物学中的一些现象而发展起来的,这些现象包括遗传、突变、自然选择、杂交等。 搜索算法的共同特征为: 首先组成一组候选解 依据某些适应性条件测算这些候选解的适应度 根据适应度保留某些候选解,放弃其他候选解 对保留的候选解进行某些操作,生成新的候选解 遗传算法流程 遗传算法的一般步骤 my_fitness函数 评估每条染色体所对应个体的适应度 升序排列适应度评估值,选出 前 parent_number 个 个体作为 待选 parent 种群(适应度函数的值越小越好) 从 待选 parent 种群 中随机选择 2 个个体作为父方和母方。 抽取父母双方的染色体,进行交叉,产生 2 个子代。 (交叉概率) 对子代(parent + 生成的 child)的染色体进行变异。 (变异概率) 重复3,4,5步骤,直到新种群(parentnumber + childnumber)的产生。 循环以上步骤直至找到满意的解。 名词解释 交叉概率:两个个体进行交配的概率。 例如,交配概率为0.8,则80%的“夫妻”会生育后代。 变异概率:所有的基因中发生变异的占总体的比例。 GA函数 适应度函数 适应度函数由解决的问题决定。 举一个平方和的例子。 简单的平方和问题 求函数的最小值,其中每个变量的取值区间都是 [-1, ...
### TensorFlow 的详细解释与教程 #### 嵌入层的工作机制 在 TensorFlow 中,`Embedding` 层用于处理自然语言处理 (NLP) 和其他涉及离散数据的任务。该层接受由令牌 ID 表示的填充序列作为输入,并通过查找预先定义好的嵌入矩阵来返回相应的词向量[^2]。 对于 `Embedding` 层而言,其输出是一个三维张量 `[num_sequences, padded_sequence_length, embedding_vector_dim]`,其中每一维分别代表样本数量、最大长度以及每个单词对应的维度大小。这使得模型能够有效地捕捉到词语之间的关系并应用于下游任务中。 ```python import tensorflow as tf vocab_size = 1000 # 字典大小 embedding_dims = 64 # 向量维度数 max_len = 50 # 句子的最大长度 model = tf.keras.models.Sequential([ tf.keras.layers.Embedding(input_dim=vocab_size, output_dim=embedding_dims, input_length=max_len), ]) ``` #### 使用 NCE 损失函数优化计算效率 当面对大规模分类问题时,传统的 softmax 函数会带来巨大的计算开销。为此,在 TensorFlow 提供了一种称为噪声对比估计(Noise Contrastive Estimation, NCE)的方法来近似求解这个问题。这种方法不仅提高了训练速度还减少了内存占用[^1]。 具体来说,tf.nn.nce_loss() 接口允许开发者指定负采样分布以及其他超参数以更好地适应特定应用场景下的需求。值得注意的是,尽管 NCE 能够显著提升性能但它并不总是适用于所有的场景;因此选择合适的损失函数至关重要。 ```python nce_weights = tf.Variable( tf.random.truncated_normal([vocabulary_size, embedding_size], stddev=1.0 / math.sqrt(embedding_size))) nce_biases = tf.Variable(tf.zeros([vocabulary_size])) loss = tf.reduce_mean( tf.nn.nce_loss(weights=nce_weights, biases=nce_biases, labels=train_labels, inputs=embed, num_sampled=num_sampled, num_classes=vocabulary_size)) ``` #### 训练过程中的反向传播算法 为了使神经网络具备良好的泛化能力,通常采用梯度下降法及其变体来进行权重更新操作。在这个过程中,backpropagation 是用来计算误差相对于各个参数偏导数的核心技术之一[^4]。 简单来讲,BP 算法按照链式法则依次向前传递预测值直至最后一层得到最终结果后再逐级回传累积起来的局部敏感度信息给前一层节点直到完成一轮完整的迭代流程。随着不断重复上述步骤,整个系统的拟合精度也会随之提高从而实现预期目标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值