使用visio创建数据库模型

使用软件:visio 2007

下载地址:https://pan.baidu.com/s/1i4LG1Id

主要参考:http://blog.youkuaiyun.com/zhang_xinxiu/article/details/9392429

              http://www.educity.cn/wenda/394495.html

成果展示:

             

主要步骤:

     1.利用反向工程从mdb中把已经建好的表格导入到visio;

     2.分析设置表格关联,关联线样式及属性设置:数据库----选项----文档----同时选中关系和鱼尾纹,数据库属性中的定义和杂项等。

     3.设置好后导出为图片。

转载于:https://www.cnblogs.com/fatherZyl/p/6374285.html

### TransformerQKV 的概念和作用 #### 查询 (Query, Q) 查询向量表示当前关注的词语或位置的兴趣点。对于句子中的每一个词,都会生成一个对应的查询向量来表达该词希望获取的信息方向。例如,在分析单词 "machines" 时,其查询向量旨在捕捉有关此词的相关背景信息。 ```python query_vector_machines = word_embedding("machines") @ W_Q ``` 这里 `W_Q` 是一个可训练参数矩阵,用来转换原始词嵌入到查询空间中[^1]。 #### 键 (Key, K) 键向量则对应着整个输入序列里各个部分所能提供给其他成分的信息线索。每个词都有自己的键向量,它反映了这个词可以贡献哪些特征供他人参考。当试图理解某个特定词汇的意义时,会拿这个目标词汇的查询向量去匹配所有可能关联项所提供的键向量。 ```python key_vectors = [ word_embedding("thinking") @ W_K, word_embedding("machines") @ W_K ] ``` 同样的,`W_K` 表示另一个独立学习得到的投影矩阵,负责把标准词嵌入映射成适合做对比操作的形式[^2]。 #### 值 (Value, V) 一旦确定了最有可能影响当前节点解释性的若干候选对象之后,则需进一步评估这些选项究竟携带了多少有用的内容——这便是值的作用所在。简单来说,如果某一部分被认为对解答问题至关重要的话,那么它的值就会被赋予较高的权重;反之亦然。最终,通过对一系列经过筛选后的值进行加权平均运算得出的结果构成了自注意力层的主要输出形式之一。 ```python value_vectors = [ word_embedding("thinking") @ W_V, word_embedding("machines") @ W_V ] attention_weights = softmax(query_vector_machines @ key_vectors.T / sqrt(d_k)) output_representation = attention_weights @ value_vectors ``` 其中 `d_k` 是键向量的维度大小,而 `softmax()` 函数确保了不同位置之间的相对重要程度总和为一。上述过程展示了如何利用软性选择机制从众多备选方案当中提炼出最具代表性和影响力的片段作为下一步工作的基础[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值