
理论
文章平均质量分 75
LucyGill
每周基本都会上线,评论的话看到都会回复的。
展开
-
区块链快速入门(一)--原来这就是区块链
区块链火了有几年了,由于项目需要,本社畜需要了解区块链背景及主要原理。因此,时隔几年,再次从csdn上撰文,力求用简单的语言对区块链进行描述,边学习边整理,用不太学术又不太业余的语言描述区块链。下面 ,我将以问答的方式,解释区块链中几个关键的问题。1.什么是区块链?可以从三个粒度进行理解:(1)区块链是一种数据库。(2)区块链是一种分布式账本数据库。(3)区块链是一种去中心化的分布式账本数据库。区块链由一个个区块链接而成,当前区块通过存储上一区块的哈希值实现链接,每个区块中都记录着一原创 2021-12-23 22:50:58 · 12309 阅读 · 0 评论 -
常用加密算法概述
题外话:最近某人在参加CTF比赛,为了寻找共同话题,并督促很久没动过脑的我学习,也给我讲解了几道题。经过考虑,加密方面的题和我的专业相符些,所以决定先攻破这方面的一些习题,权作打发时间了。在此总结一些作题过程中涉及的算法,加深记忆。1.base64概述:把明文对应成64个字符的加密算法。方法:每个字符对应8位二进制数,因此可把字符转化为二进制数。将每6个二进制数作为一个单位,那么共有64个这样的6位二进制数。设定64个字符与上述二进制数一一对应。如此,在对字符加密时,可先将字符转化为二进制数,再将原创 2021-01-10 22:01:22 · 634 阅读 · 0 评论 -
图论经典算法整理
之前在《数据结构》的课程、《离散数学》的课程,甚至《计算机图形学》中都接触过图论算法,现在网上搜罗若干经典图论算法,以便后用。1-3中,待求网络是带权图,所谓的“短”和“小”指的是权值最小。1. Dijkstra算法求单源最短路径的算法。即求网络中某个特定点v到网络中其他所有节点的最短路径。2. Floyd算法求网络中任意两点间最短路径的算法。3. Prim算法求连通图...原创 2020-03-30 22:19:28 · 4837 阅读 · 0 评论 -
2019.10.27复杂系统与社会计算研讨会
一、写在前面今天有幸参加了吕琳媛组织的复杂系统与社会计算研讨会,听到了业界大牛们的汇报,吃到了举办方准备的美味午餐和茶点,在精神和物质上得到了不少收获。学术会议不少见,免费且管饭的学术会议少见;大牛的汇报不少见,汇报准备充分、让人听得懂的汇报少见;发东西的会议不少见;发的东西考虑周全、正好为我所用的会议少见。为了参加这个会议,博主在没有打到车的情况下,冒着北京秋末飞刀一样的晨风含泪骑车4公里赶...原创 2020-03-30 22:15:38 · 548 阅读 · 0 评论 -
读懂概率图模型:你需要从基本概念和参数估计开始
本文转自机器之心,作者Prasoon Goyal原文链接如下:http://www.sohu.com/a/207319466_465975概率图模型是人工智能领域内一大主要研究方向。近日,Statsbot 团队邀请数据科学家 Prasoon Goyal 在其博客上分两部分发表了一篇有关概率图模型的基础性介绍文章。文章从基础的概念开始谈起,并加入了基础的应用示例来帮助初学者理解概率图模型的实用价值。...转载 2018-03-28 21:54:37 · 8104 阅读 · 7 评论 -
python 生成有向无环图(DAG)--改编自优快云
本文改编自优快云,作者ZhouMu,原文链接如下:https://blog.youkuaiyun.com/zhoujinyu0713/article/details/10163037?utm_source=tuicool本文的主要工作是,说明拓扑序的含义及其在生成DAG时的妙用,并给原文代码标注释。0. 拓扑序这一部分主要参考自百度百科中的“拓扑排序”词条。原文链接如下:https://baike.baid...原创 2018-05-26 17:36:03 · 13609 阅读 · 4 评论 -
Ontology Understanding Without Tears——本体理解的一篇论文翻译
Introduction目前为止,还没有同时利用结构和语义信息进行本体摘要的方法。基于此,本文将一个RDF/S数据库看成两个不同的但是相互连接的图:模式层图和数据层图。这样做就能在考虑所有数据的前提下给出本体摘要。具体来说,本文的贡献主要如下:提出了自动生成RDFS摘要的新平台,通过实例概括出模式层中最具代表性的概念。 为了构建图摘要,本系统综合利用了知识库中的结构信息和语义信息。将模...翻译 2018-10-28 19:39:42 · 425 阅读 · 0 评论 -
为什么神经网络能以任意精度拟合任意复杂度的函数?——转自简书
本文转自简书,作者朱新威。原文链接如下:https://www.jianshu.com/p/9ed784e7557b?utm_campaign=maleskine&utm_content=note&utm_medium=reader_share&utm_source=weixin在开始之前,我们先来看一下维基百科给出的万能近似定理(Universal approxi...转载 2019-04-03 21:21:12 · 6584 阅读 · 0 评论 -
base64加密原理详解——转自优快云
本文转自优快云,作者aozeahj。原文链接如下:https://blog.youkuaiyun.com/aozeahj/article/details/52507352 base64加密原理详解 声明:本文是在看了他人总结,并...转载 2019-05-09 10:14:56 · 352 阅读 · 0 评论 -
图论算法求两点间所有路径
最近写的算法需要用到这项功能,遂在优快云上找到了现成的算法。然而,那个算法存在一个不容易绕过去的坑,因此,总结在这里,以作记录。以下转自https://blog.youkuaiyun.com/ha000/article/details/523685661建图:图类中包括如下信息:顶点集合,邻接矩阵。节点类中包括如下信息:是否被访问过,节点的名称,从这个节点访问到下一个节点...原创 2019-07-02 10:58:40 · 9296 阅读 · 0 评论 -
认知智能的突围:NLP、知识图谱是AI下一个“掘金地”?——转自AI科技大本营
本文转自AI科技大本营,作者劭浩。原文链接如下:https://mp.weixin.qq.com/s?__biz=MzI0ODcxODk5OA==&mid=2247506864&idx=1&sn=893f2bf5484b7131de5224d3ec35ab7c&chksm=e99ee849dee9615f611c1347aa5c8d516ca9cbc6cd4...转载 2019-07-30 21:27:47 · 874 阅读 · 0 评论 -
马尔可夫逻辑网终极理解
最近在学习马尔科夫逻辑网相关知识,查阅相关资料无数,仍然觉得无法掌握其中内涵。历时约2周,终于在今天对其内涵了解一二,特此记录自己的理解。觉得不错的马尔科夫逻辑网相关资料:1.读懂概率图模型:你需要从基本概念和参数估计开始https://blog.youkuaiyun.com/lucygill/article/details/79734874https://blog.youkuaiyun.com/lucygill/art...原创 2018-04-01 20:10:48 · 9329 阅读 · 2 评论 -
用马尔科夫链求首达时的一种方法--意料之外,情理之中
一. 定义马尔科夫链:已知若干种状态,从当前状态转移到下一状态的概率,只取决于当前和上一步的状态,与其他状态无关。首达时:从某状态i出发,首次到达状态j时经历的时间。二. 假设条件已知共有k个状态(0,1,...,K-1),状态转移矩阵M(k*k),求从某状态i出发,首次到达状态K的时间向量v=(v0,v1,...vk-1)。这里假设是离散时间马尔科夫链,三. 问题求解求解原创 2018-02-25 21:06:07 · 4170 阅读 · 0 评论 -
LSA潜在语义分析--转自优快云
本文转自优快云,作者ROger_Wong原文链接如下:http://blog.youkuaiyun.com/roger__wong/article/details/41175967#reply在Wiki上看到的LSA的详细介绍,感觉挺好的,遂翻译过来,有翻译不对之处还望指教。原文地址:http://en.wikipedia.org/wiki/Latent_se转载 2018-01-14 09:31:49 · 1574 阅读 · 0 评论 -
神经网络机器翻译(1): Encoder-Decoder Architecture--转自优快云
端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。本文首先将简要介绍传统的统计机器翻译方法以及神经网络在机器翻译中的应用,然后介绍NMT中基本的“编码-解码”框架(Encoder-Decoder)。转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/det转载 2017-03-27 20:34:47 · 1752 阅读 · 0 评论 -
神经网络机器翻译(2): Attention Mechanism--转自优快云
这篇文章和上一篇文章正是我所需要的内容,找到的时候非常高兴,特别感谢作者Clear-。端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前篇NMT介绍的基本RNN Encoder-Decoder结构,RNNenc将源语言句子压缩成一个固定维度的向量是造成性能瓶颈的主要原因。为此,Bengio研转载 2017-03-28 18:53:23 · 2517 阅读 · 0 评论 -
写给新手看的机器学习原理--基于机器翻译
欢迎转载,转载请注明出处:http://blog.youkuaiyun.com/lucygill本文基于个人理解,欢迎讨论交流。最近在看斯坦福大学机器翻译的开源代码,琢磨着把代码稍微改动一下,做成中文到英文的翻译。参考了业界大牛的不少论文,大致明白了机器翻译实现的步骤:1.将源文件转化成词向量(像中文这种词之间没有明显符号的,要先进行分词)转化的方法,最简单的是生成one-hot词向量原创 2017-04-08 12:10:53 · 5767 阅读 · 2 评论 -
理解长短期记忆网络(LSTM)--转自优快云云计算
递归神经网络人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。传统的神经网络不能做到这点,而且这似乎也是它的主要缺陷。比如,你想对电影中每个点发生的事件类型进行分类。目前还不清楚传统神经网络如何利用之前事件的推理来得出后来事件。递归神经网络能够解决这一问题。这些网络转载 2017-03-24 09:57:08 · 2637 阅读 · 0 评论 -
一文搞懂HMM(隐马尔可夫模型)--转自博客园
本文转自博客园,作者skyme,原文链接如下:http://www.cnblogs.com/skyme/p/4651331.html什么是熵(Entropy)简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商转载 2017-05-14 18:55:54 · 879 阅读 · 0 评论 -
基于注意力的神经机器翻译--Luong et al.,2015
翻译自Luong等人2015年的文章《Effective Approaches to Attention-based Neural Machine Translation》翻译 2017-06-05 17:37:56 · 4335 阅读 · 0 评论 -
交叉熵代价函数(作用及公式推导)--转自优快云
本文转自优快云博客,作者__鸿。原文链接如下:http://blog.youkuaiyun.com/u014313009/article/details/51043064 交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之转载 2017-06-13 12:17:32 · 625 阅读 · 0 评论 -
简单理解与实验生成对抗网络GAN--转自优快云
本文转自优快云,作者 我i智能原文链接如下:http://blog.youkuaiyun.com/on2way/article/details/72773771版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]之前GAN网络是近两年深度学习领域的新秀,火的不行,本文旨在浅显理解传统GAN,分享学习心得。现有GAN网络大转载 2018-01-03 10:25:26 · 598 阅读 · 0 评论 -
信息熵、交叉熵与相对熵
本文参考了:https://baike.baidu.com/item/%E4%BF%A1%E6%81%AF%E7%86%B5/7302318?fr=aladdinhttp://blog.youkuaiyun.com/zb1165048017/article/details/48937135这三个概念广泛用于如nlp等深度学习任务中。TF-IDF等概念,是基于这些基本概念衍生出来的。原创 2018-01-04 09:19:16 · 1287 阅读 · 1 评论 -
N-Gram模型详解--转自新浪博客
原文链接如下:http://blog.sina.com.cn/s/blog_4b2ddd15010151th.html 我把N-Gram关键的几句话贴出来(对别人帖子的一些修改): 该模型基于这样一种假设,第n个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的是二元的转载 2017-03-27 20:12:09 · 2342 阅读 · 0 评论