
知识图谱实战-编程合集
文章平均质量分 64
知识图谱使用的基本库;实战
追赶早晨
这个作者很懒,什么都没留下…
展开
-
安装tensorflow
更详细的版本根据这个博客1、 安装anaconda, 这里已经安装成功,所以忽略!conda --versionconda info --envs分别看自己现在的环境2、 查看默认的python版本(也就是anaconda下的)pythonexit()3、安装环境conda create --name tf37 python=3.7这里默认给我安装的是python=3.7.11版本的再次查看python版本! 到此完成了python环境的创建!退出环境查看环境是原创 2021-08-18 20:05:23 · 468 阅读 · 0 评论 -
所有算法库的使用(sklearn,scipy)
sklearn类库基于Numpy 和 Scipy构建;Numpy拓展了Python以支持大数组和多维矩阵更高效的操作(基本元素都是array);Scipy提供了用于科学计算的模块;(有出名的稀疏矩阵)matplotlib也经常会联合一起使用包含了转换器和估计器这三个方法是所有特征预处理中都会有的!sklearn.preprocessing 中都是保存了各种特征处理函数!里面主要是fit 和 transform以及 fit_transformfitfit方法进行了一些转换准备工作,比如将标签字原创 2022-05-31 19:13:19 · 1666 阅读 · 0 评论 -
jupyter切换内核
所有的环境配置原创 2022-06-23 21:18:22 · 703 阅读 · 0 评论 -
【KPGNN】运行错误与成功后的合集
出错合集1. AssertionError这句话的意思是: DGLGraph.readonly已经不可用了,而现在高版本的DGLGraph总是支持mutable! 记住是总是,一直!!!所以现在由于版本问题,使用了高版本,原文中 DGLGraph.readonly肯定是False的,所以直接默认为True了2. 安装en_core_web_md第一种方法:https://blog.youkuaiyun.com/Jean001100/article/details/106203318/第二种方法:从原创 2021-09-26 23:19:19 · 867 阅读 · 2 评论 -
常见报错原因
因为经常犯这个错,但是还不记住! 以此来告诫自己!1. KeyError表示当前Key就没有!!!去检查一下,你出错的字典或者是列表(一般出这个错误肯定有个对照! )! 是不是这个key值就没在里面?总结一定要自己看出错信息!要遵循源代码的输入输出格式! 看看它怎么读的! 明白数据的变化形式...原创 2021-09-26 16:01:21 · 1387 阅读 · 0 评论 -
记录F1分数和召回率
参考博文:F1分数对于上面说的矩阵是不是挺懵的,它的真名叫混下矩阵,看下面混淆矩阵所有正确的预测结果都在对角线上,所以从混淆矩阵中可以很方便直观的看出哪里有错误,因为他们呈现在对角线外面。它允许我们做出更多的分析,而不仅仅是局限在正确率。准确率对于分类器的性能分析来说,并不是一个很好地衡量指标,因为如果数据集不平衡(每一类的数据样本数量相差太大),很可能会出现误导性的结果。例如,如果在一个数据集中有95只猫,但是只有5条狗,那么某些分类器很可能偏向于将所有的样本预测成猫。整体准确率为95%,但是原创 2021-09-26 14:26:17 · 466 阅读 · 0 评论 -
【Text_classification】 PaddlePaddle框架下出错调整到运行的实验和记录
下载的模型存储到这里了!!是不是包含了头介绍:就是是不是有第一行的标签!!!是这个函数有问题:我们在base_NLP_dataset中将源码调整为label 是第一列! text文本是第二列! 但是这样是有问题的!原因一: 我们pycharm中改正可能在linux下没有改正原因二: 这样改正还是不行的!所以我们直接在原文件中将两列互换!两列互换 DF yydsimport pandasimport pandas as pd实现行列互换 DF yydspath = ".原创 2021-09-22 22:44:59 · 375 阅读 · 0 评论 -
【Text_Classification】学习到的语法知识
1. 主任务: 字典中每个种类的准确率1.1 分母: 首先计算每个种类的总数!for value in label: # get(value, num)函数的作用是获取字典中value对应的键值, num=0指示初始值大小。 label_cout[value] = label_cout.get(value, 0) + 1 label_acc[value] = label_acc.get(value, 0)print(label_cout)print(label_acc)原创 2021-09-22 22:42:28 · 255 阅读 · 0 评论 -
安装pp框架
第一步: 创建环境conda create --name pp37 python=3.7第二步: 激活环境conda activate pp37第三步: 官方安装conda install paddlepaddle-gpu==2.1.3 cudatoolkit=10.2 --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/Paddle/...原创 2021-09-19 21:51:36 · 193 阅读 · 0 评论 -
【RippleNet】(一)preprocessor.py【未完】
首先读入的文件有movie和book和news三种,肯定会选择一种进行解析!下面我们以movies作为样例分析:本论文中使用的数据集是movie-1mratings.dat:分别是用户::电影::评分::电影编号item_index2entity_id_rehashed.txt文件:内容:import argparseimport numpy as npRATING_FILE_NAME = dict({'movie': 'ratings.dat', 'book': 'BX原创 2021-09-02 22:24:46 · 936 阅读 · 1 评论 -
知识图谱源码详解【八】__init__.py
import torchfrom src.model.DKN.KCNN import KCNNfrom src.model.DKN.attention import Attentionfrom src.model.general.click_predictor.DNN import DNNClickPredictor# 就是把整个模型框架梳理到一块了! class DKN(torch.nn.Module): """ Deep knowledge-aware network.原创 2021-08-27 14:59:59 · 617 阅读 · 0 评论 -
【DKN】(五)attention.py
import torchimport torch.nn as nnimport torch.nn.functional as Fclass Attention(torch.nn.Module): """ Attention Net. Input embedding vectors (produced by KCNN) of a candidate news and all of user's clicked news, produce final user emb.原创 2021-08-27 14:47:55 · 309 阅读 · 0 评论 -
【DKN】(六)KCNN.py
内容import torchimport torch.nn as nnimport torch.nn.functional as Ffrom src.model.general.attention.additive import AdditiveAttentiondevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")class KCNN(torch.nn.Module): """ K原创 2021-08-27 14:38:12 · 759 阅读 · 0 评论 -
【DKN】(七)dataset.py【未完】
内容里面有的函数在这里https://blog.youkuaiyun.com/qq_35222729/article/details/119882362try: config = getattr(importlib.import_module('config'), f"{model_name}Config")except AttributeError: print(f"{model_name} not included!") exit()class BaseDataset(Data原创 2021-08-27 11:34:30 · 314 阅读 · 0 评论 -
【DKN】(四)train.py
内容try: #不用多言, 获得该模块下的model_name函数 Model = getattr(importlib.import_module(f"model.{model_name}"), model_name) config = getattr(importlib.import_module('config'), f"{model_name}Config")except AttributeError: print(f"{model_name} not included!原创 2021-08-26 22:33:17 · 674 阅读 · 0 评论 -
如何并行运行程序
参考了官方文档, torch.nn.parallel.DataParallel以及https://zhuanlan.zhihu.com/p/102697821在运行此DataParallel模块之前,并行化模块必须在device_ids [0]上具有其参数和缓冲区。在执行DataParallel之前,会首先把其模型的参数放在device_ids[0]上,一看好像也没有什么毛病,其实有个小坑。我举个例子,服务器是八卡的服务器,刚好前面序号是0的卡被别人占用着,于是你只能用其他的卡来,比如你用2和3号卡,如原创 2021-08-25 14:38:30 · 904 阅读 · 0 评论 -
【DKN】(二)config.py
class BaseConfig(): """ General configurations appiled to all models """ num_epochs = 2 #迭代次数 num_batches_show_loss = 100 # Number of batchs to show loss num_batches_validate = 1000 # Number of batchs to check metrics on validatio原创 2021-08-24 22:15:42 · 315 阅读 · 0 评论 -
【DKN】(三)data_preprogress.py
内容try: # 以绝对导入的方式导入cofig对象,并获取其{model_name}Config! config = getattr(importlib.import_module('config'), f"{model_name}Config")except AttributeError: print(f"{model_name} not included!") exit()这里就是config下的属性类下面是解析behavior.tsv文件, behav原创 2021-08-24 22:15:26 · 1606 阅读 · 4 评论 -
运行试错合集
试错:在服务器训练好的参数直接被pycharm映射给覆盖了!记得把这里取消掉! 如果在py文件中修改了代码,手动上传! 就是上面的upload!原创 2021-08-23 21:57:17 · 126 阅读 · 0 评论 -
Linux常用指令自己备用
~ 和 / 的区别:~ 是当前用户的目录地址/ 是根目录的地址(一般称呼为root,/ 和 /root/ 是有区别的)当用户是root用户时~ 代表/root/,即根目录下的root目录/ 代表/ ,即根目录当用户是jack用户时~ 代表/home/jack,即根目录下的home目录下的jack目录/ 代表/ ,即根目录传输文件要安装软件博客yum install lrzszrz解压文件直接解压: unzip解压到指定文件: unzi原创 2021-08-21 22:03:50 · 283 阅读 · 0 评论 -
pycharm中无法识别相对路径的问题
这种情况如果在Windows下操作如下:第一步: 往往拷贝下来的程序是在linux上运行的第二步: 设置根路径要调整有python.exe文件的地方!这两个路径要设置成为自己的项目根目录!原创 2021-08-20 20:21:55 · 2560 阅读 · 0 评论 -
【DKN】(一)KCN详解
_ init _()函数参数: self, config, pretrained_word_embedding, pretrained_entity_embedding, pretrained_context_embeddingconfig: 设置的固定的参数!pretrained_word_embedding: 根据下面的使用是一个bool类型,表示是不是单词被预训练过!pretrained_entity_embedding、pretrained_context_embedding: 同理也是s原创 2021-08-19 22:15:22 · 1571 阅读 · 1 评论 -
torch.nn
torch.nn 与 torch.nn.functional说起torch.nn,不得不说torch.nn.functional!这两个库很类似,都涵盖了神经网络的各层操作,只是用法有点不同,比如在损失函数Loss中实现交叉熵! 但是两个库都可以实现神经网络的各层运算。其他包括卷积、池化、padding、激活(非线性层)、线性层、正则化层、其他损失函数Loss,两者都可以实现不过nn.functional毕竟只是nn的子库,nn的功能要多一些,还可以实现如Sequential()这种将多个层弄到一个序列原创 2021-08-19 22:14:54 · 4725 阅读 · 0 评论 -
torch.nn.embedding()
作者:top_小酱油链接:https://www.jianshu.com/p/63e7acc5e890来源:简书内容:上述是以RNN为基础解析的torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None)意义其为一个简单的存储固定大小的词典的嵌入向量的查找表原创 2021-08-19 17:12:25 · 4428 阅读 · 0 评论 -
torch.nn.Module()
torch.nn.Module()如果自己想研究,官方文档它是所有的神经网络的根父类! 你的神经网络必然要继承!模块也可以包含其他模块,允许将它们嵌套在树结构中。所以呢,你可以将子模块指定为常规属性。常规定义子模块的方法如下:以这种方式分配的子模块将被注册(也就是成为你的该分支下的子类),当你调用to()等方法的时候时,它们的参数也将被转换,等等。当然子模块就可以包含各种线性or卷积等操作了! 也就是模型变量:1. training (bool) - Boolean表示该模块是处于培训模原创 2021-08-19 15:43:30 · 4330 阅读 · 0 评论