- 博客(59)
- 收藏
- 关注
原创 CST2020中的后处理选项中没有 S-Parameters(0D)怎么解决
1、 1D Results ->S-Parameters->S1,12、 选中要查看的曲线3、 右键选择0D from 1D4、 弹出的对话框勾选Enable5、 点击OK
2022-01-10 20:24:59
3011
3
原创 第五章 Logistic回归--分类算法大比拼
#分类算法大比拼#-----------------------1、导入数据集-----------------------------#导入数据import pandas as pd#导入数据dataSet=pd.read_csv('../MLinAction_source/Social_Network_Ads.csv')print(dataSet.head())#探索数据print(dataSet.shape)print(dataSet.info())#-----------
2022-01-07 20:50:15
585
原创 第五章 Logistic回归--银行营销
#使用逻辑回归实现银行营销#导入数据集,这分割符号为';'#-----------------------------------------1、导入数据集-----------------------------------------------import pandas as pdbankSet=pd.read_csv('../MLinAction_source/bank-full.csv',sep=';')#检查是否有缺失值print(bankSet.isnull().sum())
2022-01-07 19:54:15
1440
原创 第五章 Logistic回归--预测病马的死亡率
#使用逻辑回归预测病马的死亡率import numpy as npimport pandas as pd#训练集train=pd.read_table('../MLinAction_source/horseColicTraining.txt',header=None)#测试集test=pd.read_table('../MLinAction_source/horseColicTest.txt',header=None)def sigmoid(inx): s=1/(1+np.exp
2022-01-07 16:24:20
1507
原创 第五章 Logistic回归
#Logistic回归#1、--------------------使用BGD(批量梯度下降)求解逻辑回归-----------------#伪代码'''每个回归系数初始化为1重复下面步骤直至收敛: 计算整个数据集的梯度 使用alpha*gradient更新回归系数的向量返回回归系数'''#导入数据集import pandas as pdimport numpy as npimport matplotlib.pyplot as pltdataSet=pd.read
2022-01-05 19:13:12
678
原创 第四章 朴素贝叶斯-Kaggle比赛之“旧金山犯罪分类预测“
#Kaggle比赛之"旧金山犯罪分类预测"#导入相应的包import pandas as pdfrom sklearn.preprocessing import LabelEncoderfrom sklearn.naive_bayes import BernoulliNBfrom sklearn.model_selection import train_test_splitfrom sklearn.metrics import accuracy_scorefrom sklearn.metric
2022-01-01 10:31:56
1638
1
原创 第四章 朴素贝叶斯-垃圾邮件过滤
#朴素贝叶斯之垃圾邮件过滤import os#----------------------1、获取数据集-----------------------import pandas as pd''' 函数功能:创建实验数据集 参数:无参数 返回: dataSet:带标签的实验数据集(DF格式)'''def get_dataSet(): ham=[] #ham目录下25个都要读取 ham(非垃圾邮件) for i in range(1,
2021-12-31 20:06:37
1060
原创 第四章 朴素贝叶斯
#朴素贝叶斯#GaussianNB:高斯分布(正态分布)的贝叶斯import pandas as pdfrom sklearn.naive_bayes import GaussianNB #高斯贝叶斯from sklearn.model_selection import train_test_split #切分训练集和测试集from sklearn.metrics import accuracy_score #计算准确度#导入数据集from sklearn import datasets
2021-12-31 17:00:18
565
原创 机器学习-python函数(个人记录)
1、reduce() 函数功能: reduce() 函数会对参数序列中元素进行累积语法:reduce(function, iterable[, initializer])参数:function -- 函数,有两个参数 iterable -- 可迭代对象 initializer -- 可选,初始参数from functools import reducesum1 = reduce(lambda x, y: x*y, [1,2,3,4,5]) # 使用 lambda 匿名函数s
2021-12-31 16:00:10
539
原创 安装jupyter lab
JupyterLab 3.0安装:1、可以通过pip:pip install jupyterlab==32、或者conda:conda install -c conda-forge jupyterlab=33、安装完成后运行jupyter lab
2021-12-30 11:08:47
2534
原创 机器学习-随手记
1、有监督 —随机划分训练集和测试集#划分训练集和测试集'''参数说明:dataSet:输入的数据集rate:训练集所占比例train,test:切分好的训练集和测试集'''def randSplit(dataSet,rate): l=list(dataSet.index) #提取出索引 random.shuffle(l) #随机打乱索引 索引后面的值并没有改变 dataSet.index=l #将打乱后的索引重新赋值给原数据集 n=dataSet.shape
2021-12-29 19:50:48
618
原创 第三章 决策树-隐形眼镜
#第三章 决策树from math import logimport operatorimport matplotlib.pyplot as pltplt.rcParams['font.sans-serif']=['SimHei'] #显示中文标签plt.rcParams['axes.unicode_minus']=False #这两行需要手动设置#计算给定数据集的香农熵#H(x)=-∑ p(xi)logp(xi)def calcShannonEnt(dataset):
2021-12-29 10:22:21
237
原创 第三章 决策树
#第三章 决策树from math import log#计算给定数据集的香农熵#H(x)=-∑ p(xi)logp(xi)def calcShannonEnt(dataset): numEntries=len(dataset) labelCounts={} for featVec in dataset: #为所有可能分类创建字典 currentLabel=featVec[-1] if currentLabel not in
2021-12-28 09:52:51
444
原创 pip安装pycocotools
安装pycocotools:Linux:pip install pycocotools;Windows:pip install pycocotools-windows(不需要额外安装vs))
2021-12-06 10:54:39
793
原创 第2章 K-近邻算法 程序2-1
创建ch2.py#k-近邻算法from numpy import *import operatordef createDataSet(): group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels=['A','A','B','B'] return group,labels创建ch2_1.pyimport operatorfrom numpy import *import ch2group,labels=c
2021-12-04 15:25:42
136
原创 Numpy
import numpy as npnp.__version__运行结果:‘1.20.3’1、Numpy.array1.1 利用Numpy创建一个数组 创建一个从0~10的数组nparr=np.array([i for i in range(10)])nparr运行结果:array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]1.2 查看存储类型 dtypenparr.dtype #查看存储类型运行结果:dtype(‘int32’)1.3 创建指
2021-09-30 09:00:45
748
原创 keras-归一化-激活函数-dropout
激活函数:1.softmax函数在多分类中常用的激活函数,是基于逻辑回归的,常用在输出一层,将输出压缩在0~1之间,且保证所有元素和为1,表示输入值属于每个输出值的概率大小2、Sigmoid函数f(x)=11+e−x f(x)= \frac{1}{1+\\{e^{-x}}} f(x)=1+e−x13.tanh函数:公式:tanh(x)4.relu函数公式:f(x)=max(0,x)5.Leaky Relu函数公式:{x,x>=0ex−1,x<0 \begin{cas
2021-09-27 19:00:16
1726
原创 keras_分类模型模型构建与归一化
import matplotlib as mpl #导入具有画图功能的库import matplotlib.pyplot as plt #matplotlib的子类 一个有命令风格的函数集合%matplotlib inline import numpy as np #是Python的一种开源的数值计算扩展 用于处理矩阵import pandas as pdimport osimport sysimport timeimport sklearnimport tensorflow as tf
2021-09-27 10:25:58
1024
原创 动态规划(DP)-01背包问题-(百练)1163:The Triangle
描述Figure 1 shows a number triangle. Write a program that calculates the highest sum of numbers passed on a route that starts at the top and ends somewhere on the base. Each step can go either diagonally down to the left or diagonally down to the right.输
2020-06-05 10:51:26
224
原创 动态规划(DP)-完全背包问题
完全背包问题:有n种物品,每种物品的单件重量为w[i],价值为c[i]。现有一个容量为V的背包,问如何选取物品放入背包,使得背包内物品的总价值最大。其中每种物品都有无穷件。完全背包问题与01背包问题的区别:完全背包的物品数量每种有无穷件,选取物品时对同一种物品可以选1件、选2件…只要不超过容量V即可,而01背包的物品数量每种只有一件。完全背包问题的每种物品都有两种策略:①不放第i件物品,那么(dp[i][j]=dp[i-1][j])二维数组{二维数组}二维数组 = >(dp[j]=dp[j
2020-06-05 09:34:55
667
原创 动态规划(DP)-01背包问题
01背包问题:有n件物品,每件物品的重量为w[j],价值为c[j]。现有一个容量为V的背包,问如何选取物品放入背包,使得背包内物品的总价值最大。其中每种物品都只有一件。先采用暴力枚举解决此问题解题思路:①每一件物品放或者不放进背包(两种选择)②若选择此物品,背包的容量V,和总价值W都要随之变化,返回选与不选的物品中价值最大值,否则,V,W都不需要变化③注意临界条件:选择的物品总体积不可以超过总的体积,注意i的值Code:#include<iostream>#include<
2020-06-05 03:11:22
340
原创 贪心算法-(百练)1083:Moving Tables
描述The famous ACM (Advanced Computer Maker) Company has rented a floor of a building whose shape is in the following figure.The floor has 200 rooms each on the north side and south side along the corridor. Recently the Company made a plan to reform its s
2020-05-19 16:30:40
556
原创 Dijkstra-旅游规划
有了一张自驾旅游路线图,你会知道城市间的高速公路长度、以及该公路要收取的过路费。现在需要你写一个程序,帮助前来咨询的游客找一条出发地和目的地之间的最短路径。如果有若干条路径都是最短的,那么需要输出最便宜的一条路径。输入格式:输入说明:输入数据的第1行给出4个正整数N、M、S、D,其中N(2≤N≤500)是城市的个数,顺便假设城市的编号为0~(N−1);M是高速公路的条数;S是出发地的城市编号;D是目的地的城市编号。随后的M行中,每行给出一条高速公路的信息,分别是:城市1、城市2、高速公路长度、收费额,中
2020-05-18 19:54:11
399
原创 贪心-Kruskal-并查集
概念:Kruskal:每次选择图中边权值最小的边加入最小生成树,并且加入的边不能构成回路.判断加入的边是否会构成回路 ==> 采用并查集方法并查集(UnionFindSet):是一种树型的数据结构,用于处理一些不想交集合的合并及查询问题主要操作:(1)初始化:把每个点所在集合初始化为其自身(2)查找:查找两个元素所在的集合,即找祖宗注意:查找时,采用递归的方法找其祖宗,祖宗集合...
2020-04-29 17:30:43
276
原创 图论-强连通分量-(百练)2186:Popular Cows
描述Every cow’s dream is to become the most popular cow in the herd. In a herd of N (1 <= N <= 10,000) cows, you are given up to M (1 <= M <= 50,000) ordered pairs of the form (A, B) that t...
2020-04-28 20:31:27
394
原创 图论-有向图中的强连通片
概念:强连通图:在有向图中,如果图中任何两个顶点Vi到Vj有路径,且Vj到Vi也有路径,则称G为强连通图强连通分量:有向图G的极大强连通子图称为G的强连通分量极大强连通子图:该子图是图G的强连通子图,如果再加入一个顶点,该子图不再是强连通的。1、先求图G的拓扑排序序列2、按照拓扑排序序列对rG进行深搜,把能到达的所有节点划分在一个强连通分量内,并进行标号3、输出标号的大小即是强连通分...
2020-04-28 19:35:30
1841
原创 贪心-Prime-(百练)1287:Networking
描述You are assigned to design network connections between certain points in a wide area. You are given a set of points in the area, and a set of possible routes for the cables that may connect pairs o...
2020-04-26 15:41:53
337
原创 贪心-Prime-(百练)2377:Bad Cowtractors
描述Bessie has been hired to build a cheap internet network among Farmer John’s N (2 <= N <= 1,000) barns that are conveniently numbered 1…N. FJ has already done some surveying, and found M (1 &l...
2020-04-26 15:22:22
278
原创 贪心-最小生成树-Prime
最小生成树(MST):是在一个给定的无向图G(V,E)中求一棵树T,使得这棵树拥有图G 中的所有顶点,且所有边是来自图G中的边,并且满足整棵树的边权之和最小。性质:①最小生成树是树,因此其边数等于顶点数减1,且树内一定不会有环②对给定的图G(V,E),其最小生成树可以不唯一,但其边权之和一定是唯一的③由于最小生成树是在无向图上生成的,因此其根节点可以是这棵树上的任意一个结点Prime算法...
2020-04-23 20:48:23
537
原创 计算机网络安全实验一(期末复习专用)
基于DWVA1、code:1’ or ‘1’=‘1 =>‘1’ or ‘1’ = ‘1’运行结果:2、Code:1’ (注入点) order by 2 (排序) #(注释符)运行结果:3、Code:1’ union select 1,2# (破库)运行结果:4、Code:1’ union select 1,database()# (找数据库)运行结果:...
2020-04-23 15:57:09
412
原创 图论-BFS-六度空间
“六度空间”理论又称作“六度分隔(Six Degrees of Separation)”理论。这个理论可以通俗地阐述为:“你和任何一个陌生人之间所间隔的人不会超过六个,也就是说,最多通过五个人你就能够认识任何一个陌生人。”如图所示。“六度空间”理论虽然得到广泛的认同,并且正在得到越来越多的应用。但是数十年来,试图验证这个理论始终是许多社会学家努力追求的目标。然而由于历史的原因,这样的研究具有太...
2020-04-21 20:31:41
700
原创 图论-BFS-二分图-(PATA)1154 Vertex Coloring (25分)
A proper vertex coloring is a labeling of the graph’s vertices with colors such that no two vertices sharing the same edge have the same color. A coloring using at most k colors is called a (proper) k...
2020-04-21 19:52:30
283
原创 图论-DFSandBFS
深度优先遍历:算法步骤(递归):①初始化图中所有顶点未被访问②从图中的某个顶点v出发,访问v并标记已访问③依次检查v的所有邻接点w,如果w未被访问,则从w出发进行深度优先遍历,重复②和③Code:#include<iostream>#include<vector>#include<algorithm>using namespace std;...
2020-04-21 16:06:06
231
原创 图论-DFS-Lake Counting
描述Due to recent rains, water has pooled in various places in Farmer John’s field, which is represented by a rectangle of N x M (1 <= N <= 100; 1 <= M <= 100) squares. Each square contains...
2020-04-18 15:28:11
245
原创 图论-关键路径-7-11 关键活动 (30分)
假定一个工程项目由一组子任务构成,子任务之间有的可以并行执行,有的必须在完成了其它一些子任务后才能执行。“任务调度”包括一组子任务、以及每个子任务可以执行所依赖的子任务集。比如完成一个专业的所有课程学习和毕业设计可以看成一个本科生要完成的一项工程,各门课程可以看成是子任务。有些课程可以同时开设,比如英语和C程序设计,它们没有必须先修哪门的约束;有些课程则不可以同时开设,因为它们有先后的依赖关系,...
2020-04-12 11:25:00
615
原创 图论-拓扑排序应用-7-12 How Long Does It Take (25分)
Given the relations of all the activities of a project, you are supposed to find the earliest completion time of the project.Input Specification:Each input file contains one test case. Each case sta...
2020-04-07 19:46:44
306
原创 图论-拓扑排序(有向图)
拓扑排序的两种求法:First:利用discoverTime(发现时间)&finishTime(结束时间)Second:利用入度第一种:Code:#include<iostream>#include<vector>#include<algorithm>using namespace std;int ans=1,flagCycle=0...
2020-04-07 16:19:04
648
原创 计算机组成原理-单位转换
字节、字、位、比特之间的关系:1位=1比特;1字=2字节;1字节=8位;1字=16位。1、位位是计算机存储的最小单位,简记为b,也称为比特(bit)计算机中用二进制中的0和1来表示数据,一个0或1就代表一位。位数通常指计算机中一次能处理的数据大小;2、比特比特(bit)是由英文BIT音译而来,比特同时也是二进制数字中的位,是信息量的度量单位,为信息量的最小单位;3、字节字节,英文B...
2020-04-05 10:27:57
4017
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人