使用tf.keras实现多层感知器(神经网络)的代码实现(tensorflow2.0基础入门2)

**

逻辑回归与交叉熵

**
1)线性回归预测的是一个连续的值
2)逻辑回归给出的”是”和“否”的回答
3)逻辑回归的激活函数 采用的是(sigmoid激活函数) sigmoid函数是一个概率分布函数,即给定某个输入,它将输出为一个0到1的概率值
4)对于分类问题,我们最好的使用交叉嫡损失函数会更有效,交叉嫡会输出一个更大的“损失”.
5)平方差损失也可以使用,但是要求:训练次数要非常多,训练速度要非常的慢。 平方差所惩罚的是与损失为同一数量级的情形.

交叉嫡损失函数:

1)交叉嫡刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉嫡的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉嫡
2)交叉熵实际上就是放大了两种概率分布的损失.


import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

data=pd.read_csv('./dataset/credit-a.csv',header=None) #header 针对的是没有表头的数据(自动添加表头)
print('原始数据:\n',data,'\r\n')

#print('原始数据的最后一列有多少的不同值和个数:\n',data.iloc[:,-1].value_counts(),'\r\n')
#value_counts() 是一种查看表格某列中有多少个不同值的快捷方法,并计算每个不同值有在该列中有多少重复值。

x=data.iloc[:,0:-1]
y=data.iloc[:,-1].replace(-1,0) #将-1替换为0
print('输入X:\n',x,'\r\n')
print('输入y:\n',y,'\r\n')

#建立模型
model=tf.keras.Sequential()#顺序模型的初始化(Sequential)
model.add(tf.keras.layers.Dense(4,input_shape=(15,),activation='relu'))#输入层
model.add(tf.keras.layers.Dense(4,activation='relu'))#第二层就不需要指明input_shape
model.add(tf.keras.layers.Dense(1,activation='sigmoid'))#输出层

model.summary()

#编译
model.compile(optimizer='adam',
             loss='binary_crossentropy',
              metrics=['acc']
)
#metrics在运行过程中会计算 正确率的情况

history=model.fit(x,y,epochs=100)

#Draw 正确率的变化情况
plt.plot(history.epoch,history.history.get('acc'))
plt.show()
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值