keras主要模块

本文详细介绍了Keras深度学习库的重要模块,包括优化器、目标函数、激活函数、参数初始化、层操作以及模型层,阐述了这些模块在神经网络构建中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

keras是一个开源是的python深度学习库,可以基于theano或者tenserflow,下面大体介绍下keras的几个重要模块
重要的模块
1、优化器(optimizers)
优化器是调整每个节点权重的方法,看一个代码示例:

model = Sequential() 
model.add(Dense(64, init='uniform', input_dim=10)) model.add(Activation('tanh')) 
model.add(Activation('softmax')) 
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='mean_squared_error', optimizer=sgd)



可以看到优化器在模型编译前定义,作为编译时的两个参数之一

代码中的sgd是随机梯度下降算法 
lr表示学习速率 
momentum表示动量项 
decay是学习速率的衰减系数(每个epoch衰减一次) 
Nesterov的值是False或者True,表示使不使用Nesterov momentum

以上4个参数以后具体学习了再解析

除了sgd,还可以选择的优化器有RMSprop(适合递归神经网络)、Adagrad、Adadelta、Adam、Adamax、Nadam

2、目标函数(objectives)
目标函数又称损失函数(loss),目的是计算神经网络的输出与样本标记的差的一种方法,代码示例:

model = Sequential() 
model.add(Dense(64, init='uniform', input_dim=10)) model.add(Activation('tanh')) 
model.add(Activation('softmax')) 
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='mean_squared_error', optimizer=sgd)


mean_squared_error就是损失函数的名称

可以选择的损失函数有:

mean_squared_error,mean_absolute_error,squared_hinge,hinge,binary_crossentropy,categorical_crossentropy

这里binary_crossentropy 和 categorical_crossentropy也就是logloss

3、激活函数(activations)
每一个神经网络层都需要一个激活函数,代码示例:

from keras.layers.core import Activation, Dense

model.add(Dense(64))
model.add(Activation('tanh'))


或把上面两行合并为:
model.add(Dense(64, activation='tanh'))


可以选择的激活函数有: 
linear、sigmoid、hard_sigmoid、tanh、softplus、relu、 softplus,softmax、softsign 
还有一些高级激活函数,比如如PReLU,LeakyReLU等

4、参数初始化(Initializations)
这个模块的作用是在添加layer时调用init进行这一层的权重初始化,有两种初始化方法

4.1 通过制定初始化方法的名称:
示例代码:

model.add(Dense(64, init='uniform'))


可以选择的初始化方法有: 
uniform、lecun_uniform、normal、orthogonal、zero、glorot_normal、he_normal等

4.2 通过调用对象:
该对象必须包含两个参数:shape(待初始化的变量的shape)和name(该变量的名字),该可调用对象必须返回一个(Keras)变量,例如K.variable()返回的就是这种变量,示例代码:

from keras import backend as K
import numpy as np

def my_init(shape, name=None):
    value = np.random.random(shape)
    return K.variable(value, name=name)

model.add(Dense(64, init=my_init))

或者

from keras import initializations

def my_init(shape, name=None):
    return initializations.normal(shape, scale=0.01, name=name)

model.add(Dense(64, init=my_init))


所以说可以通过库中的方法设定每一层的初始化权重,

也可以自己初始化权重,自己设定的话可以精确到每个节点的权重,

那么是否可以在这儿做文章优化特征呢?我觉得可以针对不同的task深入试验看看

5、层(layer)
keras的层主要包括:

常用层(Core)、卷积层(Convolutional)、池化层(Pooling)、局部连接层、递归层(Recurrent)、嵌入层( Embedding)、高级激活层、规范层、噪声层、包装层,当然也可以编写自己的层

5.1对于层的操作

layer.get_weights() #返回该层的权重
layer.set_weights(weights)#将权重加载到该层
config = layer.get_config()#保存该层的配置
layer = layer_from_config(config)#加载一个配置到该层
#该层有一个节点时,获得输入张量、输出张量、及各自的形状:
layer.input
layer.output
layer.input_shape
layer.output_shape
#该层有多个节点时(node_index为节点序号):
layer.get_input_at(node_index)
layer.get_output_at(node_index)
layer.get_input_shape_at(node_index)
layer.get_output_shape_at(node_index)


5.2 Dense层(全连接层)

keras.layers.core.Dense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)


output_dim:输出数据的维度

init:初始化该层权重的方法

activation:该层的激活函数

weights:numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量

regularizer:正则项,w为权重的、b为偏执的,activity为输出的

constraints:约束项

bias:是否包含偏执向量,是布尔值

input_dim:输入数据的维度

5.3 dropout层

keras.layers.core.Dropout(p)

为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(p)的输入神经元连接,Dropout层用于防止过拟合。 
参考文章:http://blog.youkuaiyun.com/stdcoutzyx/article/details/49022443理解dropout

5.4 递归层(Recurrent)
递归层包含三种模型:LSTM、GRU和SimpleRNN

5.4.1抽象层,不能直接使用

keras.layers.recurrent.Recurrent(weights=None, return_sequences=False, go_backwards=False, stateful=False, unroll=False, consume_less='cpu', input_dim=None, input_length=None)


return_sequences:True返回整个序列,false返回输出序列的最后一个输出

go_backwards:True,逆向处理输入序列,默认为False

stateful:布尔值,默认为False,若为True,则一个batch中下标为i的样本的最终状态将会用作下一个batch同样下标的样本的初始状态

5.4.2全连接RNN网络

keras.layers.recurrent.SimpleRNN(output_dim, init='glorot_uniform', inner_init='orthogonal', activation='tanh', W_regularizer=None, U_regularizer=None, b_regularizer=None, dropout_W=0.0, dropout_U=0.0)


inner_init:内部单元的初始化方法

dropout_W:0~1之间的浮点数,控制输入单元到输入门的连接断开比例

dropout_U:0~1之间的浮点数,控制输入单元到递归连接的断开比例

5.4.3 LSTM层

keras.layers.recurrent.LSTM(output_dim, init='glorot_uniform', inner_init='orthogonal', forget_bias_init='one', activation='tanh', inner_activation='hard_sigmoid', W_regularizer=None, U_regularizer=None, b_regularizer=None, dropout_W=0.0, dropout_U=0.0)


forget_bias_init:遗忘门偏置的初始化函数,Jozefowicz et al.建议初始化为全1元素

inner_activation:内部单元激活函数

5.5 Embedding层

keras.layers.embeddings.Embedding(input_dim, output_dim, init='uniform', input_length=None, W_regularizer=None, activity_regularizer=None, W_constraint=None, mask_zero=False, weights=None, dropout=0.0)


只能作为模型第一层

mask_zero:布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常

5.6 model层(最重要)
model层是最主要的模块,model层可以将上面定义了各种基本组件组合起来

model的方法:

model.summary() : 打印出模型概况

model.get_config() :返回包含模型配置信息的Python字典

model.get_weights():返回模型权重张量的列表,类型为numpy array

model.set_weights():从numpy array里将权重载入给模型

model.to_json:返回代表模型的JSON字符串,仅包含网络结构,不包含权值。可以从JSON字符串中重构原模型:

from models import model_from_json

json_string = model.to_json()
model = model_from_json(json_string)


model.to_yaml:与model.to_json类似,同样可以从产生的YAML字符串中重构模型

from models import model_from_yaml

yaml_string = model.to_yaml()
model = model_from_yaml(yaml_string)


model.save_weights(filepath):将模型权重保存到指定路径,文件类型是HDF5(后缀是.h5)

model.load_weights(filepath, by_name=False):从HDF5文件中加载权重到当前模型中, 默认情况下模型的结构将保持不变。如果想将权重载入不同的模型(有些层相同)中,则设置by_name=True,只有名字匹配的层才会载入权重

keras有两种model,分别是Sequential模型和泛型模型

5.6.1 Sequential模型
Sequential是多个网络层的线性堆叠

可以通过向Sequential模型传递一个layer的list来构造该模型:

from keras.models import Sequential
from keras.layers import Dense, Activation

model = Sequential([
Dense(32, input_dim=784),
Activation('relu'),
Dense(10),
Activation('softmax'),
])


也可以通过.add()方法一个个的将layer加入模型中:

model = Sequential()
model.add(Dense(32, input_dim=784))
model.add(Activation('relu'))


还可以通过merge将两个Sequential模型通过某种方式合并

Sequential模型的方法:

compile(self, optimizer, loss, metrics=[], sample_weight_mode=None)

fit(self, x, y, batch_size=32, nb_epoch=10, verbose=1, callbacks=[], validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None)

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

#按batch获得输入数据对应的输出,函数的返回值是预测值的numpy array
predict(self, x, batch_size=32, verbose=0)

#按batch产生输入数据的类别预测结果,函数的返回值是类别预测结果的numpy array或numpy
predict_classes(self, x, batch_size=32, verbose=1)

#本函数按batch产生输入数据属于各个类别的概率,函数的返回值是类别概率的numpy array
predict_proba(self, x, batch_size=32, verbose=1)

train_on_batch(self, x, y, class_weight=None, sample_weight=None)

test_on_batch(self, x, y, sample_weight=None)

predict_on_batch(self, x)


fit_generator(self, generator, samples_per_epoch, nb_epoch, verbose=1, callbacks=[], validation_data=None, nb_val_samples=None, class_weight=None, max_q_size=10)

evaluate_generator(self, generator, val_samples, max_q_size=10)


5.6.2 泛型模型
Keras泛型模型接口是:

用户定义多输出模型、非循环有向模型或具有共享层的模型等复杂模型的途径

适用于实现:全连接网络和多输入多输出模型

多输入多输出,官方例子给出:预测一条新闻的点赞转发数,主要输入是新闻本身,还可以加入额外输入,比如新闻发布日期,新闻作者等,具体的实现还是看官网文档吧: 
http://keras-cn.readthedocs.io/en/latest/getting_started/functional_API/

所以感觉这个模型可以针对特定task搞一些创新哦

泛型模型model的属性:

model.layers:组成模型图的各个层 
model.inputs:模型的输入张量列表 
model.outputs:模型的输出张量列表

方法:类似序列模型的方法 
补充get_layer

get_layer(self, name=None, index=None) 
本函数依据模型中层的下标或名字获得层对象,泛型模型中层的下标依据自底向上,水平遍历的顺序。

name:字符串,层的名字 
index: 整数,层的下标 
函数的返回值是层对象
--------------------- 
作者:Lee_Tech 
来源:优快云 
原文:https://blog.youkuaiyun.com/lk7688535/article/details/52862377 
版权声明:本文为博主原创文章,转载请附上博文链接!

<think>好的,我现在需要帮用户解决TensorFlow中导入Keras模块报错的问题。首先,我得仔细分析用户提供的信息和引用内容。用户提到了几个引用,其中涉及版本问题、导入语句的正确写法、兼容性问题以及VSCode的解析问题。 首先,用户的问题可能由多个因素导致,比如TensorFlow版本过旧、安装不完整、导入方式错误,或者IDE的问题。根据引用[2],ModuleNotFoundError可能是因为版本不支持或安装问题。所以第一步应该是检查TensorFlow的版本,确保是2.x及以上,因为Keras已经整合到TensorFlow中作为tf.keras。用户需要升级到最新版本,或者至少2.x的某个兼容版本。 然后,正确的导入方式应该是从tensorflow.keras导入,而不是直接导入Keras。比如使用from tensorflow.keras.layers import LayerNormalization,如引用[1]提到的。如果用户使用了错误的导入语句,比如直接import keras,这可能会导致问题,因为独立Keras可能未安装或版本冲突。 接下来,安装完整性也很重要。如果TensorFlow安装不完整,可能缺少部分模块。这时候需要重新安装,使用pip install --upgrade tensorflow,或者确保没有使用分发包如tensorflow-cpu,可能需要指定版本。 另外,引用[3]提到VSCode可能有解析问题,因为TensorFlow的延迟引入机制。这时候建议用户检查代码是否有错误,或者重启IDE,甚至使用命令行测试。有时候IDE的缓存可能导致误报,实际运行可能没问题。 兼容性问题方面,引用[4]强调要使用tf.keras而不是独立Keras,避免版本冲突。如果用户同时安装了TensorFlow和独立的Keras,可能需要卸载Keras,确保环境干净。 最后,环境问题,比如虚拟环境是否正确激活,或者是否存在多个Python环境导致安装路径错误。用户需要确认他们安装TensorFlow的环境和运行代码的环境是否一致。 总结可能的解决步骤:检查版本,升级TensorFlow;使用正确的导入语句;重新安装TensorFlow;处理IDE的误报;确保环境干净,没有冲突的包;验证环境是否正确。此外,用户可能需要检查他们的代码是否有其他错误,或者尝试在命令行运行脚本以排除IDE问题。 在生成相关问题的时候,需要考虑用户可能的后续疑问,比如如何检查版本、处理其他导入错误、解决环境冲突,以及兼容性调整方法。这样可以预先提供更多帮助,减少用户未来的问题。</think>### 分步解决方案 #### 1. **验证 TensorFlow 版本** - TensorFlow 2.x 已内置 `tf.keras`,需确保版本不低于 2.0。 **操作:** ```python import tensorflow as tf print(tf.__version__) # 输出应为2.x.x,如2.10.0 ``` - 若版本低于2.x,升级: ```bash pip install --upgrade tensorflow ``` #### 2. **检查导入语句** - 必须使用 `tensorflow.keras` 而非独立 `keras` 包[^4]。 **正确导入示例:** ```python from tensorflow.keras.layers import LayerNormalization # 引用[1] # 或 from tensorflow import keras model = keras.Sequential() ``` #### 3. **重新安装 TensorFlow** - 若安装不完整可能导致模块缺失[^2]: **操作:** ```bash pip uninstall tensorflow keras -y # 先卸载冲突包 pip install tensorflow --no-cache-dir # 强制全新安装 ``` #### 4. **处理 IDE 误报(如VSCode)** - VSCode 可能因延迟加载机制误判模块缺失,但代码实际可运行[^3]。 **验证方法:** - 在终端直接运行脚本: ```bash python your_script.py ``` - 若运行成功,则问题仅为IDE误报,可忽略提示。 #### 5. **解决依赖冲突** - 若系统中安装了独立版 `keras`,需卸载以避免冲突[^4]: ```bash pip uninstall keras ``` --- ### 完整代码验证示例 ```python import tensorflow as tf print("TensorFlow版本:", tf.__version__) # 确认版本≥2.0 from tensorflow.keras.layers import LayerNormalization # 正确导入方式 from tensorflow.keras import Sequential model = Sequential() model.add(LayerNormalization()) print("模块导入成功!") ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值