贝叶斯优化可视化和随机森林的解读
一、元组类型
为了学习今天的内容,我们学习一下最后一个没提的基本数据类型,元组(tuple)具有以下特点:
- 有序:可以通过索引取出来元素
- 不可变,不可修改
- 可迭代、可切片 所以元组适合存储不应被程序意外修改的数据(例如配置常量、数据库记录的字段等)。函数返回多个值时,默认就是以元组的形式返回的。由于元组是不可变的,它可以作为字典的键(List 不可以)。
你也会发现元组和字符串性质一样啊,那为什么需要2个数据结构来表达这两个类型么,是因为它们之间的根本区别在于它们内部存储的元素类型
- 元组可以存储任意不同类型的数据对象(异构)。例如:整数、浮点数、列表、函数等。----异构容器,类似于表格存储
- 字符串只能存储字符(本质上是文本数据,都是字符类型)。---同构序列,文件名存储
不可变意味着他不具备增删改的步骤,增加就是创建新元组了
先看下创建元组的方法

修改元组的方法

二、字典的items方法
字典的items方法,这个方法很重要,在后面深度学习的代码中自由度很高,我们会频繁接触到这个方法,我们来介绍下
items() 方法是 Python 中 字典 (Dictionary) 对象的一个非常常用的方法。它返回一个由字典中所有 (键, 值) 对 组成的视图对象(View Object)。这个视图对象可以用于迭代字典中的所有键值对。本质这也是python的解包操作的一种,我们后续会有专题重点讲解下解包操作。
什么叫视图对象?具有视图特性,返回的对象是动态的。如果原始字典在您获取 items() 视图后发生了变化(例如添加或删除了键值对),视图对象也会实时反映这些变化。

这和我们前几天说的enumerate方法非常像,他可以遍历任何可迭代对象,返回索引+元素


在python历史中,字典是无序的,Python 3.7 及更高版本,字典正式成为有序的。这意味着字典会记住键的插入顺序,并且在遍历时(包括使用 enumerate() 时),会严格按照这个顺序进行。这也意味着以后常见数据结构只能遇到集合是无序的了。
实际上下面这items和enumerate联合的写法非常常见

三、贝叶斯优化可视化
1. 数据准备



2. 基础贝叶斯优化
首先安装必要的库(如果还未安装)
我们今天选择贝叶斯优化库,他的自由度大很多。
from bayes_opt import BayesianOptimization
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
from sklearn.metrics import classification_report, confusion_matrix
import time
# 定义目标函数
def rf_eval(n_estimators, max_depth, min_samples_split, min_samples_leaf, max_features):
"""
目标函数:评估随机森林在给定参数下的性能
BayesianOptimization 会最大化这个函数的返回值
参数说明:
- n_estimators: 树的数量(越多越好,但会增加计算时间)
- max_depth: 树的最大深度(太浅欠拟合,太深过拟合)
- min_samples_split: 分裂所需最小样本数(控制树的生长)
- min_samples_leaf: 叶节点最小样本数(防止过拟合)
- max_features: 特征采样比例(增加随机性,防止过拟合)
"""
# 将连续参数转换为整数
n_estimators = int(n_estimators)
max_depth = int(max_depth)
min_samples_split = int(min_samples_split)
min_samples_leaf = int(min_samples_leaf)
# max_features 保持浮点数
# 创建模型
model = RandomForestClassifier(
n_estimators=n_estimators,
max_depth=max_depth,
min_samples_split=min_samples_split,
min_samples_leaf=min_samples_leaf,
max_features=max_features,
random_state=42,
n_jobs=-1
)
# 5折交叉验证
scores = cross_val_score(model, X_train, y_train, cv=5, scoring='accuracy')
return np.mean(scores)
# 定义参数搜索空间(扩大10倍!超大搜索空间)
pbounds = {
'n_estimators': (10, 3000), # 从10到3000棵树
'max_depth': (3, 500), # 从3到500
'min_samples_split': (2, 200), # 从2到200
'min_samples_leaf': (1, 100), # 从1到100
'max_features': (0.1, 1.0) # 从10%到100%
}
for param, (low, high) in pbounds.items(): # items方法返回字典的键值对
range_size = high - low
print(f" {param:20s}: [{low:7.1f}, {high:7.1f}] (范围: {range_size:7.1f})")
3. 详细输出与迭代过程
# 创建贝叶斯优化器,优化的过程已经被这个对象封装了
optimizer = BayesianOptimization(
f=rf_eval, # 目标函数
pbounds=pbounds, # 参数搜索空间
random_state=42,
verbose=2 # 2: 详细信息, 1: 简要信息, 0: 不显示
)
start_time = time.time()
# 开始优化(大幅增加迭代次数以充分探索超大空间)
optimizer.maximize(
init_points=20, # 初始随机探索点数(增加到20以覆盖超大空间)
n_iter=80 # 贝叶斯优化迭代次数(增加到80)
)
end_time = time.time()
print(f"优化完成!总耗时: {end_time - start_time:.2f} 秒".center(80))
4. 可视化优化过程
提取所有迭代的结果
iterations = []
scores = []
for i, res in enumerate(optimizer.res): # res包含每次迭代的结果,index从0开始
iterations.append(i + 1) # 迭代次数从1开始
scores.append(res['target']) # 提取得分
# 计算累计最优值
best_scores = []
current_best = -np.inf # 初始化为负无穷大
for score in scores:
if score > current_best: # 检查当前得分是否打破历史记录
current_best = score
best_scores.append(current_best)
# 绘制优化轨迹
fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(16, 5)) # 创建1行2列的子图
# 左图:每次迭代的得分
ax1.plot(iterations, scores, 'o-', label='每次迭代得分', alpha=0.7, markersize=6)
ax1.plot(iterations, best_scores, 'r--', label='累计最优得分', linewidth=2)
ax1.axhline(y=optimizer.max['target'], color='green', linestyle=':',
label=f'最终最优: {optimizer.max["target"]:.4f}') # axhline绘制水平线
ax1.set_xlabel('迭代次数', fontsize=12)
ax1.set_ylabel('准确率', fontsize=12)
ax1.set_title('贝叶斯优化收敛曲线 (超大空间100次迭代)', fontsize=14, fontweight='bold')
ax1.legend()
ax1.grid(True, alpha=0.3)
# 右图:初始探索 vs 贝叶斯优化
init_points = 20 # 更新为20
ax2.plot(iterations[:init_points], scores[:init_points], 'bo-',
label=f'随机探索 (前{init_points}次)', markersize=8, alpha=0.7)
ax2.plot(iterations[init_points:], scores[init_points:], 'go-',
label=f'贝叶斯优化 (后{len(iterations)-init_points}次)', markersize=8, alpha=0.7)
ax2.axvline(x=init_points, color='red', linestyle='--', alpha=0.5, label='探索→利用') # axvline绘制垂直线
ax2.set_xlabel('迭代次数', fontsize=12)
ax2.set_ylabel('准确率', fontsize=12)
ax2.set_title('探索阶段 vs 利用阶段', fontsize=14, fontweight='bold')
ax2.legend()
ax2.grid(True, alpha=0.3)
plt.tight_layout()
plt.show()
# 输出统计信息
print(f" 总迭代次数: {len(scores)}")
print(f" 最低得分: {min(scores):.4f}")
print(f" 最高得分: {max(scores):.4f}")
print(f" 平均得分: {np.mean(scores):.4f}")
print(f" 得分标准差: {np.std(scores):.4f}")
print(f" 得分提升: {max(scores) - scores[0]:.4f}")
707

被折叠的 条评论
为什么被折叠?



