大数据01

博客介绍了Java开发相关基础内容,包括JDK组成(Jre+开发工具,Jre=JVM+类库),常用DOS命令如cd、cls等,eclipse快捷键如alt+/、ctrl+shift+O,还给出减少内存占用和画圆的代码示例,详细说明了Java环境变量的配置步骤及验证方法。

1.JDK:Jre+JAVA的开发工具 Jre:JVM+类库
2.常用DOS命令:cd~进入用户主目录;cd…返回上级目录;cd-cls:清屏;cd-exit:退出dos命令行
3.eclipse快捷键:代码提示:alt+/;快速导入包:ctrl+shift+O
4.//减少内存占用 frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);
//画圆 g.drawOval(230, 400, 100, 100);
5.环境变量的配置
1.在C盘下找到Java中JDK的路径,然后复制。
在这里插入图片描述

2.右击“这台电脑”点开“属性”
在这里插入图片描述

3.点击“高级系统配置”后再次点击“环境变量”。
在这里插入图片描述
4.环境变量中新建一个变量名JAVA_HOME,值为第1步复制的路径。
在这里插入图片描述
5.点击Path新建一个”%JAVA_HOME%\bin”。
在这里插入图片描述
6.依次点击确定即可完成环境变量的配置。
7.在cmd中敲入javac和java -version进行验证。
在这里插入图片描述

【直流微电网】径向直流微电网的状态空间建模与线性化:一种耦合DC-DC变换器状态空间平均模型的方法 (Matlab代码实现)内容概要:本文介绍了径向直流微电网的状态空间建模与线性化方法,重点提出了一种基于耦合DC-DC变换器状态空间平均模型的建模策略。该方法通过对系统中多个相互耦合的DC-DC变换器进行统一建模,构建出整个微电网的集中状态空间模型,并在此基础上实施线性化处理,便于后续的小信号分析与稳定性研究。文中详细阐述了建模过程中的关键步骤,包括电路拓扑分析、状态变量选取、平均化处理以及雅可比矩阵的推导,最终通过Matlab代码实现模型仿真验证,展示了该方法在动态响应分析控制器设计中的有效性。; 适合人群:具备电力电子、自动控制理论基础,熟悉Matlab/Simulink仿真工具,从事微电网、新能源系统建模与控制研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①掌握直流微电网中多变换器系统的统一建模方法;②理解状态空间平均法在非线性电力电子系统中的应用;③实现系统线性化并用于稳定性分析与控制器设计;④通过Matlab代码复现扩展模型,服务于科研仿真与教学实践。; 阅读建议:建议读者结合Matlab代码逐步理解建模流程,重点关注状态变量的选择与平均化处理的数学推导,同时可尝试修改系统参数或拓扑结构以加深对模型通用性适应性的理解。
import shutil, pathlib import tarfile import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression from sklearn.preprocessing import StandardScaler, PolynomialFeatures from sklearn.metrics import r2_score from sklearn.feature_selection import SelectKBest, f_regression import warnings warnings.filterwarnings('ignore') # 复制数据到缓存 cache = pathlib.Path('/root/scikit_learn_data') cache.mkdir(exist_ok=True) src = '/kaggle/input/sklearn11/cal_housing.tgz' dst = cache / 'cal_housing.tgz' if not dst.exists(): shutil.copy(src, dst) print('已复制到缓存目录') else: print('缓存文件已存在') # 解压数据 tmp = '/tmp/cal' with tarfile.open('/root/scikit_learn_data/cal_housing.tgz', 'r:gz') as f: f.extractall(tmp) # 加载数据 data_path = tmp + '/CaliforniaHousing/cal_housing.data' raw = np.loadtxt(data_path, delimiter=',') cols = ['MedInc','HouseAge','AveRooms','AveBedrms','Population','AveOccup','Latitude','Longitude'] X = pd.DataFrame(raw[:, :-1], columns=cols) y = pd.Series(raw[:, -1], name='MedHouseVal') print(f"原始数据形状: {X.shape}") # ==================== 数据清洗 ==================== def safe_divide(a, b): """安全的除法操作""" return np.divide(a, b, out=np.zeros_like(a), where=b != 0) def clean_features(df): """清洗特征数据""" df_clean = df.copy() # 处理零值 for col in ['AveRooms', 'AveBedrms', 'AveOccup', 'Population']: df_clean[col] = df_clean[col].replace(0, 1) df_clean[col] = np.maximum(df_clean[col], 0.1) return df_clean X_clean = clean_features(X) print(f"数据清洗后形状: {X_clean.shape}") # ==================== 特征工程 ==================== X_fe = X_clean.copy() # 1. 基础组合特征 X_fe['RoomsPerHousehold'] = safe_divide(X_fe['AveRooms'], X_fe['AveOccup']) X_fe['BedroomsPerRoom'] = safe_divide(X_fe['AveBedrms'], X_fe['AveRooms']) X_fe['PopulationPerHousehold'] = safe_divide(X_fe['Population'], X_fe['AveOccup']) X_fe['IncomePerRoom'] = safe_divide(X_fe['MedInc'], X_fe['AveRooms']) # 2. 地理位置特征 X_fe['DistanceToCoast'] = np.sqrt((X_fe['Latitude'] - 34.0)**2 + (X_fe['Longitude'] - (-118.0))**2) # 3. 多项式特征 X_fe['MedInc_squared'] = X_fe['MedInc'] ** 2 X_fe['HouseAge_squared'] = X_fe['HouseAge'] ** 2 X_fe['Latitude_squared'] = X_fe['Latitude'] ** 2 X_fe['Longitude_squared'] = X_fe['Longitude'] ** 2 # 4. 交互特征 X_fe['Income_Age'] = X_fe['MedInc'] * X_fe['HouseAge'] X_fe['Income_Rooms'] = X_fe['MedInc'] * X_fe['AveRooms'] X_fe['Lat_Lon'] = X_fe['Latitude'] * X_fe['Longitude'] X_fe['Income_Lat'] = X_fe['MedInc'] * X_fe['Latitude'] # 5. 对数变换(只对正数特征) X_fe['log_MedInc'] = np.log1p(X_fe['MedInc']) X_fe['log_AveRooms'] = np.log1p(X_fe['AveRooms']) X_fe['log_Population'] = np.log1p(X_fe['Population']) # 6. 分箱特征 X_fe['MedInc_bin'] = pd.cut(X_fe['MedInc'], bins=5, labels=[0,1,2,3,4]) X_fe['HouseAge_bin'] = pd.cut(X_fe['HouseAge'], bins=5, labels=[0,1,2,3,4]) print(f"基础特征工程后形状: {X_fe.shape}") # ==================== 多项式特征生成 ==================== # 对最重要的4个特征生成多项式 important_features = ['MedInc', 'Latitude', 'Longitude', 'AveRooms'] poly = PolynomialFeatures(degree=2, include_bias=False, interaction_only=True) # 确保输入数据没有NaN X_poly_input = X_fe[important_features].fillna(0) poly_features = poly.fit_transform(X_poly_input) poly_feature_names = poly.get_feature_names_out(important_features) X_poly = pd.DataFrame(poly_features, columns=poly_feature_names) # 合并所有特征 X_final = pd.concat([X_fe, X_poly], axis=1) print(f"添加多项式后数据形状: {X_final.shape}") # ==================== 数据清理 ==================== # 处理所有可能的NaN无限值 X_final = X_final.replace([np.inf, -np.inf], np.nan) X_final = X_final.fillna(0) print(f"最终清理后数据形状: {X_final.shape}") # ==================== 特征选择 ==================== # 使用SelectKBest直接选择最佳特征 print("正在进行特征选择...") selector = SelectKBest(score_func=f_regression, k=25) X_selected = selector.fit_transform(X_final, y) # 获取被选中的特征名称 selected_mask = selector.get_support() selected_features = X_final.columns[selected_mask].tolist() print(f"选择了 {len(selected_features)} 个最佳特征") print("重要特征:", selected_features[:10]) # ==================== 标准化 ==================== scaler = StandardScaler() X_scaled = scaler.fit_transform(X_selected) # ==================== 建模与评估 ==================== X_train, X_test, y_train, y_test = train_test_split( X_scaled, y, test_size=0.2, random_state=42 ) model = LinearRegression() model.fit(X_train, y_train) train_r2 = model.score(X_train, y_train) test_r2 = model.score(X_test, y_test) print('=' * 60) print(f'训练集 R²: {train_r2:.4f}') print(f'测试集 R²: {test_r2:.4f}') print("姓名:张三 学号:20210001 班级:大数据01班") print('=' * 60) # ==================== 如果不达标,调整特征数量 ==================== if test_r2 < 0.8: print("调整特征数量进行优化...") # 尝试不同的特征数量 for k in [30, 20, 15]: print(f"尝试选择 {k} 个特征...") selector_k = SelectKBest(score_func=f_regression, k=k) X_selected_k = selector_k.fit_transform(X_final, y) X_scaled_k = scaler.fit_transform(X_selected_k) X_train_k, X_test_k, y_train, y_test = train_test_split( X_scaled_k, y, test_size=0.2, random_state=42 ) model_k = LinearRegression() model_k.fit(X_train_k, y_train) test_r2_k = model_k.score(X_test_k, y_test) print(f"特征数 {k}: 测试集 R² = {test_r2_k:.4f}") if test_r2_k >= 0.8: print('=' * 60) print(f"成功达到目标! 测试集 R²: {test_r2_k:.4f}") print("姓名:张三 学号:20210001 班级:大数据01班") print('=' * 60) break
10-16
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值