2018省赛后的总结

 我之所以在选专业的时候选择软工,就是因为高中时对编程的一腔热血。因此我在大学就毫无犹豫的选择了acm,我也希望能通过这大半年的学习在18年的省赛上取得一个好成绩。高中时我的最后一场noip省赛,因为我的粗心,导致我没有拿到省一等奖,那也是我们学校唯一 一次没出省一等奖的一次。因此我其实特别渴望在大一就能拿到一枚省赛的金牌,但是这次省赛却狠狠的扇了我一巴掌,我们队伍在五个小时仅仅做出了三道题目。。。。。。。赛后我和队友讨论为什么会这样,f题目出了问题是一个因素,它导致我们队伍整体的心态就崩了,明明通过率那么高,为什么我们就是写不出来?赛后才知道f题是数据出了问题。其次就是我们没有及时跟题,一开始我们认为a题不可做,当我们在写了两个小时的f题才又回来看的时候,发现它根本不是什么二分图,而是一个简单的贪心。当我们写完a题后,队伍的士气稍有上升,于是我们“顺利“的写出了f题。结果剩下的两个小时我们一直在写e题,e题是我的另一个队友想出来的思路,但是一直没有对。现在想想,如果当时我不去想其他的题目,而是一起写e题,我们会不会成绩比现在要好一些。还有就是我们队的期望太高,但是水平达不到,比赛期间大家都比较焦虑,尤其是我。唉。 总而言之经历了这次比赛,我深刻的认识到自己还有很多知识需要学习,同时也庆幸这不是高三的那一次最后一场比赛,我们以后还有机会。下一次,我绝不会让自己再失望了。加油!!!

转载于:https://www.cnblogs.com/tian-luo/p/9002165.html

### 关于阿里天池大赛中人工智能辅助糖尿病遗传风险预测的赛后总结 #### 数据集概述 该比赛的目标是通过分析妊娠期女性的身体指标和基因特征,预测其是否可能患上妊娠期糖尿病。训练集中包含1000条样本,每条样本具有85维特征,其中包括30个身体指标特征(如年龄、身高、体重、BMI等)和其他55个基因特征(取值为0、1、2,分别对应AA、Aa、aa这三种生物学术语)。测试集则包含200条样本,评估标准采用的是F1分数[^2]。 #### 特征工程方法 为了提高模型性能,在特征预处理阶段采用了多种策略: - **缺失值填充**:针对不同类型的特征分布特性,选择了平均值、中位数或众数等方式填补缺失的数据点。 - **差值计算**:基于连续型变量与其均值之间的差异及其绝对值构建新特征。 - **归一化与零替换**:对数值型属性执行标准化操作;为了避免后续运算过程中可能出现的问题,还将原始数据中的零值替换成了非常接近但不等于零的小数。 #### 单模型表现比较 比赛中尝试了多个机器学习框架来进行分类任务,具体如下: - 使用`LightGBM`, `XGBoost`, 和神经网络库`Keras`单独建立基线模型并优化参数设置。 - 结果显示,在大多数情况下,深度学习解决方案(Keras)的表现要优于传统树形算法(LightGBM>XGBoost)[^3]。 #### 模型融合技术应用 除了单一模型外,还探索了集成学习的方法来进一步增强泛化能力。最终发现当把几个独立开发出来的优秀子模型结合起来形成超级组合之后,整体准确性得到了明显改善,并且超越了个别组件所能达到的最佳水平。 #### 面临挑战及解决措施 由于可用实例数量有限(仅千级规模),因此存在严重的过拟合隐患。对此采取了一些缓解手段包括但不限于增加正则项强度调节超参防止复杂度过高以及利用交叉验证机制反复检验调校后的系统稳定性等方面做了大量工作以确保提交方案具备足够的鲁棒性和可靠性。 ```python import lightgbm as lgb from sklearn.metrics import f1_score # Example of training a LightGBM model with hyperparameter tuning. params = { 'boosting_type': 'gbdt', 'objective': 'binary', 'metric': {'f1'}, 'num_leaves': 31, 'learning_rate': 0.05, } train_data = lgb.Dataset(X_train, label=y_train) test_data = lgb.Dataset(X_test, label=y_test) bst = lgb.train(params, train_data, valid_sets=[test_data], early_stopping_rounds=10) predictions = bst.predict(X_val) threshold = 0.5 predicted_labels = (predictions >= threshold).astype(int) score = f1_score(y_val, predicted_labels) print(f"F1 Score: {score}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值