L1-6 吉老师的回归 (15 分)

L1-6 吉老师的回归 (15 分)

曾经在天梯赛大杀四方的吉老师决定回归天梯赛赛场啦!

为了简化题目,我们不妨假设天梯赛的每道题目可以用一个不超过 500 的、只包括可打印符号的字符串描述出来,如:Problem A: Print "Hello world!"

众所周知,吉老师的竞赛水平非常高超,你可以认为他每道题目都会做(事实上也是……)。因此,吉老师会按照顺序看题并做题。但吉老师水平太高了,所以签到题他就懒得做了(浪费时间),具体来说,假如题目的字符串里有 qiandao 或者 easy(区分大小写)的话,吉老师看完题目就会跳过这道题目不做。

现在给定这次天梯赛总共有几道题目以及吉老师已经做完了几道题目,请你告诉大家吉老师现在正在做哪个题,或者吉老师已经把所有他打算做的题目做完了。

提醒:天梯赛有分数升级的规则,如果不做签到题可能导致团队总分不足以升级,一般的选手请千万不要学习吉老师的酷炫行为!

输入格式:

输入第一行是两个正整数 N,M (1≤M≤N≤30),表示本次天梯赛有 N 道题目,吉老师现在做完了 M 道。

接下来 N 行,每行是一个符合题目描述的字符串,表示天梯赛的题目内容。吉老师会按照给出的顺序看题——第一行就是吉老师看的第一道题,第二行就是第二道,以此类推。

输出格式:

在一行中输出吉老师当前正在做的题目对应的题面(即做完了 M 道题目后,吉老师正在做哪个题)。如果吉老师已经把所有他打算做的题目做完了,输出一行 Wo AK le

输入样例 1:

5 1
L1-1 is a qiandao problem.
L1-2 is so...easy.
L1-3 is Easy.
L1-4 is qianDao.
Wow, such L1-5, so easy.

输出样例 1:

L1-4 is qianDao.

输入样例 2:

5 4
L1-1 is a-qiandao problem.
L1-2 is so easy.
L1-3 is Easy.
L1-4 is qianDao.
Wow, such L1-5, so!!easy.

输出样例 2:

Wo AK le

 

#include <bits/stdc++.h>
using namespace std;
#define ddf double
#define pb push_back
//#define int long long
//#define all(x) x.begin(), x.end()
//#define mem(a, b) memset(a, b, sizeof a)
//#define rep(i, a, b) for(int i = (int)a; i <= (int)b; i ++)
//#define per(i, a, b) for(int i = (int)a; i >= (int)b; i --)
//#define IOS ios::sync_with_stdio(0); cin.tie(0); cout.tie(0)
//vector<int>ans;
int main(){
    int n,m,cnt=1;
    string s;
    cin>>n>>m;
    getchar();
    while(n--){
        getline(cin,s);
        if(s.find("qiandao")!=-1||s.find("easy")!=-1);
        else{
            if(m==0){
                cout<<s;
                cnt=0;
                break;
            }
            m--;
        }
    }
    if(cnt) cout<<"Wo AK le"<<endl;
    return 0;
}

这个题做过一次 不过模拟赛的时候脑子抽抽了... 

### L1-078老师回归测试点析 #### 岭回归与Lasso回归 在处理线性回归中的过拟合问题时,可以采用正则化方法。其中,岭回归(Ridge Regression)通过引入L2范数作为惩罚项来减少模型复杂度并防止过拟合[^1]。而Lasso回归(Least Absolute Shrinkage and Selection Operator)则是利用L1范数实现特征选择的同时也解决了过拟合问题。 对于具体的测试点析,“L1-078老师回归”可能涉及的是如何合理应用这两种技术手段之一或者两者结合的方式来进行建模优化。如果数据集中存在较多噪声或者是高维稀疏矩阵的情况下,Lasso回归可能会更加有效,因为它能够自动剔除掉不重要的变量;而在所有输入特征都具有潜在贡献的情形下,选用岭回归可能是更优的选择。 #### 逻辑回归的应用场景及其调整策略 尽管名字里带有“回归”,但实际上逻辑回归是一种用于解决类问题的强工具[^2]。当面对不平衡的数据集时,可以通过设置`class_weight='balanced'`参数让算法自行计算各类别的权重比例,从而缓解因样本布差异带来的影响[^4]。这一步骤有助于提高少数类别的预测性能,在实际操作过程中非常重要。 以下是基于Python环境下使用sklearn库构建简单逻辑回归模型的例子: ```python from sklearn.linear_model import LogisticRegression from sklearn.datasets import make_classification from sklearn.model_selection import train_test_split # 创建模拟数据集 X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42) # 划训练集和测试集 X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.3, random_state=42) # 初始化逻辑回归模型,并指定类别权重平衡选项 lr = LogisticRegression(class_weight='balanced') # 使用训练数据拟合模型 lr.fit(X_train, y_train) # 输出模型在训练集上的得情况 print(f'Training Accuracy: {lr.score(X_train, y_train):.3f}') ``` 上述代码片段展示了如何创建一个基本的逻辑回归实例,并设置了类别权重为‘balanced’以便更好地适应非均衡标签的情况][^[^34]。 #### 综合考虑因素及建议措施 针对"L1-078老师回归"这一特定情境下的挑战,可以从以下几个方面入手寻找解决方案: 1. **评估目标函数**:确认当前使用的损失函数是否适合具体业务需求; 2. **调节超参λ**:无论是岭还是lasso回归都需要仔细挑选合适的正则系数小以达到最佳效果; 3. **预处理阶段增强**:比如标准化数值型字段、编码离散属性等前期准备工作不可忽视; 4. **交叉验证机制建立**:借助k折交叉验证等方式全面衡量不同配置条件下系统的泛化能力表现。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值