1080 Graduate Admission (30 分)

#include<iostream>
#include<bits/stdc++.h>
using namespace std;
const int MAXN=40010;
const int MAXM=101;
struct stu{
	int id;
	int ge;
	int gi;
	int gei;
	int a[5]; 
	int rank;
	stu(){
		id=-1;
		ge=0;
		gi=0;
		gei=0;
		a[5]={-1};
		rank=-1;
	}
}student[MAXN];
struct sch{
	int lastid; 
	int quota;
	set<int> b;
	int flag;
	sch(){
		quota=0;
		flag=0;
		lastid=-1;
	}
}school[MAXM];
bool operator < (const stu& a,const stu& b){
	return a.gei==b.gei?a.ge>b.ge:a.gei>b.gei;
}
int main()
{
	#ifndef ONLINE_JUDGE
	freopen("in.txt","r",stdin);
	#endif
	int n,m,k;
	scanf("%d%d%d",&n,&m,&k);
	for(int i=0;i<m;i++){
		scanf("%d",&school[i].quota);
	}
	for(int i=0;i<n;i++){
		student[i].id=i;
		scanf("%d%d",&student[i].ge,&student[i].gi);
		for(int j=0;j<k;j++){
			scanf("%d",&student[i].a[j]);
		}
		student[i].gei=(student[i].ge+student[i].gi);
	}
	sort(student,student+n);
	student[0].rank=1;
	for(int i=1;i<n;i++){
		if(student[i].gei==student[i-1].gei){
			if(student[i].ge==student[i-1].ge) 
			student[i].rank=student[i-1].rank;
			else{
				student[i].rank=i+1;	
			}
		}else{
			student[i].rank=i+1;
		}
	}
	for(int i=0;i<n;i++){
		for(int j=0;j<k;j++){
			int this_school=student[i].a[j];
			int size=school[this_school].b.size();
			if(size<school[this_school].quota||student[i].rank==(school[this_school].lastid)){
				school[this_school].lastid=student[i].rank;
				school[student[i].a[j]].b.insert(student[i].id);break;
			}
		}
	}
	for(int i=0;i<m;i++){
			int sign=0;
			for(auto it=school[i].b.begin();it!=school[i].b.end();it++){
			  if(sign==0){
			  	cout<<*it;sign++;
			  }else{
			  	cout<<' '<<*it;
		  	}
			}
		  cout<<endl;
	}
	return 0;
}

 

逻辑斯蒂回归(Logistic Regression)是一种用于二类问题的统计模型,它假设因变量的概率布服从伯努利布,通过最大似然估计法学习模型参数。在这个案例中,我们可以使用逻辑斯蒂回归来预测Kaggle上"Graduate Admission" 数据集中学生是否会被录取。 首先,让我们了解一下数据集`Admission_Predict.csv`的属性: - `GRE Score`: 研究生入学考试成绩(范围从200到800) - `TOEFL Score`: 国际英语测试系统数(范围从0到120) - `University Rating`: 学校排名(1表示最高) - `SOP`: 推荐信的质量评(0-5) - `LOR`: 推荐信的数量评(0-5) - `CGPA`: 学术成绩加权平均(范围从0到4) - `Research`: 是否有研究经验(0表示无,1表示有) - `Chance of Admit:` 预测的目标变量,表示录取概率,范围在0到1之间 数据预处理步骤通常包括: 1. **加载数据**:使用pandas库读取CSV文件。 2. **检查缺失值**:如果存在缺失值,可以选择填充、删除或使用适当的策略(如均值、中位数)。 3. **数据类型转换**:将非数值特征(如类别特征)编码为数值类型,例如使用One-Hot编码。 4. **标准化或归一化**:对于连续数值特征,如`GRE Score`和`TOEFL Score`,可以使用Z-score标准化或最小-最大缩放。 5. **划数据集**:随机划为训练集和测试集(比如70%训练,30%测试)。 预测算法实现过程(Python示例,使用sklearn库): ```python import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score, confusion_matrix # 1. 加载数据 data = pd.read_csv('Admission_Predict.csv') # 2. 预处理数据 # 检查缺失值并处理 data.isnull().sum() # 将类别特征编码,假设'SOP', 'LOR', 'Research'是类别特征 categorical_features = ['SOP', 'LOR', 'Research'] data = pd.get_dummies(data, columns=categorical_features) # 选择数值特征 numeric_features = data.columns.difference(categorical_features) scaler = StandardScaler() data[numeric_features] = scaler.fit_transform(data[numeric_features]) # 3. 划数据集 X = data.drop('Chance of Admit:', axis=1) # 特征 y = data['Chance of Admit:'] # 目标 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 4. 创建和拟合模型 model = LogisticRegression() model.fit(X_train, y_train) # 5. 预测 y_pred = model.predict(X_test) # 6. 评估模型性能 accuracy = accuracy_score(y_test, y_pred) conf_mat = confusion_matrix(y_test, y_pred) print("Accuracy:", accuracy) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值