PAT 1080Graduate Admission

本文介绍了一个模拟高校招生过程的程序,使用C++实现。该程序包括学生信息结构体定义、学校招生逻辑处理及最终录取结果输出等功能。通过比较学生的总分和英语成绩来决定录取顺序,并确保同一学校内学生ID按升序排列。
#include <cstdio>
#include<algorithm>
#include<iostream>
#include<string.h>
#include<vector>
using namespace std;
struct student{
	int ge,gi,sum,id;
	int adm[5];
}st[40100];
struct school{
int count;
vector<student> ad;
}sc[110];

vector<int>s[110];
int cmp(const student &a,const student &b){
	if(a.sum==b.sum){
		return a.ge>b.ge;
	}
	else
		return a.sum>b.sum;
}

int cmp1(const student &a,const student &b){
	return a.id<b.id;
}
int vit[40100];
int main()
{
	//freopen("G://test.txt","r",stdin);
	int n,m,k;
	while(scanf("%d%d%d",&n,&m,&k)!=EOF){
		memset(vit,0,sizeof(vit));
		for(int i=0;i<m;++i){
			scanf("%d",&sc[i].count);
		}
		for(int i=0;i<n;++i){
			scanf("%d%d",&st[i].ge,&st[i].gi);
			st[i].sum=st[i].ge+st[i].gi;
			st[i].id=i;
			for(int j=0;j<k;++j){
				int temp;
			scanf("%d",&temp);
			st[i].adm[j]=temp;
			}
		}
		
		sort(st,st+n,cmp);
		for(int j=0;j<n;++j){
		for(int i=0;i<k;i++){
				
					if(sc[st[j].adm[i]].count>0){
						sc[st[j].adm[i]].ad.push_back(st[j]);
						sc[st[j].adm[i]].count--;
						break;
					}
					else{
						if(sc[st[j].adm[i]].ad.size()>0){
							if(sc[st[j].adm[i]].ad[sc[st[j].adm[i]].ad.size()-1].sum==st[j].sum&&sc[st[j].adm[i]].ad[sc[st[j].adm[i]].ad.size()-1].ge==st[j].ge){
								sc[st[j].adm[i]].ad.push_back(st[j]);
								break;
							}
						}
					
					}
				
			
			
			}
		}

		for(int i=0;i<m;++i){
			sort(sc[i].ad.begin(),sc[i].ad.end(),cmp1);
			for(int j=0;j<sc[i].ad.size();++j){
				if(j==0)
					printf("%d",sc[i].ad[j].id);
				else
					printf(" %d",sc[i].ad[j].id);
			}
			printf("\n");
		}
	}
	return 0;		
}

逻辑斯蒂回归(Logistic Regression)是一种常用的分类算法,常用于二分类问题中,如预测研究生能否被录取。Kaggle的Graduate Admission数据集包含了申请人的各项信息,例如GRE分数、TOEFL分数、大学GPA、科研经验、推荐信等,目标变量通常是“是否被录取”(是否被研究生院接受)。 首先,我们来理解数据集属性的意义: 1. GRE Score: 研究生入学考试成绩 2. TOEFL Score: 英语水平测试得分 3. University Rating: 学校排名 4. SOP: Statement of Purpose(个人陈述)的质量 5. LOR: Letter of Recommendation(推荐信)的质量 6. CGPA: 学术平均绩点 7. Research: 科研经历(0或1) 8. Chance of Admit: 录取概率(这个不是原始数据,而是我们最终需要预测的目标) 数据预处理步骤主要包括: 1. **加载数据**:使用pandas库读取csv文件并查看基本信息。 2. **缺失值处理**:检查是否存在缺失值,并选择填充、删除或估算策略。 3. **编码分类变量**:将类别型特征转换成数值型,如使用one-hot encoding或者LabelEncoder。 4. **标准化或归一化**:对于数值型特征,通常会做数据缩放,如Z-score标准化或min-max归一化。 5. **划分训练集和测试集**:通常采用80%的数据作为训练集,剩余的20%作为测试集。 6. **特征工程**:如果有必要,可以创建新的特征或调整现有特征。 逻辑斯蒂回归的预测原理是基于sigmoid函数,该函数将线性组合后的输入映射到0到1之间,表示事件发生的可能性。模型学习如何调整权重系数,使得给定输入条件下,正类(如录取)的概率最大化。 实现过程(Python示例,假设使用sklearn库): ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score # 1. 加载数据 data = pd.read_csv('Admission_Predict.csv') # 2. 数据预处理 # ... 缺失值处理、编码、标准化等操作 # 3. 划分特征和目标 X = data.drop('Chance of Admit', axis=1) y = data['Chance of Admit'] # 4. 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 5. 特征缩放 scaler = StandardScaler() X_train_scaled = scaler.fit_transform(X_train) X_test_scaled = scaler.transform(X_test) # 6. 创建模型并拟合 model = LogisticRegression() model.fit(X_train_scaled, y_train) # 7. 预测 y_pred = model.predict(X_test_scaled) # 8. 评估模型性能 accuracy = accuracy_score(y_test, y_pred) print(f"Accuracy: {accuracy}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值