Sql 练习50道(掌握可解大部分的sql问题)(初始化 and 1-10)

数据库表初始化:

create table Student(sid varchar(10),sname varchar(10),sage datetime,ssex nvarchar(10));
insert into Student values('01' , '赵雷' , '1990-01-01' , '男');
insert into Student values('02' , '钱电' , '1990-12-21' , '男');
insert into Student values('03' , '孙风' , '1990-05-20' , '男');
insert into Student values('04' , '李云' , '1990-08-06' , '男');
insert into Student values('05' , '周梅' , '1991-12-01' , '女');
insert into Student values('06' , '吴兰' , '1992-03-01' , '女');
insert into Student values('07' , '郑竹' , '1989-07-01' , '女');
insert into Student values('08' , '王菊' , '1990-01-20' , '女');
create table Course(cid varchar(10),cname varchar(10),tid varchar(10));
insert into Course values('01' , '语文' , '02');
insert into Course values('02' , '数学' , '01');
insert into Course values('03' , '英语' , '03');
create table Teacher(tid varchar(10),tname varchar(10));
insert into Teacher values('01' , '张三');
insert into Teacher values('02' , '李四');
insert into Teacher values('03' , '王五');
create table SC(sid varchar(10),cid varchar(10),score decimal(18,1));
insert into SC values('01' , '01' , 80);
insert into SC values('01' , '02' , 90);
insert into SC values('01' , '03' , 99);
insert into SC values('02' , '01' , 70);
insert into SC values('02' , '02' , 60);
insert into SC values('02' , '03' , 80);
insert into SC values('03' , '01' , 80);
insert into SC values('03' , '02' , 80);
insert into SC values('03' , '03' , 80);
insert into SC values('04' , '01' , 50);
insert into SC values('04' , '02' , 30);
insert into SC values('04' , '03' , 20);
insert into SC values('05' , '01' , 76);
insert into SC values('05' , '02' , 87);
insert into SC values('06' , '01' , 31);
insert into SC values('06' , '03' , 34);
insert into SC values('07' , '02' , 89);
insert into SC values('07' , '03' , 98);

题目(详解 1-10):

1.查询“某1”课程比“某2”课程成绩高的所有学生的学号;
SELECT a.sid FROM 
(SELECT sid,score FROM sc WHERE cid=01) a,
(SELECT sid,score FROM sc WHERE cid=02) b 
WHERE a.sid = b.sid 
AND a.score > b.score;

2.查询平均成绩大于60分的同学的学号和平均成绩;
SELECT sid,AVG(score) 
FROM sc 
GROUP BY sid 
HAVING AVG(score) > 60;

3.查询所有同学的学号、姓名、选课数、总成绩
SELECT s.sid,s.sname,COUNT(sc.cid),SUM(sc.score) 
FROM student s 
LEFT JOIN sc 
ON s.sid = sc.sid 
GROUP BY sid,sname;

4.查询姓“李”的老师的个数;
SELECT COUNT(tid) 
FROM teacher 
WHERE tname LIKE '李%';

5.查询没学过“张三”老师课的同学的学号、姓名;
SELECT s.sid,s.sname 
FROM student s 
WHERE s.sid NOT IN
(SELECT sc.sid 
FROM course c,sc,teacher t 
WHERE c.tid=t.tid 
AND c.cid=sc.cid 
AND t.tname='张三');

6.查询学过“数学”并且也学过“语文”课程的同学的学号、姓名;
SELECT t1.sid,t1.sname FROM
(SELECT s.sid,s.sname FROM student s,sc,course c WHERE c.cname='数学' AND c.cid=sc.cid AND sc.sid=s.sid) t1,
(SELECT s.sid,s.sname FROM student s,sc,course c WHERE c.cname='语文' AND c.cid=sc.cid AND sc.sid=s.sid) t2
WHERE t1.sid=t2.sid;

7.查询学过“王五”老师所教的所有课的同学的学号、姓名;
SELECT t.* FROM 
(SELECT s.sid,s.sname 
FROM student s,sc,teacher t,course c 
WHERE t.tname='王五' AND t.tid=c.tid AND c.cid=sc.cid AND sc.sid=s.sid) t;

8.查询课程编号“01”的成绩比课程编号“02”课程低的所有同学的学号、姓名;
SELECT t1.sid,t1.sname FROM
(SELECT s.sid,s.sname,score FROM student s,sc WHERE s.sid=sc.sid AND sc.cid=01) t1,
(SELECT s.sid,s.sname,score FROM student s,sc WHERE s.sid=sc.sid AND sc.cid=02) t2
WHERE t1.sid=t2.sid AND t1.score<t2.score;

9.查询所有课程成绩小于60分的同学的学号、姓名;
SELECT s.sid,s.sname,sc.cid 
FROM student s,sc 
WHERE s.sid=sc.sid AND sc.score<60;

10.查询没有学全所有课的同学的学号、姓名;
SELECT s.sid,s.sname 
FROM student s LEFT JOIN sc 
ON s.sid=sc.sid 
GROUP BY s.sid 
HAVING COUNT(sc.cid)<(SELECT COUNT(cid) FROM course);

 

 

### 如何搭建配置 Spark SQL 环境 #### 一、准备工作 为了成功部署Spark SQL环境,需先完成必要的软件安装与配置工作。这包括但不限于Java的安装以及确保能够实现无密码SSH登录[^1]。 #### 二、Hadoop 的安装与配置 由于Spark SQL通常运行于分布式文件系统之上,因此首先需要设置好Hadoop环境: - **下载并解压缩** Hadoop版本至目标路径; - **设定环境变量** ,以便命令行工具可以直接调用hadoop指令; - 对于集群模式下的应用,则还需进一步调整`core-site.xml`, `hdfs-site.xml`等相关XML配置文档来适应具体的网络拓扑结构;最后通过执行特定脚本来激活整个服务组。 以上操作完成后,可以访问指定URL查看各节点状态信息以确认Hadoop已正常启动。 #### 三、Hive (可选) 如果计划让Spark连接到现有的Hive仓库读取表定义或查询数据,则还需要单独准备一份Hive实例: - 获取最新稳定版Hive包后同样按照官方指南说明进行初步布置; - 修改`.bashrc`或其他shell profile加入新添加组件的位置参数; - 编辑`hive-env.sh`指明JDBC驱动所在位置用于后续对接关系型数据库作为持久化层存储元数据; - 使用`schematool -initSchema -dbType derby/mysql/postgres...`初始化内部架构体系; - 至此,Hive应该已经处于待命状态等待接收来自外部程序发起的任务请求. 值得注意的是,当决定使两者协同作业时,记得把Hive的相关jar包复制给Spark加载器知晓从而简化集成过程. #### 四、Spark SQL 安装步骤 接下来进入核心环节——构建支持SQL解析能力的计算框架: - 类似前面提到的产品,从官方网站获取适用于当前系统的tarball归档文件; - 解压之后编辑profile.d下新增加sh脚本追加PATH声明使得终端识别spark-shell等实用程序; - 更改`spark-env.sh`内有关内存分配大小、executor数量之类的性能优化选项满足实际业务需求; - 如果担心控制台输出过多冗余内容影响效率的话还可以适当删减log4j.properties里的级别阈值达到精简目的; - 开启History Server便于日后追溯过往批次处理情况; - 若要无缝接入之前建立好的metastore则参照官方手册指示修改conf目录中的hive-site.xml使之指向正确的地址. 此时理论上讲只要不是特别复杂的场景都应该能顺利跑通简单的ETL流程了. 对于本地测试而言只需简单输入`./bin/spark-shell`即可开启交互式的REPL界面供开发者调试练习之用;而生产环境中往往倾向于采用独立进程的方式即standalone master/slave架构或者更高级别的资源调度平台如YARN/Zookeeper管理任务分发与协调机制[^3]. ```bash # 启动 Local 模式 $ ./sbin/start-master.sh $ ./sbin/start-slave.sh spark://localhost:7077 # 或者使用 Yarn 调度 $ export HADOOP_CONF_DIR=/etc/hadoop/conf $ ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ /path/to/examples.jar \ 10 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值