
基础知识
文章平均质量分 60
大数据基础知识
Elena_qi
一博
展开
-
算法:二进制矩阵中的最短路径 + 滑动窗口最大值
算法原创 2022-09-21 23:28:15 · 203 阅读 · 1 评论 -
算法:和为 K 的子数组 + 转换成小写字母
算法原创 2022-09-21 23:18:44 · 182 阅读 · 0 评论 -
算法:冗余连接 + 岛屿数量
算法原创 2022-09-21 23:06:53 · 229 阅读 · 0 评论 -
算法:完全平方数 + 跳跃游戏
算法原创 2022-09-04 16:48:37 · 1768 阅读 · 0 评论 -
算法:爬楼梯 + 三角形最小路径和
算法原创 2022-08-28 22:14:27 · 164 阅读 · 0 评论 -
算法:区间和的个数 + 被围绕的区域
算法原创 2022-08-18 23:18:33 · 146 阅读 · 0 评论 -
算法:滑动窗口最大值 + 在线选举
算法原创 2022-08-13 22:04:39 · 161 阅读 · 0 评论 -
算法:构件树 + 累加树
算法原创 2022-08-07 17:26:15 · 212 阅读 · 0 评论 -
子域名访问计数 + 数组的度
算法原创 2022-07-31 16:37:04 · 151 阅读 · 0 评论 -
算法:合并两个有序链表
算法基础原创 2022-07-23 23:10:25 · 143 阅读 · 0 评论 -
算法题:数组最后位+1输出
算法基础原创 2022-07-23 23:07:50 · 249 阅读 · 0 评论 -
FLINK 极客时间
flink原创 2022-07-17 22:20:00 · 684 阅读 · 0 评论 -
spark compact on table
实现 Compact table command要求: 添加 compact table 命令,用于合并小文件,例如表 test1 总共有 50000 个文件,每个 1MB,通过该命令,合成为 500 个文件,每个约 100MB。 语法: COMPACT TABLE table_identify [partitionSpec] [INTO fileNum FILES]; 说明:基本要求是完成以下功能:COMPACT TABLE test1 INTO 500 FILES; 如果添加 parti转载 2022-05-22 23:09:24 · 264 阅读 · 1 评论 -
Hive 基础实践
目的:简单hive SQL 实践数据数据解释t_user 观众表(6000+ 条数据)字段为:UserID, Sex, Age, Occupation, Zipcode 字段中文解释:用户 id,性别,年龄,职业,邮编 t_movie 电影表(共 3000+ 条数据)字段为:MovieID, MovieName, MovieType 字段中文解释:电影 ID,电影名,电影类型 t_rating 影评表(100 万 + 条数据)字段为:UserID, MovieID原创 2022-04-03 16:41:38 · 1912 阅读 · 0 评论 -
hive left join on 中是否可以加入限制条件
背景:hive 中使用 left join 时,是否可以在 on 条件中中加入限制条件。结论:不可以,但是在inner join 中是可以的。create table test.test_no_part (id int ,name string);insert overwrite table test.test_no_part VALUES (1,'a'),(2,'b'),(3,'c');create table test.test_no_part_b (id int ,name stri原创 2021-07-21 17:07:41 · 950 阅读 · 0 评论 -
hive null and empty string--- 系列(四)-- ORCFile
目的:预将hive中 null 与empty string 统一,便捷后续开发问题:orc 文件 使用SET SERDEPROPERTIES('serialization.null.format' = '') 失效解决方案:探索 null 再各个file_format 的存储方式RCFile(一)原始状态create table test.rcfile (id int ,name string) STORED AS rcfile;show create table test....原创 2021-06-11 17:18:44 · 562 阅读 · 3 评论 -
hive null and empty string--- 系列(三)-- SeqFile
目的:预将hive中 null 与empty string 统一,便捷后续开发问题:orc 文件 使用SET SERDEPROPERTIES('serialization.null.format' = '') 失效解决方案:探索 null 再各个file_format 的存储方式原创 2021-06-11 17:06:33 · 419 阅读 · 0 评论 -
hive null and empty string--- 系列(二)-- RCFile
目的:预将hive中 null 与empty string 统一,便捷后续开发问题:orc 文件 使用 SET SERDEPROPERTIES('serialization.null.format' = '') 失效解决方案:探索 null 再各个file_format 的存储方式RCFile(一)原始状态...原创 2021-06-11 15:58:15 · 256 阅读 · 1 评论 -
hive row_number 使用注意点
Row_number 是hive常用的窗口函数之一,目的:分组排序。场景:order by value, value 值重复执行行,连续两次使用 row_number ,结果会不如所愿。原创 2021-06-07 11:09:02 · 1428 阅读 · 0 评论 -
hive null and empty string--- 系列(一)-- TextFile
目的:预将hive中 null 与empty string 统一,便捷后续开发问题:orc 文件 使用 SET SERDEPROPERTIES('serialization.null.format' = '') 失效解决方案原创 2021-06-11 14:42:49 · 241 阅读 · 0 评论