一、环境要求 Hadoop+Hive+Spark+HBase 开发环境。
二、数据描述
meituan_waimai_meishi.csv 是某外卖平台的部分外卖 SPU(Standard Product Unit , 标准产品单元)数据,包含了外卖平台某地区一时间的外卖信息。具体字段说明如下:
| 字段名称 |
中文名称 |
数据类型 |
| spu_id |
商品spuID |
String |
| shop_id |
店铺ID |
String |
| shop_name |
店铺名称 |
String |
| category_name |
类别名称 |
String |
| spu_name |
SPU名称 |
String |
| spu_price |
SPU商品售价 |
Double |
| spu_originprice |
SPU商品原价 |
Double |
| month_sales |
月销售量 |

文章介绍了在Hadoop、Hive、Spark和HBase环境中处理外卖平台SPU数据的过程,包括数据上传、使用Spark进行数据分析(如店铺商品统计、销售额计算和排序),以及将结果存储到HBase中进行后续查询的操作。
最低0.47元/天 解锁文章
2670

被折叠的 条评论
为什么被折叠?



