Hive: 内部表与外部表的区别探索

一、准备工作

1、文件内容

文件不在HDFS上:/home/zhangsan/test.txt
文件在HDFS上:hdfs://testcluster/user/zhangsan/test.txt

张三,23
李四,25

2、建表

-- 内部表
create table test.inner_test(
    name string,
    age int
)
row format delimited fields terminated by ',';

-- 外部表
create external table test.outer_test(
    name string,
    age int
)
row format delimited fields terminated by ',';

3、查看 hdfs

show create table test.inner_test;
show create table test.outer_test;

inner_test
outer_test

二、文件不在HDFS上

1、load data

load data local inpath '/home/zhangsan/test.txt'
    overwrite into table test.inner_test;

load data local inpath '/home/zhangsan/test.txt'
    overwrite into table test.outer_test;

2、查看文件

hadoop fs -ls hdfs://testcluster/user/hive/test.db/inter_test;
hadoop fs -ls hdfs://testcluster/user/hive/test.db/outer_test;

hdfs_path

3、删除表,查看文件是否还存在

hadoop fs -ls hdfs://testcluster/user/hive/test.db/inter_test;
hadoop fs -ls hdfs://testcluster/user/hive/test.db/outer_test;

4、结论

内部表与外部表,从外部文件系统导入数据后,都会在表的对应HDFS目录下新建文件;
删除表数据,内部表在HDFS中的文件已被删除,外部表在HDFS中的文件依旧存在,并且重新创建表后,表会自动关联到文件中的数据;
re_create_outer_table

三、文件在HDFS上

0、复制数据

hdfs dfs -copyFromLocal /home/zhangsan/test.txt hdfs://testcluster/user/zhangsan/

hdfs_file_path

1、load data

1.1 内部表

load data inpath 'hdfs://testcluster/user/zhangsan/test.txt'
    overwrite into table test.inner_test;
    
Loading data to table test.inner_test
chgrp: changing ownership of 'hdfs://testcluster/user/hive/zhangsan.db/inner_test/test.txt': User does not belong to hive
Table test.nner_test stats: [numFiles=1, numRows=0, totalSize=20, rawDataSize=0]
OK
Time taken: 0.324 seconds
-- 导入成功后,文件是被移动到指定的表目录下面了    

load_data_inner_hdfs

1.2 外部表

load data inpath 'hdfs://testcluster/user/zhangsan/test.txt'
    overwrite into table test.outer_test;
    
Loading data to table test.outer_test
chgrp: changing ownership of 'hdfs://testcluster/user/hive/test.db/outer_test/test.txt': User does not belong to hive
Table test.outer_test stats: [numFiles=1, numRows=0, totalSize=20, rawDataSize=0]
OK
Time taken: 0.368 seconds 
-- 导入成功后,文件是被移动到指定的表目录下面了 

load_data_outer_hdfs

2、删除表,查看文件是否还存在

hadoop fs -ls hdfs://testcluster/user/hive/test.db/inner_test
hadoop fs -ls hdfs://testcluster/user/hive/test.db/outer_test

delete_table_hdfs

3、结论

内部表与外部表,从HDFS导入数据后,都会在表的对应HDFS目录下新建文件;
删除表数据,内部表在HDFS中的文件已被删除,外部表在HDFS中的文件依旧存在,并且重新创建表后,表会自动关联到文件中的数据;

四、最终结论

通过此次试验,清楚了自己最初想要测试的内容是,将文件 load data 到指定表后,对应位置的文件是否存在?经过以上测试,结论:

  • 本地文件 load data后,对应文件不会受到影响;
  • HDFS 上的文件 load data 后,对应文件会被移动到指定的表目录下; 待 探 索 . . . \color{red}{待探索...} ...

markdown改变字体颜色:https://www.jianshu.com/p/c5ea545e4545

### 解决PyCharm无法加载Conda虚拟环境的方法 #### 配置设置 为了使 PyCharm 能够成功识别并使用 Conda 创建的虚拟环境,需确保 Anaconda 的路径已正确添加至系统的环境变量中[^1]。这一步骤至关重要,因为只有当 Python 解释器及其关联工具被加入 PATH 后,IDE 才能顺利找到它们。 对于 Windows 用户而言,在安装 Anaconda 时,默认情况下会询问是否将它添加到系统路径里;如果当时选择了否,则现在应该手动完成此操作。具体做法是在“高级系统设置”的“环境变量”选项内编辑 `Path` 变量,追加 Anaconda 安装目录下的 Scripts 文件夹位置。 另外,建议每次新建项目前都通过命令行先激活目标 conda env: ```bash conda activate myenvname ``` 接着再启动 IDE 进入工作区,这样有助于减少兼容性方面的问题发生概率。 #### 常见错误及修复方法 ##### 错误一:未发现任何解释器 症状表现为打开 PyCharm 新建工程向导页面找不到由 Conda 构建出来的 interpreter 列表项。此时应前往 Preferences/Settings -> Project:...->Python Interpreter 下方点击齿轮图标选择 Add...按钮来指定自定义的位置。按照提示浏览定位到对应版本 python.exe 的绝对地址即可解决问题。 ##### 错误二:权限不足导致 DLL 加载失败 有时即使指定了正确的解释器路径,仍可能遇到由于缺乏适当的操作系统级许可而引发的功能缺失现象。特别是涉及到调用某些特定类型的动态链接库 (Dynamic Link Library, .dll) 时尤为明显。因此拥有管理员身份执行相关动作显得尤为重要——无论是从终端还是图形界面触发创建新 venv 流程均如此处理能够有效规避此类隐患。 ##### 错误三:网络连接异常引起依赖下载超时 部分开发者反馈过因网速慢或者其他因素造成 pip install 操作中途断开进而影响整个项目的初始化进度条卡住的情况。对此可尝试调整镜像源加速获取速度或是离线模式预先准备好所需资源包后再继续后续步骤。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值