
hadoop
文章平均质量分 57
hxsln11
这个作者很懒,什么都没留下…
展开
-
ClickHouse
ClickHouse 和 Hadoop 都是大数据领域的重要技术,ClickHouse 在实时数据分析方面表现优异,而 Hadoop 在大规模数据存储和批处理方面具有显著优势。企业应根据具体需求选择合适的工具,也可以将二者结合使用,以实现更高效的数据处理与分析原创 2025-03-05 18:11:34 · 445 阅读 · 0 评论 -
py连接 原生hadoop报错记录
【代码】py连接 原生hadoop报错记录。原创 2025-03-03 23:10:20 · 105 阅读 · 0 评论 -
cdh_hive连接中的一些问题
3.再次运行代码可以连接。原创 2025-03-03 22:39:35 · 144 阅读 · 0 评论 -
HDP 企业级大数据平台
作者:IIGEOywq链接:https://www.jianshu.com/p/079a0c98e0bc来源:简书简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。转载 2025-03-03 21:13:23 · 43 阅读 · 0 评论 -
分析CDH现状及替代方案
CDH 并没有完全被淘汰,但其社区版和企业版的支持已经停止,用户需要考虑迁移到其他平台。CDP 是一个可行的替代方案,但对于有国产化需求的用户,USDP 和 TDH 等国产自主研发的大数据平台可能是更好的选择。原创 2025-03-03 17:59:03 · 421 阅读 · 0 评论 -
CDH-6.2.1-1 sqoop的一次学习
" > output.txt 导出来的是 a 空格 b 空格 c形式。find / -name "sqoop*" # 查找以 "sqoop" 开头的文件。5.sqoop连接到本地的mysql数据库查看。由于文本之间的间隔 不同导致的数据加载不进去。" # 查找包含 "hadoop" 的文件。7.把hive 中的数据导出成文本的格式。7.1 重修修复文本。原创 2025-03-03 10:10:06 · 232 阅读 · 0 评论 -
T470_vm_cdh 网络配置复盘
hadoop01 和 hadoop02 交叉验证。1.最容易忘记的是服务器端的配置。服务器端 静态网络地址的配置。2.vm虚拟机端的配置信息。3.vmnet8相关的配置。节点 hadoop01。节点hadoop02。原创 2025-03-01 13:30:50 · 204 阅读 · 0 评论 -
y7000p_sqoop2操作
3.查看下vm的网址信息。原创 2025-02-28 22:32:19 · 218 阅读 · 0 评论 -
sqoop2 无法ping通网络 t470
1.vm层次2.对应的网络3.ssh登录测试151ping 百度。原创 2025-02-28 19:06:48 · 145 阅读 · 0 评论 -
T470环境 hadoop切换学习vm配置
2.切换到cdh学习。原创 2025-02-27 11:29:06 · 348 阅读 · 0 评论 -
python 连接hadoop 简单的测试
【代码】python 连接hadoop 简单的测试。原创 2025-02-26 13:04:56 · 192 阅读 · 0 评论 -
理解 hadooop rpc的图
1.2.解释这张图展示了一个典型的基于NIO(非阻塞I/O)的RPC(远程过程调用)框架的工作流程。图中分为客户端(Client)和服务端(Server)两部分,以及它们之间的交互过程。原创 2024-12-19 18:50:31 · 369 阅读 · 0 评论 -
win环境下 利用ide操作 hadoop为啥要 安装MSVBCRT_AIO_2018.07.31_X86+X64
此外,MSVBCRT_AIO_2018.07.31_X86+X64的安装包可能包含了Hadoop在Windows上运行所需的winutils.exe和hadoop.dll等文件,这些文件主要用于模拟Linux下的目录环境,确保Hadoop的核心功能可以在Windows上正常工作。在Windows环境下,由于Hadoop最初是为Linux操作系统设计的,这两个文件尤其重要,它们使得Hadoop能够在非Linux环境下进行开发和测试工作,扩大了Hadoop的使用范围。然而,需要注意的是,尽管。原创 2024-12-19 18:17:15 · 501 阅读 · 0 评论 -
java 能操作 hdfs原理
因此,当我们编写一个 Java 程序来操作 HDFS 时,我们实际上是在使用 Hadoop 项目提供的 Java 类和方法。HDFS 的 NameNode 和 DataNode 之间,以及客户端与这些节点之间,都是通过 RPC 进行通信的。在构建过程中,这些文件被复制到 Hadoop 安装的 etc/hadoop 目录中,确保在运行时正确加载配置。因此,resources目录在Hadoop项目中的作用不仅在于存储配置文件,还确保这些配置文件能够被正确地分发和使用,从而保证Hadoop集群的正常运行。原创 2024-12-19 17:16:14 · 310 阅读 · 0 评论 -
hadoop3 无法访问 http://hadoop103:8088/cluster
2.我的解决方案 感觉是节点 hadoop103挂了。上面有具体的排查逻辑信息。原创 2024-12-18 18:04:39 · 316 阅读 · 0 评论 -
hadoop 虚拟机集群之间的ip设置
T470上做相关的测试信息原创 2024-10-14 16:20:06 · 273 阅读 · 0 评论 -
华硕6700hq 在hadoop上测试创建相关的文件信息
case test测试 生成对应的文件夹信息。创建了相关的 .java的文件信息。原创 2024-10-14 16:01:38 · 258 阅读 · 0 评论 -
P46 hadoop_hdfs_api 环境准备
D:\BaiduNetdiskDownload\尚硅谷大数据技术之Hadoop3.x。4.log4j.properties 配置。安装好了就ok了 一闪而过的。第一次运行的话需要联网下载。Maven下载路径配置。3.配置 Maven。原创 2024-09-14 18:20:25 · 468 阅读 · 1 评论 -
hadoop 3.1.3 官方学习地址 p42
8. secondary namenode 能恢复的数据也只是部分数据。5.副本策略 主要是namenode管理。6.第1块和第2块 可能没有相关的关系。7.datanode处理数据。原创 2024-09-06 19:27:56 · 433 阅读 · 1 评论 -
p34_日志聚集功能 总结
点击但是不能查看相关的日志。这样可以看到历史信息了。原创 2024-09-06 11:50:37 · 812 阅读 · 0 评论 -
自学了一段时间快忘记了
================== 启动 hadoop 集群 ===================--------------- 启动 historyserver ------------------------------ 启动 hdfs ------------------------------ 启动 yarn ---------------C:\hadoop3集群测试\hadoop3102。C:\hadoop3集群测试\hadoop3103。103上启动 yarn。原创 2024-09-06 00:35:56 · 539 阅读 · 0 评论 -
Centos7.8+CDH6.2.1从零开始安装
这个感觉不是太清晰逻辑 不过可以参考。原创 2024-08-25 13:52:35 · 200 阅读 · 0 评论 -
记录 cdh6.2.1 一些版本信息
错误: 找不到或无法加载主类 org.apache.hadoop.hbase.util.GetJavaProperty。1.1 hadoop的环境变量 hadoop-env.sh。2.1 hive环境变量。原创 2024-08-25 12:43:41 · 761 阅读 · 0 评论 -
13 hadoop3 入门2个小脚本
2.每个节点上查看 jps。1.集群的启动和停止。3.测试jpsall。原创 2024-08-23 15:33:34 · 146 阅读 · 0 评论 -
12.hadoop3 历史服务器配置
2.分发到每个节点 102,103,104。103上 yarn先关闭然后再打开。内部通信的接口是 10020。对外的接口是 19888。页面删除 2个文件夹。重新运行第3次成功了。原创 2024-08-23 00:15:24 · 522 阅读 · 0 评论 -
11.hadoop3配置文件
模拟103上删除 core-site.xml。原创 2024-08-22 18:49:53 · 211 阅读 · 0 评论 -
10.模拟集群崩溃
7.删除102 103 104所有的 data和logs。5.继续把104的数据 data删除掉。3.到103上模拟删除 data文件。然后jps 102,103,104。4.此时候的文件还是能下载下来的。挂掉 DataNode。杀不死的进程 4443。然后继续初始化name。原创 2024-08-22 18:19:07 · 399 阅读 · 0 评论 -
9.wordcount在页面上运行不出来,只出个temp
103上启动 yarn。删除wcoutput。原创 2024-08-22 18:05:21 · 190 阅读 · 0 评论 -
8.hadoop3 启动的流程以及现象
1.102上 sbin/start-dfs.sh。103上 sbin/start-yarn.sh。原创 2024-08-22 15:28:05 · 417 阅读 · 0 评论 -
7 hadoop 本地2套测试环境记录
【代码】7 hadoop 本地2套测试环境记录。原创 2024-08-22 14:31:42 · 130 阅读 · 0 评论 -
6.hadoop3 配置免密登录
rw-r--r--. 1 atguigu atguigu 561 8月 21 21:58 known_hosts。4.对于普通用户来说已经配置好了 atguigu/123456。分别在102上 向103,104,102(自己) 配置。然后103上拷贝到103(自己对自己)在104上拷贝到104(自己对自己)3.2 在 104上类似的操作。相似命令是: 'sync'然后103上拷贝到102。然后103上拷贝到104。然后104上拷贝到102。然后104上拷贝到103。3.103上类似的操作。原创 2024-08-22 00:03:09 · 765 阅读 · 0 评论 -
5.hadoop3 xsync 脚本
atguigu@hadoop102 ~]$ xsync /etc/profile.d/my_env.sh 错误吧。-P的理解 就是为了防止软链接问题 直接找到根目录。-p 的理解 如果文件夹存在就覆盖。102上 /home/atguigu。103和104都能看到同步的 bin。4.102上同步一个 bin文件。尝试在写一层 软链接。删除软链接比较安全的方式。2.basename命令。环境变量一般是root。检验103 和104。原创 2024-08-21 22:19:52 · 361 阅读 · 0 评论 -
4.hadoop3 scp命令 & rsync 同步命令
4.rsync 同步命令 相当与只拷贝变化的部分 不用整体拷贝。3.在103上 把102的数据拷贝到104上。然后在 102上使用 rsync 命令。2.在102上拷贝数据到 103。在103上先删除 问个文件。原创 2024-08-21 20:49:59 · 335 阅读 · 0 评论 -
hadoop3 本地模式 经典wordcount
rw-rw-r--. 1 atguigu atguigu 36 8月 21 19:21 word.txt。删除当前文件夹的全部内容 慎用 要看清目录。1.建立 wcinput。原创 2024-08-21 19:42:15 · 227 阅读 · 0 评论 -
hadoop3 目录部分的信息
1.2.3.常用的目录部分。原创 2024-08-21 19:08:19 · 201 阅读 · 0 评论 -
hadoop3 安装
rw-rw-r--. 1 atguigu atguigu 147145 9月 4 2019 LICENSE.txt。-rw-rw-r--. 1 atguigu atguigu 21867 9月 4 2019 NOTICE.txt。-rw-rw-r--. 1 atguigu atguigu 1366 9月 4 2019 README.txt。drwxr-xr-x. 4 atguigu atguigu 288 9月 12 2019 libexec。4.刷新环境变量 测试。原创 2024-08-21 18:57:42 · 703 阅读 · 0 评论 -
hadoop3 jdk环境变量配置
3.新增一个 .sh my_env.sh。原创 2024-08-21 18:38:27 · 252 阅读 · 0 评论 -
开源与免费对等吗
有大模型技术专家,对虎嗅就大模型的早期研发问题也做了进一步补充:“LLaMA,GPT都是基础大模型,基于Transformer架构训练,使用了不同的方法,有encode-decode结构的,也有像GPT类decode only的。大模型在架构上的源头是 Transformer,据 OSS Insight 数据统计,在 Transformer 社区中,提 Issue(答疑交流、反馈缺陷)的 Top 10 榜单,只有两家中国单位,一个是北京大学,一个是清华大学,没有一家中国企业。在实施力度上,中外也有所差别。原创 2024-08-20 10:28:40 · 485 阅读 · 0 评论