自己对大数据的简单体会

最近对于大数据的发现越来越多了,感触也是越来越多,首先我来说几个例子吧

每天早晨起床我得手机首先会给我推荐当天的上班路况,这你受得了吗?我不开车也不坐公交而是坐地铁😅

其次是一些系统你会发现比如说京东、天猫、淘宝之类的会根据你经常浏览的物品,当你无聊浏览时候你会发现看到的就是你经常搜索的东西,这个我觉得应该是根据你的行为动作去实现的一个功能

再有就是这个博客啦,就拿我得博客举例吧,搜@RequestParam的同学可能就要比搜Servlet的同学多,以上是举例

欢迎大家评论~~~

未完待续~~~

### 常用Linux操作 在大数据实验中,掌握一些常见的Linux操作是非常重要的。这些操作可以帮助用户更高效地管理文件、查看系统状态以及执行其他必要的任务。以下是几个常用的Linux命令: - **文件目录操作**: `ls`, `cd`, `mkdir`, `rm` `cp` 是最基本的用于浏览修改文件系统的命令[^1]。 - **权限管理**: 使用 `chmod` 可以更改文件或目录的访问权限;`chown` 则用来改变文件的所有者。 - **文本处理工具**: 如 `cat`, `grep`, `awk`, `sed` 这些工具对于查找特定字符串或者编辑大量文本非常有用。 - **压缩解压**: 对于大容量的数据集来说,学会如何使用 `tar` 或 `gzip` 来打包压缩文件也是必不可少的一项技能。 ```bash # 创建新目录并进入该目录 mkdir new_directory && cd $_ # 查找当前路径下包含关键词 'error' 的日志文件 find . -name "*.log" | xargs grep error ``` --- ### Hadoop基础命令 Hadoop提供了丰富的命令来管理监控集群中的数据存储与计算资源。下面列举了一些最常使用的Hadoop命令: - **启动/停止服务节点**: 通过 `/hadoop/hadoop/sbin/hadoop-daemon.sh start|stop datanode` 控制DataNode的服务启停[^3]。 - **上传下载文件到HDFS**: 使用 `-put` 将本地文件复制至分布式文件系统上, 而 `-get` 执行相反的操作。 ```bash hadoop fs -put /local/path/to/file.txt /hdfs/target/directory/ ``` - **查询HDFS上的元信息**: 比如显示某个具位置下的内容列表(`-ls`)或是统计整个目录大小(`du -s`)等功能均可以通过简单的CLI指令完成。 - **删除不需要的内容**: 当不再需要某些数据时可利用 `-rmr` (递归移除) 清理掉它们。 --- ### 实验心得总结 参与此次关于熟悉常用Linux及Hadoop操作的大数据分析课程后发现,在实际动手实践之前确实存在较多陌生领域需提前学习准备。例如刚开始接触各类Shell脚本编写技巧还有理解MapReduce工作流程等方面的知识点都需要额外花时间去深入研究才能更好地适应后续更加复杂的编程需求。 另外值得注意的一点是在调试阶段经常会碰到各种各样意想不到的小错误但是只要耐心寻找原因几乎都能找到对应的解决方案这不仅锻炼了自己的问题排查能力同时也增强了面对困难的信心水平最后成功完成后也获得了极大的成就感[^2]. 尽管像Hive这样的技术虽然基于较慢的MapReduce框架但在适当场景下仍然具有其独特优势; 同样Kylin凭借预计算方式实现了快速响应特性从而吸引了越来越多用户的青睐显示出不同工具有着各自适用范围的重要性[^4]. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值