广告数仓:可视化展示

文章介绍了如何使用FineBI进行数据可视化,包括FineBI的下载与安装,配置数据库连接到MySQL的finedb,以及连接和配置ClickHouse数据库。接着,文章详细阐述了在FineBI中导入数据、编辑图表和创建仪表盘的操作步骤,最后总结了整个广告数仓项目的完成。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

系列文章目录

广告数仓:采集通道创建
广告数仓:数仓搭建
广告数仓:数仓搭建(二)
广告数仓:全流程调度
广告数仓:可视化展示



前言

今天来记录一下广告数仓的最后一部分。可视化展示


一、FineBI

FineBI是国内的一款开源的,大数据可视化工具,分为免费版和收费板,实验采用免费版。
因为上次我们完成了数据导出,所以我们不需要再开任何环境

1.FineBI下载

官网
因为这个软件是国内的,速度没问题,就直接官网下载就行,或者找个别人下载好的安装脚本。
在这里插入图片描述

2.软件安装

bash linux_unix_FineBI6_0-CN.sh

大部分参数,无脑默认就行,就有个地方略微修改一下。
在这里插入图片描述
剩下的都不需要修改。

3.配置数据库

在mysql中创建源数据库。

CREATE DATABASE `finedb` DEFAULT CHARACTER SET utf8 COLLATE utf8_bin;

然后安装完成后访问web网站
http://hadoop102:37799/webroot/decision
在这里插入图片描述
随便设置,但是要记住。
在这里插入图片描述
配置咱们刚刚创建的数据库。
在这里插入图片描述
然后等待创建完成即可。
在这里插入图片描述
之后登录FineBI输入账号密码,出现以下界面,代表安装完成。
在这里插入图片描述

二、数据可视化

1.开启ClickHOuse

确认clickhouse数据库开启。
在这里插入图片描述

2.连接数据库

在这里插入图片描述
FineBi已经提供了Clickhouse的连接
在这里插入图片描述
但是她没有提供jar驱动,需要咱们提前下载。
下载地址
在这里插入图片描述

3.添加驱动

在这里插入图片描述
他有可能保存无法上传(我第一次没遇到),我们需要修改数据的一个值。

SELECT id, value
FROM finedb.fine_conf_entity WHERE id LIKE "SystemConfig.driverUpload";

把它修改成true
在这里插入图片描述
然后重启以下FineBI后可以上传了
在这里插入图片描述
最后右上角保存

4.导入数据

新建文件夹
在这里插入图片描述
添加数据库表
在这里插入图片描述
添加数据
在这里插入图片描述
更新数据
在这里插入图片描述
这里有可能出现中文乱码,如果出现了就把数据库连接从utf8换成默认。
在这里插入图片描述

5.编辑图表

在这里插入图片描述
添加数据
在这里插入图片描述
在这里插入图片描述
添加组件
在这里插入图片描述
创建钻取目录
在这里插入图片描述
为了方便重命名一下
将city加入钻取目录
在这里插入图片描述
选择图表类型
在这里插入图片描述
设置映射类型
在这里插入图片描述
在这里插入图片描述
另一个也一样

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
最后重命名一下组件。
在这里插入图片描述
考虑到内存问题(博主这里网站已经很卡了)。
就只演示这一个例子。

6.仪表盘操作

添加仪表盘
在这里插入图片描述
直接拖拽即可。
在这里插入图片描述
可以调整大小和一些其他参数
在这里插入图片描述
之后退出主题,打开公共链接
在这里插入图片描述
然后复制链接到浏览器打开即可。
在这里插入图片描述


总结

到此广告数仓的项目就正式完结了。

### 回答1: 如果要设计一个基于 Hive 的网站访问数据的离线数仓,需要以下步骤: 1. 收集网站的访问数据,并存储在 Hadoop 分布式文件系统(HDFS)上。 2. 利用 Hive 建立数据仓库,并对访问数据进行结构化。 3. 在 Hive 中创建数据表,并导入数据。 4. 使用 Hive 查询语言(HQL)进行数据分析,生成统计报告和图表。 5. 将分析结果导出到外部存储,便于进一步使用。 6. 定期对数据仓库进行维护和更新,保证数据的最新性。 这些步骤可以帮助你设计一个稳健的、高效的离线数仓,用于分析网站的访问数据。 ### 回答2: 基于Hive的网站访问数据的离线数仓设计需要以下步骤: 1. 数据采集和存储:通过日志收集器收集网站访问日志,将这些日志数据传送到Hive的数据仓库中进行存储。可以使用Flume或Kafka等工具来实现数据采集和传输。 2. 数据清洗和转换:使用Hive的ETL功能对原始数据进行清洗和转换。这包括去除无效数据、处理数据格式、合并数据等。可以使用Hive的查询语言(例如HQL)来实现这些操作。 3. 数据建模和分区:根据网站访问数据的需求,设计合适的数据模型,并进行分区以提高查询性能。可以使用Hive的表分区功能根据时间、地域、用户等维度进行数据分区。 4. 数据加载和索引:使用Hive的加载命令将清洗和转换后的数据加载到数据仓库中,并根据查询需求创建索引以加快查询速度。可以使用Hive的分区索引或bitmap索引等技术来实现数据加载和索引。 5. 数据查询和分析:通过Hive的查询语言对数据仓库中的网站访问数据进行查询和分析,并生成相应的报表和可视化结果。可以使用Hive的聚合函数、分组和排序等功能来实现数据查询和分析。 6. 数据备份和恢复:定期对数据仓库进行备份,以防止数据丢失或损坏。可以使用Hive的导出和导入功能将数据仓库中的数据备份到其他存储系统,如HDFS或云存储。 通过以上步骤设计的基于Hive的网站访问数据的离线数仓可以实现高效的数据存储、查询和分析,为网站运营和决策提供可靠的数据支持。 ### 回答3: 基于Hive的网站访问数据的离线数仓设计如下: 1. 数据源收集:首先,需要收集网站访问数据源,包括网站服务器日志、用户行为数据、广告点击等相关数据。这些数据可以通过Flume等数据采集工具实时收集到Hadoop集群上。 2. 数据预处理:将收集到的原始数据进行预处理,包括数据清洗、字段解析、数据格式转换等。可以使用Hive进行数据清洗和转换操作。 3. 数据存储:将预处理后的数据存储到Hive或者HBase中,便于后续的查询分析。Hive提供了数据仓库的功能,并可以通过Hive SQL进行数据查询和分析操作。 4. 数据分区:根据业务需求将数据进行分区,可以按照时间、地区、用户等维度进行分区,提高查询效率和性能。 5. 数据建模:设计合适的数据模型,根据业务需求创建表结构,并建立关联关系。可以使用Hive的表和分区来组织数据,并使用Hive内置的函数和脚本来处理数据。 6. 查询分析:根据业务需求,使用Hive SQL语句进行查询和分析操作,例如统计网站的访问量、独立访客数、页面流量等指标。可以使用Hive的MapReduce和Tez来进行大规模数据处理和计算。 7. 数据可视化:将查询结果通过可视化工具(如Tableau、Superset等)进行展示,生成直观的数据报表和可视化图表,供业务人员和决策者进行数据分析和决策。 8. 定期更新:根据实际情况,定期将新的网站访问数据导入数据仓库进行更新,保持数据的实时性和准确性。 通过以上步骤,可以设计一个基于Hive的网站访问数据的离线数仓,实现对网站访问数据的离线分析和查询,为业务决策提供数据支持。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值