自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(68)
  • 收藏
  • 关注

原创 单机版dolphinscheduler报错合集

编辑dolphinscheduler_env.sh文件,加入。

2025-04-02 11:20:09 211

原创 shell脚本实例练习(持续更新)

pass=${pass:-123456}表示pass为空时自动改为123456。$1,$2表示位置参数first和second。-z判断为不为空,exit 2表示错误退出。a表示限制0~100,b表示输入。-eq 等于 -lt小于。

2025-03-28 16:44:01 116

原创 dataX错误合集(持续更新)

这里面一样都不能少,不然登录web会有问题,127.0.0.1当前主机,3306mysql端口号,mysql的root用户,密码更不能错.解决:修改文件vi ./modules/datax-admin/conf/bootstrap.properties。

2025-03-26 09:54:01 140

原创 万字详解kafka高级(机制与原理)

Kafka集群中有一个broker会被选举为Controller,负责管理集群broker的上下线,所有topic的分区副本分配和leader选举等工作。(kafka集群一开始启动就会选举controller,先注册的成为controller,一旦这个controller掉了,就会选举新的controller,还是从注册的顺序进行选举)

2025-03-25 19:21:54 246

原创 kafka基础

重点词:发布订阅(publish,subscribe),存储(store),处理(process)

2025-03-25 12:10:41 365

原创 kafka错误集合

在加载日志期间,其中一个线程出现错误: org.apache.kafka.common.errors.CorruptRecordException:在文件/export/server/kafka/data_1/topic02-1/00000000000000000000.log中发现记录大小0小于最小记录开销(14)。解决:删掉对应的log文件即可。

2025-03-24 11:16:07 204

原创 Linux远程连接vscode

这个位置Host是主机名,hostname是主机ip地址,user是用户名。(2).输入ip地址进行连接并配置ssh文件下的config。1.获取虚拟机ip地址准备ssh连接(记得一定要NAT)2.vscode下载所需插件。具体插件工作在此不阐述。

2025-03-03 17:26:01 200

原创 移动web(修改版1)

(left、top、right、bottom、center) 像素单位数值 百分比。扩展:rotate3d(x, y, z, 角度度数) :用来设置。圆心位置取值:像素单位数值 / 百分比 / 方位名词。transform: rotateZ(值);transform: rotateX(值);transform: rotateY(值);立体呈现 – transform-style。属性名:transform-style。x,y,z 取值为0-1之间的数字。(位移、旋转、缩放、倾斜)属性:transform。

2024-11-04 20:20:25 748

原创 前端之css(三)

实现步骤: 1. 绝对定位 2. 水平、垂直边偏移为。弹性盒子的侧轴对齐方式(给弹性容器设置)弹性盒子的侧轴对齐方式(给弹性盒子设置):灵活地修改样式,例如:尺寸、颜色等。:体积小、渲染快、降低服务器请求次数。Flex 布局也叫弹性布局,是。1. 定位模式:position。的布局模型,非常适合结构化布局,场景:元素的位置在网页滚动时。默认效果:按照标签书写顺序,2. 边偏移:设置盒子的位置。的所有属性,都产生过渡效果),默认情况下,所有弹性盒子都。nowrap:不换行(默认),改变定位元素的显示顺序。

2024-11-03 20:25:27 1043

原创 前端之移动web(三)

1. 下载:Bootstrap V5中文文档 → 进入中文文档 → 下载 →。注意:浏览器不识别 Less 代码,目前阶段,网页要引入对应的 CSS 文件。Bootstrap 是由 Twitter 公司开发维护的。思考:在px单位转换到rem单位过程中,哪项工作是最麻烦的?= px 单位数值 / ( 1/100 视口高度 )px 单位数值 / ( 1/100 视口宽度 )的vw尺寸 (1/100视口宽度)的vh尺寸 (1/100视口高度)写法:在 less 文件的。解决方案:可以通过Less实现。

2024-11-02 19:04:00 922

原创 前端之移动web(二)

width=device-width:视口宽度 = 设备宽度。initial-scale=1.0:缩放1倍(不缩放)缩放调节的分辨率 → 逻辑分辨率(软件/驱动设置)属性名:transform-style。手机屏幕尺寸不同,网页宽度均为100%显示HTML网页的区域,用来约束HTML尺寸。硬件分辨率 → 物理分辨率(出厂设置)1rem = 1HTML字号大小。网页的宽度和逻辑分辨率尺寸相同。纵横向上的像素点数,单位是px。概念:设计稿里面每个元素的尺寸的。等比适配:宽高等比缩放。空间内,转换元素都有自已。

2024-11-01 20:56:13 794

原创 前端之移动web(一)

先写旋转,则后面的转换效果的轴向以旋转后的轴向为准,会影响转换结果。思考: 改变元素的width或height属性能实现吗?rotate3d(x, y, z, 角度度数) :用来设置。transform: rotateZ(值);transform: rotateX(值);transform: rotateY(值);三:平面转换 – 改变转换原点。以第一种转换方式坐标轴为准转换形态。x,y,z 取值为0-1之间的数字。通常,只为 scale() 设置。一:平面转换 – 平移。二:平面转换 – 旋转。

2024-10-31 20:39:10 1157

原创 前端之css(二)

作用:设置 内容 与 盒子边缘 之间的距离。,用来 设置伪元素的内容,如果没有内容,则。场景:父子级的标签,子级的添加。作用:设置元素的外边框为圆角。(出现在内容与盒子边缘之间)作用:拉开两个盒子之间的距离。解决方法:给行内元素添加。单独设置一个方向内边距。,无法改变元素垂直位置。属性,无法改变垂直位置。方位名词首字母,例如,四个方向 内边距相同。排列的兄弟元素,上下。行高可以改变垂直位置。提示:属性值是圆角半径。属性值写法、含义相同。

2024-10-30 20:11:39 878

原创 前端之html(二)加入css开篇(一)

男女

2024-10-29 20:03:43 792

原创 前端之html(一)

... ... ...... ... ...

2024-10-28 21:35:40 1002

原创 Sampling采样与Virtual Columns虚拟列

1.大数据体系下,在真正的企业环境中,很容易出现很大的表,比如体积达到 TB 级别.对这种表一个简单的 SELECT * 都会非常的慢,哪怕 LIMIT 10 想要看 10 条数据,也会走 MapReduce 流程。num(K|M|G) 表示抽取 num 大小的数据,单位可以是 K 、 M 、 G 表示 KB 、 MB 、 GB。虚拟列是 Hive 内置的可以在查询语句中使用的特殊标记,可以查询数据本身的详细参数。虚拟列的作用:更精准的查看到具体每一条数据在存储上的详细参数细节。

2024-10-27 19:54:53 790 1

原创 正则表达式

总结:UNION 关键字的作用:将多个 SELECT 的结果集合并成一个, 多个 SELECT 的结果集需要架构一致,否则无法合并,自带去重效果,如果无需去重,需要使用 UNION ALL。SELECT * FROM orders WHERE useraddress RLIKE '.*广东.*';1.正则表达式是一种规则集合,通过特定的规则字符描述,来判断字符串是否符合规则。UNION 用于将多个 SELECT 语句的结果组合成单个结果集。查找手机号符合: 188****0*** 规则。

2024-10-27 19:33:27 574

原创 hive查询语句

方式1:select * from w_1026.orders where (SELECT max(totalmoney) FROM w_1026.orders where useraddress like '%广东省%');orderStatus tinyint COMMENT ' 订单状态 -3: 用户拒收 -2: 未付款的订单 -1 :用户取消 0: 待发货 1: 配送中 2: 用户确认收货 ',isPay tinyint COMMENT ' 是否支付 0: 未支付 1: 已支付 ',

2024-10-26 21:27:13 941

原创 复杂类型map与struct

导入数据:load data local inpath '/home/wtk/data_for_struct_type.txt' into table test_struct;数据导入:load data local inpath '/home/wtk/data_for_map_type.txt' into table test_map;# 查询全部 map 的 key ,使用 map_keys 函数,结果是 array 类型。查询:select * from test_map;

2024-10-26 20:36:00 400

原创 hive修改表操作与array类型

导入数据:load data local inpath '/home/wtk/data_for_array_type.txt' into table test_array;如: ALTER TABLE table_name SET TBLPROPERTIES ('comment' = new_comment);删除分区:ALTER TABLE tablename DROP PARTITION (month='201105');-- 查询 location 数组中元素的个数。

2024-10-26 19:23:22 884

原创 分区表与分桶表

在 hive 当中也是支持这种思想的,就是我们可以把大的数据,按照每天,或者每小时进行切分成一个个的小的文件,这样去操作小的文件就会容易。前言:在大数据中,最常用的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个小的文件就会很容易。桶表的数据加载,由于桶表的数据加载通过 load data 无法执行,只能通过 insert select.但和分区不同,分区是将表拆分到不同的子文件夹中进行存储,而分桶是将表拆分到固定数量的不同文件中进行存储。查看:hdfs,发现目前是空的。

2024-10-25 21:17:28 568

原创 数据导入导出

命令:load data local inpath '/home/wtk/search_log.txt' into table test_load;操作:insert into myhive.test_load1 (select * from test_load);注意,基于 HDFS 进行 load 加载数据,源数据文件会消失(本质是被移动到表所在的目录中)注意事项:使用 LOAD 语句:• 数据来源本地,本地数据文件会保留,本质是本地文件上传到表里。数据加载 - INSERT SELECT 语法。

2024-10-24 21:04:04 873

原创 hive数据库,表操作

内部表又称管理表 , 内部表数据存储的位置由hive.metastore.warehouse.dir 参数决定(默认: /user/hive/warehouse ),删除内部表会直接删除元数据( metadata )及存储数据,因此内部表不适合和其他工具共享数据。被 external 关键字修饰的即是外部表, 即关联表。数据存储的不同也代表了这个表在理念是并不是Hive 内部管理的,而是可以随意临时链接到外部数据上的。所以,在删除外部表的时候, 仅仅是删除元数据(表的信息),不会删除数据本身。

2024-10-23 21:30:04 1033

原创 hiveserver与beeline

Beeline 是 JDBC 的客户端,通过 JDBC 协议和 Hiveserver2 服务进行通信,协议的地址是: jdbc:hive2://node1:10000。在启动 Hive的时候,除了必备的 Metastore服务外,bin/hive --service hiveserver2可以启动hive。在 hive 安装的服务器上,首先启动 metastore 服务,然后启动 hiveserver2 服务。bin/hive --service metastore ,启动的是元数据管理服务。

2024-10-22 21:30:24 416

原创 hive初体验

二:插入数据:INSERT INTO test VALUES(1,'王力红','男'),(2,'周杰轮','男' ),(3,'林志灵','女');一:创建表:CREATE TABLE test(id INT, name STRING, gender STRING);注意:Hive 的数据存储在 HDFS 的: /user/hive/warehouse 中。打开 YARN 的 WEB UI 页面查看任务情况: http://node1:8088。1.首先,确保启动了Metastore服务。

2024-10-22 21:23:15 289

原创 大数据之hive(分布式SQL计算工具)加安装部署

解压:命令: tar -zxvf /export/server/apache-hive-4.0.1-bin.tar.gz -C /export/server/设置软连接:ln -s /export/server/apache-hive-4.0.1-bin /export/server/hive。:SQL解析器:功能: SQL分析,SQL到MapReduce程序的转换,提交MapReduce程序运行并收集执行结果.命令: mv hive-env.sh.template hive-env.sh。

2024-10-21 21:35:54 2845

原创 hadoop的MapReduce提交任务到yarn实操

一:命令: hadoop jar /export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.4.0.jar pi 3 1000。三:向hdfs文件系统提交要计算的文件: hadoop fs -put ./word.txt /input/一:创建文件夹供放入要计算的文件 hadoop fs -mkdir -p /input。二:创建计算结果输出的文件夹 hadoop fs -mkdir -p /output。

2024-10-20 20:16:32 451

原创 hadoop的yarn

服务器运行程序,运行程序所需的资源预先通知给resourcemanager,由resourcemanager通知给nodemanager进行调度,而nodemanager这边先搭建一个container(容器),把程序所需资源先占用放入container,再供给程序使用.程序向YARN申请所需资源, YARN为程序分配所需资源供程序使用,明显的担起了资源调度的职责。: 单个服务器的资源调度者,负责调度单个服务器上的资源提供给应用程序使用。一:/etc/hadoop/yarn-env.sh。

2024-10-20 19:33:14 1025

原创 hadoop的MapReduce

二:中心调度模式: 1. 由一个节点作为中心调度管理者 2. 将任务划分为几个具体步骤 3. 管理者安排每个机器执行任务 4. 最终得到结果数据。一:分散-汇总模式:数据分片,多个服务器负责各个部分数据处理,最后结果汇总。也就是一系列, 基于数据得出的结论。这些就是我们所说的计算。3.MapReduce(hadoop的计算组件)(hive的底层工具)二:编程接口:map(分散)与reduce(汇总)1.什么是计算(广义): 内容分析, 得到需要的结果。一:利用的是分散-汇总模式。

2024-10-19 21:17:10 333

原创 hdfs的分布式存储原理

namenode运行客户所操作的命令后,生成edits文件,操作的文件或文件夹放入namenode与datanode,而namenode的fsimage文件由secondarynamenode把namenode的edits文件拿过来进行合并,再返回到namenode里.将文件划分后,一个block丢失则原来的大文件没有用了.为了确保文件的安全性,hdfs提供了副本,也就是备份,将文件划分之后hdfs默认将每一个block。方式一:文件是hdfs.site.xml,默认是三个副本,基本无需修改。

2024-10-19 20:54:42 2316

原创 hdfs的客户端(big data tools插件)

4.在jetbrains公司的软件里下载big data tools插件:(在此展示的idea的)2.下载hadoop.dll文件和winutil.exe文件(网上自行查找)1.下载hadoop的压缩包在Windows,后解压。$HADOOP_HOME指向hadoop的文件夹。这时就big data tools客户端搭建完成。下载完把这两个文件放入hadoop的bin目录。方式二:URL:主机名:8020/选择big data tools。测试connected,OK了。

2024-10-18 15:57:12 486 2

原创 hdfs集群的shell操作

上传文件:hdfs dfs -put [-f] [-p] 下载:hdfs dfs -get [-f] [-p] ... 所属用户,用户组:hdfs dfs -chown [-R] 所属用户:所属用户组 文件路径。复制:hdfs dfs -cp [-f] ... 追加: hdfs dfs -appendToFile 移动:hdfs dfs -mv

2024-10-17 20:46:06 1084

原创 大数据之hadoop(hdfs部分)

4.hdfs:(全称:hadoop distributed file system):也就是Hadoop分布式文件系统,是一个Hadoop的中间组件.主要解决海量数据的存储工作。主角色:namenode(管理hdfs整个文件系统,管理database),带着一个secondarynode(辅助)3.主从模式(master-slaves):(中心化模式):一台master管理多台slaves工作。一.去中心化模式: 没有明确的中心点,协调工作 eg:kafka。命令: start-dfs.sh。

2024-10-15 21:33:15 1044

原创 Linux的Spark 环境部署

4.创建软连接 命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark。命令 scp -r /export/server/spark-3.5.3-bin-hadoop3 wtk1:/export/server/命令: ln -s /export/server/spark-3.5.3-bin-hadoop3 /export/server/spark。这就是spark的安装部署了。此时显示应用程序完成。

2024-10-14 19:54:51 1164 1

原创 Linux的HBASE数据库集群部署

命令: tar -zxvf /export/server/hbase-2.5.10-bin.tar.gz -C /export/server/ln -s /export/server/hbase-2.5.10 /export/server/hbase。命令: ln -s /export/server/hbase-2.5.10 /export/server/hbase。命令: cd /export/server/hbase-2.5.10/conf。命令: cd /export/server。

2024-10-14 19:05:55 1239

原创 Linux的hadoop集群部署

命令: wget https://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.4.0/hadoop-3.4.0.tar.gz。五:修改配置文件hadoop-env.sh 命令: vi /export/server/hadoop-3.4.0/etc/hadoop/hadoop-env.sh。命令: ln -s /export/server/hadoop-3.4.0 /export/server/hadoop。

2024-10-12 21:42:12 1352

原创 Linux的kafka安装部署

5.复制文件到其他节点 命令: scp -r /export/server/kafka_2.12-3.8.0 wtk1:`pwd`/创建软连接 命令: ln -s /export/server/kafka_2.12-3.8.0 /export/server/kafka。命令: ln -s /export/server/kafka_2.12-3.8.0 /export/server/kafka。命令: cd /export/server/kafka_2.12-3.8.0/config。

2024-10-11 21:31:04 543

原创 Linux的zookeeper安装部署

命令(与第一个节点的软连接一样): ln -s /export/server/apache-zookeeper-3.5.9 /export//server/zookeeper。命令(我采用绝对路径): /export/server/apache-zookeeper-3.5.9-bin/bin/zkServer.sh start。命令: ln -s /export/server/apache-zookeeper-3.5.9 /export//server/zookeeper。

2024-10-11 20:35:57 1448

原创 Linux集群化软件安装,前置

一:在每台机子都执行 ssh-keygen -t rsa -b 4096 然后一路回车,直到退出(root权限执行)vim /etc/sysconfig/network-scripts/ifcfg-ens33 进入这个文件,操作请看我的文章。二:每台机子都执行(作用:让每台机子共享密码,切换就不再需要密码)8.关闭安全模块SELinux,防止后续出错(每台机子都执行)编辑文件: vi /etc/sysconfig/selinux。命令: vim /etc/hosts。2.配置各个主机IP地址。

2024-10-10 20:55:05 443

原创 Linux的ElasticSearch(简称es)安装部署

命令:rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch。(编辑文件):命令: vi /etc/yum.repos.d/elasticsearch.repo。一:命令:vim /etc/elasticsearch/elasticsearch.yml 编辑这个文件。命令:yum install -y elasticsearch。#74行,配置集群master节点。# 23行,设置节点名称。#17行,设置集群名称。

2024-10-10 19:19:14 548

Zookeeper.doc

Zookeeper.doc

2025-03-19

大数据技术之Flume.docx

大数据技术之Flume.docx

2025-03-19

大数据技术中Hadoop分布式文件系统(HDFS)的应用与解析

内容概要:本文档主要探讨了大数据处理中关键组件之一——Hadoop分布式文件系统 (HDFS),涵盖了HDFS架构、数据存储机制、冗余与容错处理方式,以及其实现高性能读写的策略。此外还介绍了相关配置优化技巧,确保系统能稳定运行并高效管理大规模数据集,为用户提供详细的技术解读和支持。 适合人群:熟悉Linux环境并对分布式计算感兴趣的数据分析师和技术爱好者;有一定开发经验且计划引入或者正在实施基于Hadoop的大数据分析项目的专业人士。 使用场景及目标:用于深入理解Hadoop平台下高效可靠的数据存储解决方案,帮助开发者更好地构建和维护企业级分布式应用系统。同时也适合作为高校科研机构的教学资料,在实际操作过程中引导学生掌握大数据处理的相关技能。 阅读建议:本资源重在介绍HDFS的基础理论和最佳实践经验,请先浏览目录明确章节关系再仔细研读各个部分的内容要点。对于复杂知识点可以多加复习并结合在线文档辅助理解。

2025-03-09

大数据领域Linux-Shell编程核心技术与应用实例解析

内容概要:本文详细讲解了 Linux Shell 编程的基础知识及其在大数据领域的运用,包括常用命令的语法与功能详解、变量定义规则以及分类、环境设置方法。涵盖了条件语句、循环语句等流控指令的多种使用方式。同时介绍了read命令的控制台输入操作以及各种自定义、内置Shell函数的应用实例。不仅有简单的echo命令介绍,还有对于更复杂的Shell编程元素——像算术运算符号和高级特性(如将多个命令封装进自定义函数)——做了深入阐述。 适合人群:有一定计算机基础、特别是有意向进入或者刚刚从事大数据相关工作的初学者。 使用场景及目标:帮助用户掌握Linux环境下编写高效的Shell脚本来完成日常任务管理、批量数据处理等工作,从而提高工作效率并优化资源配置。能够灵活运用各类Linux Shell特性和技巧来简化复杂任务流程的设计实施。 阅读建议:本文档适用于那些希望加深对Linux命令行环境的理解的人士,尤其是那些正在探索自动化任务或数据分析项目的人士,在实践中不断练习和尝试文档提供的代码样例以巩固所学知识。

2025-03-08

大数据技术之Hadoop架构详解与应用实例解析

内容概要:本文主要讲解了大数据技术领域中关于 Hadoop 架构的知识点和应用场景。文章首先介绍了 Hadoop 技术栈的基本组件(如 HDFS 和 MapReduce),并逐步展开其底层机制以及各组成部分的功能特性。然后通过实际案例深入探讨了HBase, Hive, Pig等工具在Hadoop平台上的具体使用方法,最后还对 YARN 资源管理器进行了详述,帮助读者掌握集群计算资源的有效分配策略和技术要点。 适合人群:具备基本数据存储和处理理论基础的学习爱好者或是有一定经验的数据工程师。 使用场景及目标:通过系统化地介绍 Hadoop 架构及其相关子项目的工作流程与配置指南,使读者能够理解并实施大规模分布式数据分析项目。 阅读建议:本资源旨在为初学者提供详细的Hadoop入门教程,不仅有概念性的阐述还有实战操作示范,读者可以结合动手实验来巩固理论知识。

2025-03-05

Yarn工作机制.pptx

yarn工作原理剖解

2025-03-04

大数据处理环境中的Linux基础配置与优化指南

内容概要:本文档详细介绍了如何在大数据处理环境中高效地配置和优化Linux系统。内容涵盖安装基础组件如Apache Hadoop和其他必要的软件工具,优化Linux系统性能的方法(包括内存管理、网络参数调优),并通过多个案例分析展示了不同的优化手段对具体应用的效果评估。同时探讨了针对特定业务场景所面临的挑战以及对应的解决方案。 适用人群:适用于希望提升自身Linux服务器操作水平的数据科学家、运维工程师以及相关领域的初学者或者有一定基础的工程师。 使用场景及目标: ①掌握大数据项目启动初期如何构建可靠的Linux集群环境; ②为后续数据挖掘任务创造更加稳定高效的运行平台; ③解决生产实践中因资源配置不当而导致的各种问题。 其他说明:文档中还包括了大量实际工作中遇到的问题解答和技术交流经验分享,帮助读者更好地应对日常工作中的难点痛点。对于想要深入了解企业级大数据架构建设和部署流程的人来说也是非常有帮助的学习资料之一。

2025-03-01

前端开发中Web APIs的基本使用与深入理解

内容概要:本文详细介绍了 Web APIs 的基本概念及其主要分类,包括 DOM 和 BOM。特别讲解了 DOM 的核心思想,如何通过 JS 操作 HTML 文档的各种方法,如元素查找、内容修改、属性操作、样式设置、表单属性控制及自定义属性使用。此外还涉及到了定时器、事件监听和回调函数等内容。 适合人群:具备一定前端开发基础的开发者。 使用场景及目标:掌握如何使用 JavaScript 实现对网页内容的操作,适用于 Web 开发中的各种动态交互设计。如动态加载内容、改变样式、响应用户操作等场景。 阅读建议:边读边动手尝试文中提到的方法,最好结合具体项目练习,以便更好地理解和运用所学知识。

2024-11-13

JavaScript基础详细.7z

JavaScript是一种高级的、解释执行的编程语言,主要用于Web开发。以下是对JavaScript基础知识的详细描述: JavaScript概述 定义:JavaScript是一种基于对象和事件驱动并具有安全性能的脚本语言。 用途:JavaScript主要用于增强用户与Web站点和Web应用程序之间的交互。 特点:JavaScript是弱类型语言,没有类型声明,变量不必具有明确的类型。 兼容性:JavaScript可以广泛用于服务器、PC、笔记本电脑、平板电脑和智能手机等设备。 JavaScript组成 DOM(Document Object Model):提供操作页面中元素的属性和方法。 BOM(Browser Object Model):提供操作浏览器的属性和方法,如弹出框、获取分辨率等。 JavaScript引入方式 内嵌式:直接在HTML标签中使用JavaScript代码。 嵌入式:将JavaScript代码写在<scr

2024-11-12

Web前端JavaScript编程基础入门详解

内容概要:本文档详细介绍了JavaScript编程的基础概念和常用技术,涵盖了JavaScript语言的基础语法、变量使用、数据类型(包括布尔型、数字型、字符串型等)、运算符、控制结构(如条件语句if、循环语句for)以及数组和对象的应用等知识点。此外,还涉及了一些具体的编程案例,帮助读者加深理解和实践。 适合人群:适合前端开发初学者及具有一定HTML和CSS基础知识的技术爱好者,尤其是希望通过学习JavaScript提升网站交互性能的学生或从业者。 使用场景及目标:本指南旨在帮助读者快速掌握JavaScript的基本技能,从而能够在实际项目中实现动态效果,增强用户体验。无论是创建简单的效果还是复杂的应用,文档提供的知识都能奠定坚实的基础。 阅读建议:建议从基础概念开始逐步深入,每个章节结束后动手实践相应的实例或练习题目,巩固所学内容。对于难以理解的部分,可以通过网络查找更多资料或参加线上论坛讨论来辅助学习。

2024-11-12

前端开发中Vue.js模板与指令详解及应用场景

内容概要:本文详细介绍了 Vue.js 中模板与指令的概念及其在实际项目中的应用,包括文本插值、各种常用指令如v-on(注册事件)、v-show(控制元素显示隐藏)、v-if/v-else(条件渲染)、v-bind(动态属性绑定)以及v-for(循环渲染列表)等的使用方法。每个指令的功能介绍配合相应的语法和注意事项,帮助读者快速掌握Vue.js的基础知识与核心技巧。 适用人群:初学者、初级开发者、有一定HTML/CSS/JavaScript基础的技术爱好者。 使用场景及目标:本文适合希望通过实战案例深入理解并运用Vue.js的开发者们,特别关注如何利用Vue.js提供的强大指令体系优化Web界面交互体验和提升代码复用率。具体目标涵盖学习并实践常见DOM操作的最佳实践、增强对虚拟DOM概念的理解及熟练运用Vue.js构建复杂响应式应用程序的能力。 其他说明:随着前端技术的快速发展,掌握主流框架之一的Vue.js已经成为现代网页开发不可或缺的一项技能。通过本教程的学习,读者不仅能够熟悉各个指令的具体使用方式,还能了解到更多关于框架设计理念的知识,有助于未来更灵活地应对多样化的项目挑战。

2024-11-07

web前端设计与开发(详细整理)(包含html讲解,css讲解,移动web讲解)

web前端设计与开发(详细整理)(包含html讲解,css讲解,移动web讲解),合适学习前端的人员进行基础学习,一秒变高手

2024-11-04

移动Web开发中的CSS变换与动画技术详解

内容概要:本文介绍了CSS中移动Web平面变换和平面转换的概念及其常见属性,详细解释了translate、rotate、scale以及skew的基本用法及取值规则。此外,还包括了如何利用变换函数来创建居中布局以及如何调整元素转换的原点,进一步讲解了线性和径向渐变的实现方法,探讨了在三维空间下的转化,如translate3d、rotateX/Y/Z等函数的应用,最后阐述了CSS3中的动画概念,区分了过度效果与动画的不同之处,并提供了一些常见的动画实现方式。 适合人群:前端开发者,尤其是对移动Web开发和平面、3D变换感兴趣的初级到中级水平的技术人员。 使用场景及目标:①掌握如何使用CSS实现各种视觉特效,提升用户体验;②了解并实践不同类型的渐变效果制作;③能够灵活运用多种3D变形技术创造具有深度感的UI界面;④学会创建复杂的动画序列,增强网站互动性。 其他说明:文中提供了许多具体的操作实例和技术细节,建议读者配合实际项目练习相关技能,在实践中加深理解和记忆。

2024-11-04

dbeaver-ce-22.3.3-x86-64-setup.exe

dbeaver-ce-22.3.3-x86_64-setup.exe(dbeaver安装包)

2024-11-03

前端开发:全面解析CSS基础知识及其应用

内容概要:本文详细介绍了 CSS (Cascading Style Sheets) 的基本概念、定义以及其在 HTML 文档中的使用方法。涵盖了各种选择器(如标签选择器、类选择器、ID选择器、通配符选择器、伪类选择器、伪元素选择器)、文字样式控制、盒模型、背景图像设置、定位机制、 Flex 布局及过渡效果等内容,帮助开发者理解和掌握 CSS 的核心技术和应用场景。 适合人群:适用于初学者和希望巩固基础的前端开发人员。 使用场景及目标:使读者能够熟练运用 CSS 进行 Web 页面的设计和美化,提升用户体验。 其他说明:文中提供了大量实例和代码示例,有助于理论联系实际操作。同时,强调了 CSS 的继承性和层叠性的理解。

2024-11-03

HTML基础知识详解与应用

内容概要:本文档主要介绍了HTML基本概念及其各种常用标签的详细解释和用法,如标题、段落、图像、链接、音频、视频、列表、表格、表单等标签的使用方式及特性,同时讲解了表格中的跨行和跨列操作以及表单的多种输入类型。 适用人群:面向所有希望入门或提升HTML知识水平的技术人员。 使用场景及目标:适用于初次接触Web前端开发的学习者,帮助理解和掌握构建网站的基本元素和技术;对于有一定经验的开发者也有助于巩固基础知识。 其他说明:学习时建议配合实际项目练习,以加深理解并在实践中熟练运用所学内容。

2024-11-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除