干货|关于文档书写的一些想法

本文分享了程序员撰写高质量技术文档的方法,包括文档的重要性和编写流程,从收集资料到最终排版的全过程,帮助读者提高文档质量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

点击上方“中兴开发者社区”,关注我们

每天读一篇一线开发者原创好文

▍作者简介

作者谢伟是一名开源软件爱好者,在工作中学习总结是他的习惯。本文主要针对程序员如何编写一篇合格的文档,提供一些思路,希望对大家有所启发。


写出的文档如何能更容易理解和操作?

编写一份文档,为达到容易理解和操作的程度,需要对大量的语言重新组织,内容的不同呈现,借助辅助工具等一系列操作,本文是对工作中所写文档的部分总结,以个人视角剖析文档写作的全流程,大家对文档写作有什么想法也欢迎在评论中探讨。


下面我将按照:

编写文档的准备工作-根据现有文档搭建问题-语言的组织和呈现-文档输出 

这一顺序展开叙述。


▍0. 程序员如何看待文档?

程序员在工作中会接触到各式各样的技术文档,文档写的好与不好,大致都能区分出来。

奇怪的是,一方面,许多程序员对技术、代码可以修改、修改、再修改,优化、优化、再优化,......,追求完美的天性发挥的淋漓尽致,另一方面,对于自己写的文档却可以容忍 “混乱” 、“难以理解”等......

我觉得问题在于:很多程序员对于如何有效的逻辑表达以及优秀的排版没有意识。

据我观察,许多程序员完成了一份代码的编写,对文档只会花小部分时间进行书写,会自然而然的忽略部分信息,认为把信息堆砌出去,就是一篇文档......


不不不,我认为不应该这样......


但凡伟大的公司、产品对“呈现” 这一块都绝对的重视。尽量都在简化用户的操作复杂程度,比如极度克制的微信。


▍1. 什么是好的文档?

如何定义一份文档是通俗意义上的好?

就个人的认识,可以从 GitHub 上的最热门的开源项目的文档入手。

比如个人最崇拜的世界 Python 技术排名第五的作者: kennethreitz,他的开源作品:requests,再比如:开源 web 框架 Django,这两个项目的文档堪称是教科书式文档示例。

阅读这些项目的文档,一定会有一个最直观的认识:文档写的好,根据文档能使用起来,整体文档的风格也高度的统一。

一个好的文档我认为具有下面三个特点:准确、清晰和美观

准确和清晰对应逻辑梳理和表达。 美观对应排版。


▍2. 编写文档的整体流程有哪些?

我现在的步骤是:

  • 收集

  • 梳理

  • 实践

  • 编写



2.1 收集

收集现有的资料,以及相关故障的问题记录文档(其中已知的故障问题文档很重要,这能让你明白别人问题会出现在哪)

和原文档编写者沟通(也能让你感性的认识到他口中的文档的问题)



2.2 梳理

根据收集的到的资料,感性的认识到文档的整体流程是什么,以及需要注意些什么

记录:把已知问题进行记录

梳理环节主要是关注现有文档的整体流程以及你如何可以对现有流程优化


2.3 实践

根据收集的资料和现有的文档进行操作

注意你的出错的点,以及你根据别人的提示避开的出错的点

实践环节主要是关注那些 ‘坑’,直到你成功的按照步骤得到理想的结果


2.4 编写

现在手头你已经有历史经验(收集的资料)和 实践经验(实践环节)。

进行文档的编写需要注意两个点:

  • 逻辑表达、内容组织

  • 排版


▍3.如何进行排版?

一篇文档主要包含这些内容:

标题    文本     段落     图片     表格

这里有一篇中文技术文档写作规范参考:

阮一峰:中文技术文档写作规范(点击文末阅读原文查看)


标题:

标题原则上存在六级,即一级、二级、三级、四级、五级和六级标题。但这里我推荐使用前三级标题,其余的使用列表项目进行组织。因为层级组织多了,其实并不太友好:不仅达不到分类,似逻辑清晰的目的,还容易造成读者混乱。其实是并不太友好。


文本:

参考示例中讲了很多,需特别注意三点:

1.重点强调使用加粗处理,且重点强调的不应过长。比如你强调了几百个字符,其实相当于没起到强调的作用

2.注意中英文的处理:即英文和中文强化空一格。比如:English 英语

3.慎用斜体


段落:

各段落中间使用换行处理。

一个段落不应过长,尝试拆分成几个段落。


图片:

图片的作用:即对一些文字不好描述的使用图片视觉化呈现

图片的大小:文档内的图片建议大小一致:即宽度和网页同宽度;达不到需求的建议居中处理。


表格:

我谈论一点:

表格的作用:对内容的分类和组织,能用表格表达比文字好。

其他:注意整体风格。


综上:编写文档的两个思维是:

流程化:1. 先有什么 2. 后有什么 3. 最后结果

精细化:逻辑表达、内容组织、排版

### 回答1: Spark Streaming 和 Flink 都是流处理框架,但在一些方面有所不同。 1. 数据处理模型 Spark Streaming 基于批处理模型,将流数据分成一批批进行处理。而 Flink 则是基于流处理模型,可以实时处理数据流。 2. 窗口处理 Spark Streaming 的窗口处理是基于时间的,即将一段时间内的数据作为一个窗口进行处理。而 Flink 的窗口处理可以基于时间和数据量,可以更加灵活地进行窗口处理。 3. 状态管理 Spark Streaming 的状态管理是基于 RDD 的,需要将状态存储在内存中。而 Flink 的状态管理是基于内存和磁盘的,可以更加灵活地管理状态。 4. 容错性 Flink 的容错性比 Spark Streaming 更加强大,可以在节点故障时快速恢复,而 Spark Streaming 则需要重新计算整个批次的数据。 总的来说,Flink 在流处理方面更加强大和灵活,而 Spark Streaming 则更适合批处理和数据仓库等场景。 ### 回答2: Spark Streaming 和 Flink 都是流处理框架,它们都支持低延迟的流处理和高吞吐量的批处理。但是,它们在处理数据流的方式和性能上有许多不同之处。下面是它们的详细比较: 1. 处理模型 Spark Streaming 采用离散化流处理模型(DPM),将长周期的数据流划分为离散化的小批量,每个批次的数据被存储在 RDD 中进行处理,因此 Spark Streaming 具有较好的容错性和可靠性。而 Flink 采用连续流处理模型(CPM),能够在其流处理过程中进行事件时间处理和状态管理,因此 Flink 更适合处理需要精确时间戳和状态管理的应用场景。 2. 数据延迟 Spark Streaming 在处理数据流时会有一定的延迟,主要是由于对数据进行缓存和离散化处理的原因。而 Flink 的数据延迟比 Spark Streaming 更低,因为 Flink 的数据处理和计算过程是实时进行的,不需要缓存和离散化处理。 3. 机器资源和负载均衡 Spark Streaming 采用了 Spark 的机器资源调度和负载均衡机制,它们之间具有相同的容错和资源管理特性。而 Flink 使用 Yarn 和 Mesos 等分布式计算框架进行机器资源调度和负载均衡,因此 Flink 在大规模集群上的性能表现更好。 4. 数据窗口处理 Spark Streaming 提供了滑动、翻转和窗口操作等灵活的数据窗口处理功能,可以使用户更好地控制数据处理的逻辑。而 Flink 也提供了滚动窗口和滑动窗口处理功能,但相对于 Spark Streaming 更加灵活,可以在事件时间和处理时间上进行窗口处理,并且支持增量聚合和全量聚合两种方式。 5. 集成生态系统 Spark Streaming 作为 Apache Spark 的一部分,可以充分利用 Spark 的分布式计算和批处理生态系统,并且支持许多不同类型的数据源,包括Kafka、Flume和HDFS等。而 Flink 提供了完整的流处理生态系统,包括流SQL查询、流机器学习和流图形处理等功能,能够灵活地适应不同的业务场景。 总之,Spark Streaming 和 Flink 都是出色的流处理框架,在不同的场景下都能够发挥出很好的性能。选择哪种框架取决于实际需求和业务场景。 ### 回答3: Spark Streaming和Flink都是流处理引擎,但它们的设计和实现方式有所不同。在下面的对比中,我们将比较这两种流处理引擎的主要特点和差异。 1. 处理模型 Spark Streaming采用离散流处理模型,即将数据按时间间隔分割成一批一批数据进行处理。这种方式可以使得Spark Streaming具有高吞吐量和低延迟,但也会导致数据处理的粒度比较粗,难以应对大量实时事件的高吞吐量。 相比之下,Flink采用连续流处理模型,即数据的处理是连续的、实时的。与Spark Streaming不同,Flink的流处理引擎能够应对各种不同的实时场景。Flink的实时流处理能力更强,因此在某些特定的场景下,它的性能可能比Spark Streaming更好。 2. 窗口计算 Spark Streaming内置了许多的窗口计算支持,如滑动窗口、滚动窗口,但支持的窗口计算的灵活性较低,只适合于一些简单的窗口计算。而Flink的窗口计算支持非常灵活,可以支持任意窗口大小或滑动跨度。 3. 数据库支持 在处理大数据时,存储和读取数据是非常重要的。Spark Streaming通常使用HDFS作为其数据存储底层的系统。而Flink支持许多不同的数据存储形式,包括HDFS,以及许多其他开源和商业的数据存储,如Kafka、Cassandra和Elasticsearch等。 4. 处理性能 Spark Streaming的性能比Flink慢一些,尤其是在特定的情况下,例如在处理高吞吐量的数据时,在某些情况下可能受制于分批处理的架构。Flink通过其流处理模型和不同的调度器和优化器来支持更高效的实时数据处理。 5. 生态系统 Spark有着庞大的生态系统,具有成熟的ML库、图处理库、SQL框架等等。而Flink的生态系统相对较小,但它正在不断地发展壮大。 6. 规模性 Spark Streaming适用于规模小且不太复杂的项目。而Flink可扩展性更好,适用于更大、更复杂的项目。Flink也可以处理无限制的数据流。 综上所述,Spark Streaming和Flink都是流处理引擎,它们有各自的优缺点。在选择使用哪一个流处理引擎时,需要根据实际业务场景和需求进行选择。如果你的业务场景较为复杂,需要处理海量数据并且需要比较灵活的窗口计算支持,那么Flink可能是更好的选择;如果你只需要简单的流处理和一些通用的窗口计算,Spark Streaming是更为简单的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值