
文章整理
文章平均质量分 67
佳兰小筑
这个作者很懒,什么都没留下…
展开
-
如何把事做成(整理)
如何把事做成https://mp.weixin.qq.com/s/KMJTlYsuI8EiJemdjFrAuw靠谱不是不拒绝,说到做到。靠谱其实是量力而行,做自己有把握的事,即使没有在预期的时间内做完,也要积极反馈。所谓「凡事有交代,件件有着落,事事有回音」。答应别人的事,一定要积极的反馈,频率可以是每天,每两天都可以,切记不要耗着,沉默着,等有结果了再反馈,也不要攒一个惊喜给老板。因为这样的惊喜往往是惊吓,因为每一次反馈和沟通都是对焦的过程,可以保证整个事情不会变形,符合起初的预期。上面的例子,原创 2021-07-14 20:23:58 · 181 阅读 · 0 评论 -
20210714 文章整理
通过567饱腹法来饮食控制,开始戒糖https://mp.weixin.qq.com/s/wOmPjpCw70R1I3-d4Z_abQ5分非淀粉类的蔬菜, 6分蛋白质(肉类,大豆制品,蛋类,乳制品),7分主食(含谷薯)。合理的买菜顺序选购符合身体真正需求的食物,优先规划营养密度最高的那部分。第一梯队是深色的蔬菜和水果,这些是身体营养素的集中来源,浅色的蔬果不是不能选,但不是优先选的对象。接着是第二梯队,我们该着力于优质蛋白质(如豆制品,海鲜或鱼类,蛋类),然后才是红肉类。第三梯队,我们该考.原创 2021-07-14 20:19:16 · 371 阅读 · 0 评论 -
文章整理 - 接了个破烂的数据仓库,我该如何自救?
https://dbaplus.cn/news-73-3855-1.html在接手不成熟的数仓时,需要梳理存在的一些问题,而这些问题一般情况下都大同小异,常见的一些问题主要包括:数仓分层不清晰数据域划分不明确模型设计不合理代码不规范命名不统一通用分层设计思路DWD:数据仓库明细层数据(Data Warehouse Detail)。对ODS层数据进行清洗转化,以业务过程作为建模驱动,基于每个具体的业务过程特点,构建最细粒度的明细事实表。可以结合企业的数据使用特点,基于维度建模思想,将.原创 2021-06-06 15:46:22 · 179 阅读 · 0 评论 -
文章整理 - Autovacuum Tuning Basics
https://www.2ndquadrant.com/en/blog/autovacuum-tuning-basics/最主要的手段还是修改 scale_factor 以及根据硬件配置修改 cost_limit 。单独修改 autovacuum_max_workers 只会回收的更慢。Cleanup of dead tuples is not the only task of autovacuum. It’s also responsible for updating data distr.原创 2021-06-06 15:32:28 · 167 阅读 · 0 评论 -
文章整理 - 资深技术Leader曹乐:如何成为技术大牛?
https://mp.weixin.qq.com/s/QaBTm_9AJC01Isr3LLR3aw正确的学习方法:快速梳理该领域的知识点,形成框架体系(寻找pattern)。针对每个知识点,找书里的相关章节,该领域相关paper里的相关section深入学习,建立起自己对这个知识点的理解(刻意练习)。再把知识点和现实工作中的情况(自己工作,或其他公司相关的工作)进行对照(及时反馈),从而建立对一个知识点的深度理解,最后融会贯通建立对一个领域的理解。对于每一个软件工程师,最重要的两个能力.原创 2021-06-06 15:12:21 · 334 阅读 · 2 评论 -
文章整理 - 当指标下跌,该如何进行分析?【珍藏版】
当指标下跌,该如何进行分析?【珍藏版】https://mp.weixin.qq.com/s/MTD31M07qA69pmOevEBPfA数据分析在解析原因上,更大的作用是定位问题而不是解答问题。想要解答问题背后的业务逻辑,市场调查要有用得多。解读指标才是数据分析师的看家本事,而这些年过度迷信技术,沉迷可视化,沉迷阿尔法大狗子,搞得新入行的数据分析师们的看家本事的水平越来越差。常规指标下跌怎么看:看数据错了没有确定下跌程度看下跌频率下跌前后是否有什么时间下跌是否聚焦到某些区域,群体.原创 2021-05-30 16:02:34 · 180 阅读 · 0 评论 -
网易有数海量任务调度和智能运维实践(整理)
网易有数海量任务调度和智能运维实践https://mp.weixin.qq.com/s/LJIS7xeHsiTpf12os3DtNw根据依赖关系,智能推算出每个具体实例的完成时间。实现:任务运维中心最核心的一个逻辑就是:根据依赖关系,智能推算出每个具体实例的完成时间。在推算前,需要先将跨流依赖打平,打平的主要目的是为了方便后面的推算。打平的逻辑也比较简单,就是将工作流依赖节点打平为节点依赖节点。如图所示,下游任务1依赖上游任务的c节点,经过打平后变成了下游任务1的a、b节点依赖上游任务的c节点.原创 2021-05-30 15:27:18 · 499 阅读 · 0 评论 -
20210314 “打工”不是一切——与五位学者对谈互联网加班文化及其他(文章整理)
“打工”不是一切——与五位学者对谈互联网加班文化及其他https://mp.weixin.qq.com/s/4kN65Eu_mYKmC-GLig082g996 反应出的管理问题:往更高水平的管理走,对公司的挑战是很高的,但是要倒退到低水平管理却比较容易。公司管理的进步相对来说比较难,因为权力太好用了。通过加大劳动强度来保证竞争力,而不是在更聪明的工作方式和工作流程上进行改进。总结一下,就是 996 目前是成本较低的一种管理方式,就像日本喜欢加班一样。靠现行《劳动法》,监管部门可以约束 996原创 2021-03-14 15:59:24 · 221 阅读 · 1 评论 -
有赞数据治理之提质降本(整理)
有赞数据治理之提质降本https://mp.weixin.qq.com/s/B6VWtTZT8XI3AiYx6PxLtA内容质量校验预定义校验:包括数据量的波动、文件还有组件唯一性的校验等等。自定义校验:比如说非空校验、数值范围校验、还支持自定义SQL校验。质量校验的结果正常的话,下游任务就可以正常进行;如果是可接受的异常,这时候会触发邮件和企业微信的报警;如果是不可接受的异常,结果数据是有问题的,则阻断下游的任务执行以避免数据资源的浪费,同时触发电话报警,通知相关人去处理。原创 2021-03-07 16:59:43 · 362 阅读 · 0 评论 -
20210307 阅读整理
文章目录Fuzzy Name Matching in Postgreshttps://blog.crunchydata.com/blog/fuzzy-name-matching-in-postgresql- Remember text_pattern_ops for indexed prefix filtering.- Use lower() and functional indexes for case-insensitive queries.- Combine indexes on soun原创 2021-03-07 16:44:17 · 120 阅读 · 1 评论 -
AIOps在美团的探索与实践——故障发现篇(整理)
原文地址https://tech.meituan.com/2020/10/15/mt-aiops-horae.html整理:故障大致可分为 3 类:周期型,平稳型,无规律型。对于时序数据来说,最合适的算法可能是 CNN 。异常数据的特征大致包括:- 周同比- 日环比- 波动比- 移动平均- 水平方向孤立森林特征- 垂直方向孤立森林特征- 余弦相关- 标准差- 熵- 斜率将AI和运维很好地结合起来,这个过程需要三方面的知识:1. 行业、业务领域知识,跟业务特点相关的知.原创 2021-02-28 17:45:15 · 615 阅读 · 0 评论 -
20210131 写给一线分析师的几点总结(文章整理)
写给一线分析师的几点总结https://zhuanlan.zhihu.com/p/149400859重点回顾好的分析就是一个「数据比较 -> 洞见 -> 业务优化」的过程。无论是哪种场景,「比较」都要具象化到实际业务场景才能提出可落地的业务洞见,而具象化的分析依赖一个关键工具:画像体系与业务指标体系。这个体系对业务的还原度越高,分析质量也越高,因此分析师团队要不断去「养」自己业务的画像指标体系。最直接「养」画像与指标体系的机制就是不断去用,每次应用所发现的问题持续小步迭代解决。在对接原创 2021-01-31 14:46:43 · 352 阅读 · 0 评论