- 博客(9)
- 收藏
- 关注
原创 揭秘Node.js性能调优——让你的应用飞起来
然而,如何让Node.js应用在高速运行的同时,还能保持良好的性能,是许多开发者关心的问题。掌握本文提到的调优策略,结合实际应用场景,不断实践与总结,相信你能够让Node.js应用在高速运行的同时,保持良好的性能。(1)调整Node.js进程的内存限制:通过设置环境变量--max-old-space-size和--max-semi-space-size,调整V8引擎的内存限制。非阻塞I/O:Node.js的I/O操作采用非阻塞方式,避免了因I/O等待导致线程阻塞,提高了资源利用率。
2024-12-25 16:37:45
207
原创 探索前端性能优化之路——从浏览器渲染原理到实践
掌握浏览器渲染原理,运用本文提到的优化方法,相信你能够打造出高性能的网页,为用户提供更好的体验。摘要:本文将带你了解浏览器渲染原理,并从多个角度探讨前端性能优化的方法,帮助你在项目中实现更快的页面加载速度和更流畅的用户体验。(2)图片优化:使用图片压缩工具减小图片体积,使用WebP等现代图片格式,合理使用雪碧图、图标字体等。(3)懒加载:对于非首屏内容,可以使用懒加载技术,按需加载资源,减少首屏加载时间。(3)服务端渲染(SSR):将部分渲染工作放在服务器端完成,减少浏览器渲染负担。
2024-12-25 16:35:33
335
转载 【王道】计算机网络 知识点总结(合集)【超详细!】
计算机网络概念——互连的、自治的计算机系统的集合广义观点:能实现远程信息处理的系统或能进一步达到资源共享的系统。资源共享观点:以能够相互共享资源的方式互连起来的自治计算机系统的集合。目的:资源共享;组成:多台自治计算机;规则:网络协议用户透明性观点:整个网络就像一个大的计算机系统一样对用户是透明的。计算机网络的组成组成部分硬件、软件、协议。 工作方式:边缘部分(用户主机)、核心部分(路由器、网络) 功能组成:通信子网(物理层、数据链路层、网络层)、资源子网(会话层、表示层、应用层)
2024-12-25 16:30:06
213
原创 利用pyecharts绘制主题河流图
本文将根据一个文件夹(包括一段时间人民日报的发文以txt格式保存),提取以’党', '发展', '中国', '我们', '人民'五个为主题的随时间变化的词频的变化,用主题河流图直观的展现。
2023-12-20 11:49:15
1560
2
原创 使用python读取多个文件夹中的文本文档并根据词频绘制词云图(以txt为例,附代码)
本文主要介绍如何从多个文件夹中读取txt文件,将所有的txt文档合并为txts,然后利用jieba分词,并统计txts中各个词语出现的词频,选取出现最多的十个词语绘制词云图。
2023-12-13 11:20:08
932
1
原创 BERT(附模型构建代码)
BERT模型的全称是:BidirectionalEncoder从名字中可以看出,BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即:文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。煮个栗子,BERT模型训练文本语义表示的过程就好比我们在高中阶段学习语数英、物化生等各门基础学科,夯实基础知识;
2023-12-12 19:18:22
2408
原创 Transformer
Transformer模型是Google团队在2017年6月由Ashish Vaswani等人在论文《Attention Is All You Need》所提出,当前它已经成为NLP领域中的首选模型。Transformer抛弃了RNN的顺序结构,采用了Self-Attention机制,使得模型可以并行化训练,而且能够充分利用训练资料的全局信息,加入Transformer的Seq2seq模型在NLP的各个任务上都有了显著的提升。
2023-12-03 10:08:51
530
1
原创 Attention
本周学习了Attention训练模型,目前大部分attention模型都是依附于Encoder-Decoder框架进行实现,在NLP中Encoder-Decoder框架主要被用来处理序列-序列问题。也就是输入一个序列,生成一个序列的问题。这两个序列可以分别是任意长度。具体到NLP中的任务比如:文本摘要,输入一篇文章(序列数据),生成文章的摘要(序列数据)文本翻译,输入一句或一篇英文(序列数据),生成翻译后的中文(序列数据)
2023-11-23 10:26:32
51
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人