自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 揭秘Node.js性能调优——让你的应用飞起来

然而,如何让Node.js应用在高速运行的同时,还能保持良好的性能,是许多开发者关心的问题。掌握本文提到的调优策略,结合实际应用场景,不断实践与总结,相信你能够让Node.js应用在高速运行的同时,保持良好的性能。(1)调整Node.js进程的内存限制:通过设置环境变量--max-old-space-size和--max-semi-space-size,调整V8引擎的内存限制。非阻塞I/O:Node.js的I/O操作采用非阻塞方式,避免了因I/O等待导致线程阻塞,提高了资源利用率。

2024-12-25 16:37:45 207

原创 探索前端性能优化之路——从浏览器渲染原理到实践

掌握浏览器渲染原理,运用本文提到的优化方法,相信你能够打造出高性能的网页,为用户提供更好的体验。摘要:本文将带你了解浏览器渲染原理,并从多个角度探讨前端性能优化的方法,帮助你在项目中实现更快的页面加载速度和更流畅的用户体验。(2)图片优化:使用图片压缩工具减小图片体积,使用WebP等现代图片格式,合理使用雪碧图、图标字体等。(3)懒加载:对于非首屏内容,可以使用懒加载技术,按需加载资源,减少首屏加载时间。(3)服务端渲染(SSR):将部分渲染工作放在服务器端完成,减少浏览器渲染负担。

2024-12-25 16:35:33 335

转载 【王道】计算机网络 知识点总结(合集)【超详细!】

计算机网络概念——互连的、自治的计算机系统的集合​广义观点:能实现远程信息处理的系统或能进一步达到资源共享的系统。​资源共享观点:以能够相互共享资源的方式互连起来的自治计算机系统的集合。目的:资源共享;组成:多台自治计算机;规则:网络协议​用户透明性观点:整个网络就像一个大的计算机系统一样对用户是透明的。计算机网络的组成​组成部分硬件、软件、协议。​ 工作方式:边缘部分(用户主机)、核心部分(路由器、网络)​ 功能组成:通信子网(物理层、数据链路层、网络层)、资源子网(会话层、表示层、应用层)

2024-12-25 16:30:06 213

原创 利用pyecharts绘制主题河流图

本文将根据一个文件夹(包括一段时间人民日报的发文以txt格式保存),提取以’党', '发展', '中国', '我们', '人民'五个为主题的随时间变化的词频的变化,用主题河流图直观的展现。

2023-12-20 11:49:15 1560 2

原创 使用python读取多个文件夹中的文本文档并根据词频绘制词云图(以txt为例,附代码)

本文主要介绍如何从多个文件夹中读取txt文件,将所有的txt文档合并为txts,然后利用jieba分词,并统计txts中各个词语出现的词频,选取出现最多的十个词语绘制词云图。

2023-12-13 11:20:08 932 1

原创 BERT(附模型构建代码)

BERT模型的全称是:BidirectionalEncoder从名字中可以看出,BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即:文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。煮个栗子,BERT模型训练文本语义表示的过程就好比我们在高中阶段学习语数英、物化生等各门基础学科,夯实基础知识;

2023-12-12 19:18:22 2408

原创 NLP常见的应用领域

NLP可用于信息检索,通过匹配查询和文本内容,返回相关的信息。同时,也可以生成文本摘要,将长文本精炼成简洁的摘要。

2023-12-09 11:18:38 1488

原创 Transformer

Transformer模型是Google团队在2017年6月由Ashish Vaswani等人在论文《Attention Is All You Need》所提出,当前它已经成为NLP领域中的首选模型。Transformer抛弃了RNN的顺序结构,采用了Self-Attention机制,使得模型可以并行化训练,而且能够充分利用训练资料的全局信息,加入Transformer的Seq2seq模型在NLP的各个任务上都有了显著的提升。

2023-12-03 10:08:51 530 1

原创 Attention

本周学习了Attention训练模型,目前大部分attention模型都是依附于Encoder-Decoder框架进行实现,在NLP中Encoder-Decoder框架主要被用来处理序列-序列问题。也就是输入一个序列,生成一个序列的问题。这两个序列可以分别是任意长度。具体到NLP中的任务比如:文本摘要,输入一篇文章(序列数据),生成文章的摘要(序列数据)文本翻译,输入一句或一篇英文(序列数据),生成翻译后的中文(序列数据)

2023-11-23 10:26:32 51

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除