Latex写CV时的一点记录

这篇博客记录了使用LaTeX编写简历时的一些实用技巧,包括字体加粗、调整行距、在表格环境中的操作以及在description环境中设置item间距的方法,帮助提升简历的排版质量。
部署运行你感兴趣的模型镜像

Latex写CV的一点记录

  • 字体加粗:{\textbf{content}}
  • 两行之间设置距离:\setlength{\smallskip}
    In tabular environment: \noalign{\smallskip}
  • 句首空格:\setlength{\leftskip}
    In tabular environment: \hspace{distance}
  • In tabularx设置alignment,右对齐格式:
    {\linewidth}{@{}p{0.8\linewidth}@{}r@{}}

  • 具体代码和效果

\usepackage{array}
\usepackage{tabularx}
\noindent \begin{tabularx}
{\linewidth}{@{}p{0.8\linewidth}@{}r@{}}
 \Large{\textbf{Title1}} \\
 \noalign{\smallskip}
     \hspace{5ex} \textbf{Company name}  & 2010,9 - Present \\
     \hspace{5ex} Job title  \\
     \hspace{5ex} Job description\% \\
     & \\
     \hspace{5ex} \textbf{Another Company} & 2011,1 - 2013,5\\
     \hspace{5ex} Program Name \\
     & \\    

 \Large{\textbf{Title2}} \\
  \noalign{\smallskip}
     \hspace{5ex} \textbf{Program Name} & 2013,6 - 2015,6 \\
     \hspace{5ex}  Description \\
     & \\
\end{tabularx}

>
alignment

  • In description: 设置item与前一行的距离
    [topsep = 3pt] or \vspace{-1mm}

  • 具体代码和效果如下:

\usepackage{lipsum}
\usepackage{enumitem}
...
\noindent\Large{\textbf{Testing - Before}}
\setlength{\parskip}{0pt}
\begin{description} 
    %\vspace{-1mm}%
    \setlength{\parskip}{0ex}
    \setlength{\leftskip}{4ex} \normalsize
    \item[$\bullet$] [\lipsum1]
\end{description}

\noindent\Large{\textbf{Testing - After}}
\setlength{\parskip}{0pt}
\begin{description} [topsep = 3pt]
    %\vspace{-1mm}%
    \setlength{\parskip}{0ex}
    \setlength{\leftskip}{4ex} \normalsize
    \item[$\bullet$] [\lipsum1]

Testing-Before
Testing-After

您可能感兴趣的与本文相关的镜像

GPT-SoVITS

GPT-SoVITS

AI应用

GPT-SoVITS 是一个开源的文本到语音(TTS)和语音转换模型,它结合了 GPT 的生成能力和 SoVITS 的语音转换技术。该项目以其强大的声音克隆能力而闻名,仅需少量语音样本(如5秒)即可实现高质量的即时语音合成,也可通过更长的音频(如1分钟)进行微调以获得更逼真的效果

<think>首先,用户的问题是关于如何在简历中描述对NVIDIA TensorRT推理框架的掌握和相关项目经验。用户提到想在简历中展示对TensorRT的熟悉程度。 我需要参考系统级指令: - 所有行内数学表达式用$...$,比如变量、方程等。 - 独立公式用$$...$$并单独成段。 - LaTeX语法正确。 - 使用中文回答。 - 生成相关问题。 - 在回答中引用的段落末尾自然地添加引用标识,例如[^1]。 - 回答结构清晰,帮助用户逐步解决问题,保证真实可靠。 用户还提供了一个引用:[^1] 是关于TensorRT-LLM的,但用户说“上述引用仅供参考”,所以我不能直接依赖它。用户说“请尽可能多的参考用户上一次的问题和你的回答”,但我没有历史记录,因为这是一个独立的查询。所以,我应该专注于当前问题。 用户的问题:如何在简历中详细描述对NVIDIA TensorRT推理框架的掌握和相关项目经验。 关键元素: - 描述对TensorRT的掌握:包括技能、知识、经验。 - 相关项目经验:具体项目中使用TensorRT的例子。 结构回答: - 由于是简历建议,我应该提供实用的建议,比如如何编简历条目。 - 步骤清晰:帮助用户逐步构建简历描述。 - 保证真实可靠:基于一般知识,TensorRT是NVIDIA的推理优化框架,用于深度学习模型加速。 可能的回答结构: 1. **介绍部分**:解释为什么在简历中描述TensorRT是重要的(例如,AI工程师、ML工程师角色)。 2. **核心技能描述**:如何描述掌握程度(如熟悉、精通)。 3. **项目经验部分**:如何具体化项目经验,使用STAR方法(Situation, Task, Action, Result)。 4. **示例条目**:提供一些简历条目的例子。 5. **提示和注意事项**:如量化成果、使用关键词。 生成相关问题: - 在回答末尾,添加§§相关问题§§部分,列出2-3个相关问题。 使用中文回答。 数学表达式:用户的问题不涉及数学,所以可能不需要数学表达式。但如果提到模型精度、推理速度等,可以用行内数学,比如$FPS$。但保持相关。 引用标识:用户提供了一个引用[^1],但说它是仅供参考。我应该自然地添加引用标识,如果在回答中引用它。但由于它是参考,我可以不直接引用,或者只在必要提及。 用户提供的引用:[^1] 是关于TensorRT-LLM的,但用户的问题是TensorRT通用框架。TensorRT-LLM是专门针对大语言模型的扩展。所以,我可以提到它作为扩展知识。 现在,构建回答: - **开头**:直接回应问题。 - **主体**: - 解释TensorRT是什么(简要)。 - 如何描述掌握程度:例如,熟悉TensorRT的API、优化技术、部署流程。 - 项目经验:描述具体项目,包括模型类型、优化方法、性能提升。 - 示例简历条目。 - **结尾**:总结建议。 - **相关问题**:生成相关问题。 相关问题想法: 1. TensorRT在不同硬件上的性能比较? 2. 如何优化模型以更好地利用TensorRT? 3. TensorRT在边缘设备上的应用? 确保回答真实可靠:基于常识,TensorRT用于模型加速,支持量化、层融合等。 最终回答结构: 1. 理解需求:重述问题以示理解。 2. 描述掌握程度:建议使用具体术语。 3. 项目经验描述:提供框架。 4. 示例简历条目。 5. 注意事项。 6. 相关问题。</think>### 在简历中描述对NVIDIA TensorRT推理框架的掌握和相关项目经验 在简历中展示对NVIDIA TensorRT的掌握,能突出您在深度学习模型优化和推理加速方面的专业技能。TensorRT是NVIDIA推出的高性能推理框架,支持模型量化、层融合和硬件加速,适用于计算机视觉、自然语言处理等场景。以下我将逐步指导您如何详细描述,包括核心技能、项目经验法、示例条目和注意事项。描述,应强调具体技术细节、量化成果和实际影响,以体现真实性和专业性。 #### 步骤1: 描述对TensorRT的掌握程度 在简历的“技能”或“技术专长”部分,清晰列出您的TensorRT相关技能。使用分层描述(如“熟悉”、“精通”)来区分掌握深度: - **基础掌握**:包括TensorRT API使用、模型转换(如ONNX到TensorRT引擎)、基本优化技术(如INT8量化)。例如:“熟悉NVIDIA TensorRT框架,包括模型解析、引擎构建和推理部署。” - **进阶掌握**:涉及性能调优、自定义插件开发、多硬件支持(如GPU集群或边缘设备)。例如:“精通TensorRT的优化策略,如层融合、动态形状支持和混合精度推理,能实现推理延迟降低30%。” - **量化指标**:强调性能提升,如推理速度(FPS)、延迟降低百分比或资源消耗减少。使用行内数学表达式表示指标,例如:将推理延迟从$100\\text{ms}$优化至$50\\text{ms}$,或吞吐量提升$2\times$。 #### 步骤2: 描述相关项目经验 在“项目经验”部分,使用STAR方法(Situation, Task, Action, Result)结构化描述。每个条目应包括: - **情境(Situation)**:简要项目背景。 - **任务(Task)**:您的具体职责。 - **行动(Action)**:详细TensorRT应用过程。 - **结果(Result)**:量化成果和业务影响。 **示例项目条目(基于常见场景)**: - **计算机视觉项目**: “在智能安防系统中,负责部署YOLOv5目标检测模型(Situation)。任务是将模型推理速度提升至实处理水平(Task)。使用TensorRT进行模型转换:通过ONNX解析模型,应用INT8量化和层融合优化,并开发自定义插件处理非标准层(Action)。结果:推理延迟从$120\\text{ms}$降至$40\\text{ms}$,FPS提升$3\times$,系统在边缘GPU设备上实现30fps实推理,支撑了百万级日活服务(Result)。” - **自然语言处理项目**: “在大规模语言模型服务中,优化BERT模型推理(Situation)。任务是在阿里云GPU集群上减少推理成本(Task)。采用TensorRT-LLM扩展,实现动态批处理和FP16混合精度,并集成到Kubernetes部署流程中(Action)。结果:吞吐量提高$2.5\times$,硬件资源消耗降低40%,部署间缩短50%,支持了安全大模型的快速上线[^1](Result)。” #### 步骤3: 完整简历示例条目 假设您有多个项目,整合到简历中: ```markdown **技术技能** - 深度学习框架:精通PyTorch, TensorFlow;熟悉NVIDIA TensorRT(包括API、量化优化、自定义插件开发)。 - 优化技术:掌握模型量化(INT8/FP16)、层融合、动态形状支持;能实现推理延迟降低 ≥30%。 **项目经验** 1. **项目名称:实视频分析系统** - 情境:部署于智慧城市安防平台,需处理高并发视频流。 - 任务:优化ResNet-50模型推理性能,满足实性要求。 - 行动:使用TensorRT转换ONNX模型,应用INT8量化和内核自动调优;开发Python/C++接口集成到推理服务。 - 结果:推理延迟从 $80\\text{ms}$ 优化至 $25\\text{ms}$,FPS提升 $3.2\times$;系统支持1000+并发流,降低云成本20%。 2. **项目名称:大语言模型推理加速** - 情境:阿里安全大模型服务,需高效部署多模型实例。 - 任务:基于TensorRT-LLM构建高性能推理管道,缩短部署周期。 - 行动:设计动态批处理策略,实现FP16混合精度;集成到CI/CD流程,使用Docker容器化部署。 - 结果:吞吐量提升 $2\times$,推理资源节省35%;模型上线间从周级降至天级[^1]。 ``` #### 注意事项 - **量化成果**:始终用数据支撑描述,例如“延迟降低$X\%$”或“FPS提升$Y\times$”。这增强可信度。 - **关键词优化**:针对AI岗位,使用关键词如“模型优化”、“推理加速”、“硬件加速”,以通过ATS(简历筛选系统)。 - **真实性**:只描述实际经验;如果仅学习过,可“熟悉TensorRT概念及实验项目”。 - **引用和扩展**:如涉及TensorRT-LLM等扩展,可引用相关实践,例如在阿里安全项目中,TensorRT-LLM被用于大模型部署基石[^1]。 - **避免空洞**:不要“熟悉TensorRT”,而是具体化,如“熟练使用trtexec工具进行引擎构建”。 通过以上步骤,您的简历将突出技术深度和实际价值,吸引招聘方注意。如果您有具体项目细节,我可以帮您定制描述。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值