lattice diamond/radiant license申请

本文分享了作者在使用Lattice Diamond软件时遇到的license问题,包括版本更新、环境变量设置、申请步骤和物理地址获取等关键环节,最终通过正确操作成功解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用小脚丫FPGA的diamond软件license莫名其妙过期了,多次申请后都不能成功注册,最后换了一个版本的diamond,然后卸载了radiant,环境变量重新设置一番,终于成功。记录一下。

  • diamond和radiant都是lattice软件,安装目录可以一致,但是,环境变量要注意,设置两个license路径。
  • 可以把先安装并注册过license的软件环境变量放后面,新安装的放第一个。
  • 同一台电脑可以申请多次license。
  • 申请过程:
    去他家的网站:
    https://www.latticesemi.com/en/Products/DesignSoftwareAndIP/FPGAandLDS/LatticeDiamond.aspx
    在这里插入图片描述
    下滑;点击licensing在这里插入图片描述
    看清楚自己是什么软件(Diamond和Radiant的license不能混用);点击对应的request,建议选择Node-locked;不要问我为什么。(气死我了,多次申请floating就是不行)
    在这里插入图片描述

其实你还需要注册邮箱账号的。。。
在这里插入图片描述
什么是物理地址?
在这里插入图片描述

你且往下看,分为三步走:
打开WiFi,点击连接的那个的属性(别跟我说你没连网)
在这里插入图片描述
点开之后下滑:
在这里插入图片描述

只需要框框里的一串,搞到刚刚需要物理地址一栏中。(好像只有两步)
然后看见框框就打勾,看见选择就yes
在这里插入图片描述
在这里插入图片描述
最后也可能“Generate License”是灰色的,翻到上面物理地址看一下:
在这里插入图片描述
在这里插入图片描述

最后点击generate license,就会得到一个附有许可证文件的邮件
在这里插入图片描述

等待邮箱license到来,下载后搞到安装目录的这个文件夹下。
在这里插入图片描述
建议运行前看一下系统环境变量,下图才是正常的。
(window10/11任务栏或者开始的搜索可以直接搜索“环境变量”)
在这里插入图片描述

打开软件看看是不是成功了?
反正我是成功了,而且成功了好几次。

<think>好的,用户想了解如何在本地环境中部署大型AI模型。首先,我需要明确用户的需求。用户可能有一定的技术背景,但不太清楚具体步骤,或者是个开发者想基于大模型构建应用。根据提供的引用,提到了三大高效工具:Ollama、LM Studio和Text Generation WebUI。我需要分别介绍这三个工具的特点、部署步骤和适用场景。 首先,Ollama支持多平台,适合开发者,特别是需要命令行操作的用户。需要说明安装步骤,比如下载安装包,然后通过命令行拉取模型。同时,用户可能需要知道如何运行和测试模型,比如输入提示词查看输出。 接下来是LM Studio,它提供图形界面,适合非开发者或喜欢可视化操作的用户。需要指导用户从官网下载,搜索并下载模型,然后启动本地服务器。这里要注意模型格式的兼容性,比如GGUF格式。 然后是Text Generation WebUI,适合需要高度定制的用户,支持多种模型框架。安装步骤涉及克隆仓库、安装依赖,可能需要处理Python环境的问题。用户可能会遇到依赖冲突,需要建议使用虚拟环境。 之后,需要比较这三个工具,帮助用户根据自身情况选择。比如,开发者可能偏好Ollama或TextGen WebUI,而非开发者更适合LM Studio。还要提到模型格式的重要性,确保用户下载正确的版本。 最后,生成相关问题时要覆盖用户可能的后续疑问,比如硬件需求、性能优化、模型选择等。还要确保回答结构清晰,步骤详细,避免使用专业术语过多,保持易懂。同时检查LaTeX格式是否正确,虽然这个问题中可能用不到数学公式,但需要留意是否有需要格式化的地方。确保引用正确,末尾添加引用标识。</think>### 如何在本地部署大型AI模型? #### 一、工具选择与核心原理 本地部署大型AI模型的核心在于平衡算力资源与模型性能,常用工具通过量化技术(如GGUF、GPTQ格式)压缩模型规模,同时结合硬件加速(如CUDA、Metal)提升推理速度[^1]。以下是三种主流方法: #### 二、具体部署方法 1. **Ollama(开发者推荐)** - 特点:支持macOS/Linux/Windows,命令行操作 - 部署步骤: ```bash # 安装后拉取模型(以Llama3为例) ollama pull llama3 # 启动对话 ollama run llama3 ``` - 测试:输入$p = \rho g h$(流体压强公式)验证模型STEM能力 2. **LM Studio(非开发者首选)** - 特点:图形化界面,模型市场集成 - 操作流程: 1. 下载安装包(Windows/macOS) 2. 搜索并下载TheBloke系列的GGUF格式模型 3. 启动"Local Server"开启API服务 3. **Text Generation WebUI(定制化方案)** - 特点:支持HuggingFace全系列模型 - 安装命令: ```bash git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui && pip install -r requirements.txt ``` #### 三、技术参数对照表 | 工具 | 最小显存 | 推荐配置 | 模型格式支持 | |---------------------|----------|---------------|----------------| | Ollama | 8GB | RTX 3060+ | GGUF, Safetensors | | LM Studio | 6GB | M1芯片/MacBook| GGUF | | TextGen WebUI | 12GB | RTX 3090+ | HF, GPTQ | #### 四、模型选择建议 根据泰勒展开式$f(x) = \sum_{n=0}^{\infty} \frac{f^{(n)}(a)}{n!}(x-a)^n$的复杂度类比,建议: - 入门:Phi-3-mini(2GB显存) - 进阶:Llama3-8B(6GB显存) - 专业:Qwen1.5-72B(需多GPU)
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值