自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(343)
  • 资源 (7)
  • 收藏
  • 关注

原创 NXP i.MX6 系列 SoC 的典型 IOMUX(引脚复用)配置, 出现在设备树(Device Tree)里,用于告诉内核: 哪些引脚要复用成 I²C1 功能,以及对应的电气属性配置。

`pinctrl_i2c1: i2c1grp` | 定义了一个名为 `pinctrl_i2c1` 的 pinctrl 配置组(group),组内包含 I²C1 的 SDA/SCL 引脚复用配置 || `0x4001b8b0` | 这是该引脚的 **Pad Control 寄存器配置值**,用于设置上拉/下拉、驱动强度、开漏、输入保持等电气特性 |你贴的这段是 **NXP i.MX6 系列 SoC** 的典型 **IOMUX(引脚复用)配置**,哪些引脚要复用成 I²C1 功能,以及对应的电气属性配置。

2025-11-14 09:45:01 301

原创 如果把SOC 的2个GPIO引脚 通过Pinmux 连接对应的该SOC内i2c 控制器

**编译和更新设备树**:修改完 `.dts` 文件后,需要用设备树编译器(DTC)将其编译成 `.dtb` 文件,然后将其更新到你的开发板上。好的,这是一个非常典型的嵌入式系统开发问题。* **定位引脚定义**:在SOC的 `.dtsi` 文件(描述SOC共性)或参考开发板的 `.dts` 文件中,找到 `iomuxc` 或 `pinctrl` 节点。你**不需要**直接写代码操作寄存器,而是通过修改**设备树(Device Tree)** 源文件(`.dts`)来描述硬件。

2025-11-13 18:44:40 288

原创 SOC 本地推理 需要结合NPU GPU CPU 一起进行推理吗

**CPU** | **总指挥与后勤官**<br>- **通用性最强**:什么都能做。| **GPU** | **并行计算多面手**<br>- **高吞吐量**:擅长处理大规模并行数据。| - 处理NPU不支持的**非标准算子**或**自定义算子**。| **NPU** | **AI推理专家**<br>- **极致能效比**:单位功耗下的AI算力最高。<br>- 是AI推理的**主力**。* **NPU**:专为AI计算设计,对于矩阵乘加、卷积等神经网络核心运算效率极高,**功耗最低**。

2025-11-05 09:52:17 396

原创 SOC 本地推理 需要结合NPU GPU CPU 一起进行推理吗1?

如果你能提供具体的 SOC 型号(例如 RK3588、Hi3559、Snapdragon 8 Gen3 等)或推理框架(如 RKNN、TFLite、ONNX Runtime、SNPE),我可以帮你更具体地说明在该平台上如何配置 NPU/GPU/CPU 协同推理。模型中含有 NPU 不支持的算子(如自定义算子、动态控制结构) NPU + CPU 混合 框架会自动 fallback 到 CPU 执行不支持的部分。CPU:通用计算核心,适合逻辑控制、调度、轻量计算;一、SOC 本地推理的基本概念。

2025-11-05 09:51:03 244

原创 git rebase提交

git rebase origin/main` 就是**把功能分支的开发历史,重新排列到主分支最新提交之后,让它看起来像是直接基于最新主分支开发的**,这样合并更干净、更安全。> 把当前分支(这里是 `feature-branch`)的**本地提交**,重新应用在远程 `main` 分支的最新提交之后。- `feature-branch` 基于旧的 `main` 提交 `A` 开发了 `D`、`E`- `D'`、`E'` 是新的提交(ID 不同),内容和原来的 `D`、`E` 一样。

2025-11-03 09:57:21 390

原创 sof 是运行在linux内核里 还是运行在DSP里面

如果你愿意,我可以帮你画一个 **SOF 工作时序图**,直观展示“驱动加载固件 → DSP 开始处理音频 → 驱动和 DSP 交互”的全过程,这样你就能很清楚地看到 SOF 在两个地方分别做什么。答案是:**SOF 有两部分**,分别运行在 **Linux 内核** 和 **DSP** 里。- **SOF 驱动**:运行在 **Linux 内核**,负责控制、管理、加载固件。- **SOF 固件**:运行在 **DSP**,负责实际的音频数据处理。

2025-10-28 18:03:49 376

原创 SOF 驱动 + 固件运行在 DSP , DSP 还在外置硬件上

这个要分平台来说,但**大多数现代 Android / Intel 平台上的 SOF DSP 并不是一个额外的外置芯片,而是集成在 SoC(主处理器)内部的一个专用音频处理单元**。> 在 **SOF(Sound Open Firmware)** 架构下,DSP 是不是一个外置的独立硬件芯片,还是集成在主 SoC 里?- **SOF 驱动 + 固件**运行在 DSP 上,而 DSP **大多数情况下是 SoC 内部集成的音频处理核心**。- 左边是 **集成式 DSP 架构**(SoC 内部)

2025-10-28 16:43:52 384

原创 SOC 有一个声卡 ,DSP是集成在声卡里吗

在 **SoC 架构中**,如果说“有一个声卡”,那通常是指 SoC 内部的**音频子系统**(包含 DSP、I²S 控制器、Codec 接口等硬件)。- **DSP 是集成在这个音频子系统里的**,所以可以说它“在声卡里”,但这是逻辑上的说法,物理上它是 SoC 芯片中的一个模块。- 在内核里,声卡由一个或多个 **PCM 设备**、**MIDI 设备**、**Mixer 控制**等组成。| +----------------- 音频子系统 ----------------+ |

2025-10-28 16:35:02 230

原创 大量文本向量化 + Embedding 检索 + LLM 具体流程解析

这个流程在工业界通常叫 **RAG(Retrieval-Augmented Generation)**,是处理**海量文本**并结合 LLM 的最佳实践。如果你愿意,我可以帮你画一个**彩色可视化流程图(PNG/SVG)**,把每个阶段和数据流清晰地标出来,方便你在方案文档或PPT里直接使用。- **元数据过滤 + 向量检索**:先用元数据(时间、类型)过滤,再做向量匹配,速度更快。- **成本优化**:LLM 只处理 Top-K 文档(几千 Token),而不是全量。

2025-10-27 18:27:31 241

原创 Top-K 是什么意思?

如果你愿意,我可以帮你画一张 **“Embedding 检索 → Top-K → LLM”** 的流程图,让你直观理解 Top-K 在 RAG 里的位置。> **Top-K** 就是“取前 K 个最相关的结果”,在向量检索里用来挑选给 LLM 的参考文档,平衡**信息覆盖率**和**上下文成本**。好的,你问的 **Top-K** 其实是一个在**信息检索 / 机器学习 / 向量搜索**里非常常见的术语,我帮你详细解释一下。如果 **K=3** → 取 **Doc A、Doc B、Doc C**

2025-10-27 18:24:22 241

原创 linux IIO框架

**IIO 设备驱动**:这是针对具体硬件(比如我们之前提到的博世 **SMI330** 传感器)编写的内核驱动。**IIO框架** 的全称是 **Linux Industrial I/O Subsystem**,即 **Linux 工业输入/输出子系统**。IIO框架的诞生,就是为了**标准化**传感器驱动的开发,为所有类型的传感器提供一个**一致、统一**的访问接口。* **IIO框架** 是Linux内核中的一个**软件层**,一套驱动和访问传感器的标准。

2025-10-17 14:39:39 464

原创 Android 打包AAR包

选择assembleDebug 双击就可以。

2025-10-10 11:14:53 86

原创 Explore advanced reasoning and problem-solving models.

https://platform.openai.com/docs/guides/reasoning

2025-09-19 14:57:21 146

原创 一文就懂的8155芯片最强科普

在此基础上进行了优化,其算力和性能要稍微差一些,这主要是因为车规级芯片需要面对更加恶劣的环境,芯片工作的温度范围要比手机的大很多,而且设计使用年限要比手机的长,同时在安全性要求上也比较高,要有独立的安全等设计,需要更复杂的数据校验,保证更高的安全性等。这也是芯片厂商选择7nm工艺来做座舱芯片的原因,在7nm的制程下,才有机会把芯片的功耗做好。从目前已经曝光的车机视频来看,系统优化做的非常不错,操作极其跟手,并且整个界面的设计也是这么多品牌车型的车机里,审美最在线的,每个小图标都精巧的不行。

2025-09-15 11:55:26 1347

原创 清除系统垃圾

echo 正在清除系统垃圾文件,请稍等……echo 清除系统LJ完成。

2025-09-11 09:34:47 371

原创 keyddddddddddddddd

005ed703dde5332b0806504246d41313

2025-08-21 14:32:10 385

原创 支持任意 MCP 协议的客户端

支持任意 MCP 协议的客户端(如:Cursor、Claude、Cline)可方便使用高德地图 MCP server。目前支持Streamable HTTP, SSE 和 Node.js I/O 三种接入方式(推荐用户使用Streamable HTTP)。

2025-08-12 22:28:07 424

原创 云部署 MCP 服务计费

基础模式:无部署费用。无调用时不计费,有调用时按调用时长计费。调用费率:0.000156 元/秒适用场景:偶尔调用,对启动速度要求不高(首次调用会有一定启动延迟)极速模式有部署费用。无调用时按部署时长计费,有调用时另按调用时长计费。0.000156 元/秒0.000036 元/秒适用场景:可减少频繁启动服务带来的延迟,适合需要长时间保持在线,且调用较频繁的场景。

2025-08-12 18:23:33 324

原创 如何规范你的Git commit?

编码规范、流程规范在软件开发过程中是至关重要的,它可以使我们在开发过程中少走很多弯路。Git commit规范也是如此,确实也是很有必要的,几乎不花费额外精力和时间,但在之后查找问题的效率却很高。作为一名程序员,我们更应注重代码和流程的规范性,永远不要在质量上将就。本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。

2025-08-08 10:45:00 653

原创 ChatGPT Java SDK支持流式输出、Gpt插件

https://github.com/Grt1228/chatgpt-java?tab=readme-ov-file#%E9%BB%98%E8%AE%A4okhttpclient

2025-08-03 23:28:55 122

原创 使用OkHttp流式请求OpenAI API(GPT API)接口

文章介绍了一个基于Kotlin开发的安卓应用,该应用集成ChatGPTAPI,使用gpt-3.5-turbo模型,提供流式请求交互。至此,你应该已经完成了Chat机器人智能问答对接,一个智能QA机器人就实现了,后续我会继续进行AI能力的扩展,如多模态等。原文链接:https://blog.youkuaiyun.com/u012960155/article/details/129778322。本应用集成 ChatGPT API,使用模型为 gpt-3.5-turbo,项目代码为 Kotlin 语言开发的安卓应用。

2025-08-03 23:27:10 231

原创 从单机架构到分布式:Redis为何成为架构升级的关键一环

、不同的业务模块,部署到多台独立的、通过网络连接的机器上协同工作,这就是分布式架构的起点。通过将单一庞大的数据库(表),按照特定的规则(如用户ID、订单ID、地理位置等)水平拆分到多个独立的物理数据库(表)中,从而突破单库在存储容量、连接数、I/O吞吐量和CPU计算能力上的限制。单机架构的优点使其成为许多系统诞生的摇篮。然而,其固有的、由单点资源集中化带来的性能瓶颈、单点故障风险、存储与扩展性天花板,决定了它只能是特定发展阶段的产物,无法承载持续增长的业务规模(用户量↑、数据量↑、并发量↑)。

2025-07-30 09:26:50 698

原创 以rebase 方式merge , git要怎么实现两个分支以rebase 合并

要以 rebase 方式合并两个分支,你可以使用 Git 的 rebase 命令而不是 merge 命令。

2025-07-30 09:22:04 407

原创 MNN 是一个极速、轻量的深度学习框架, 可以用于大模型推理

移动端/边缘设备部署 7B 参数量以下的 LLM,追求低延迟、小体积。

2025-07-17 15:44:44 790

原创 MNN 是一个极速、轻量的深度学习框架, 可以用于大模型推理

MNN 是一个高性能、轻量级的深度学习框架,最初由阿里巴巴开发,旨在为移动端和边缘设备提供高效的模型推理能力。尽管它的设计初衷是轻量化,但它支持多种模型格式和计算后端,能够高效地执行复杂的大模型推理任务。因此,如果你的需求是进行大模型推理,尤其是在资源受限的移动端或边缘设备上,MNN 是一个非常值得考虑的框架。:MNN 提供了诸如模型量化、裁剪等优化手段,可以有效减少大模型的计算量和内存占用,从而提升推理效率。:MNN 针对移动端和边缘设备的硬件特性进行了高度优化,因此在运行大规模模型时表现非常出色。

2025-07-17 15:42:17 209

原创 GitHub技术文档之类

GitHub - AzatAI/cs_books: Computer science books Recommended by AzatAI. (Education ONLY)

2025-07-17 15:08:18 131

原创 IPv6

连接特定的 DNS 后缀 . . . . . . . :IPv6 地址 . . . . . . . . . . . . : 240e:47e:38e0:a6f4:29c4:e444:5e10:19a4临时 IPv6 地址. . . . . . . . . . : 2409:895a:3925:e1ac:5b6:34d4:a344:a22bIPv6 地址 . . . . . . . . . . . . : 2409:895a:3925:e1ac:49fd:e9db:afb9:da39。

2025-07-16 11:48:23 986

原创 SE1000 介绍

作为高端国产车载芯片的供应商,芯擎科技即将推出的SE1000能为车载导航提供强劲的视觉展示效果和高算力的NPU对AR导航的支持,AR导航能为车辆驾驶者提供更贴近现实的导航画面,带来更加精准、直观的导航体验,可以预见,随着SE1000的上市,一定能为用户带来更好的车载导航体验。SE1000的图形处理单元采用了多核心策略,通过架构内功能块的整合更大的提升微架构效率,加大性能密度,配置大容量的缓存,在相同的时钟速度下,浮点运算、纹理和像素吞吐量都得到更好的提升,能最快速、细致的描绘出异常精细的地图。

2025-07-16 10:49:16 454

原创 芯擎SE1000

SE1000是采用业界领先的7纳米工艺制程设计的新一代高性能、低功耗车规级智能座舱芯片,赋能日益丰富的车载信息娱乐系统。高性能定制CPU集群,通过面向异构计算而精心设计的SOC系统,可以为用户提供卓越的性能体验。内置高性能嵌入式AI神经网络处理单元,提供更多个性化的智能语音、机器视觉及辅助自动驾驶体验。内置高性能音频信号处理单元及丰富的音频接口,为用户提供丰富超凡的音视频娱乐体验。具备高安全等级的“安全岛”设计,满足ISO26262车规认证,确保汽车功能安全;同时,提供丰富的高性能通信及外围接口支持能力。

2025-07-15 17:59:42 286

原创 SiEngine SE1000 AEC-Q100

硬件隔离技术,多系统Android Automotive 10 / 12 / Linux4.19 / FreeRTOS。

2025-07-15 16:26:59 382

原创 芯擎AEC-Q100 SE1000 硬件平台

2025-07-15 16:19:47 361

原创 wpa_supplicant-2.11/src/drivers/driver_nl80211_scan.c

{ie_len)+}+{ie_len)+}if (!r)os_free(r);

2025-07-15 14:15:01 476

原创 inux 内核通过设备树配备驱动

通过这些步骤,设备被完整地注册到内核的设备模型中,并与总线和驱动程序建立了关联。是设备模型的核心函数,用于将设备注册到内核的设备层。是注册平台设备的函数,它的实现实际上会调用。时,设备会被挂到总线。如果匹配成功,就会调用。,将驱动绑定到设备。

2025-07-14 17:19:00 311

原创 总线关系 没有明确硬件总线,挂载在根节点或 platform_bus 节点下 挂载在特定硬件总线节点下(如 I2C 或 SPI 控制器) 能举个例子吗?

在 Linux 内核中,通过设备树(DTS 文件)定义设备时,节点的上下文(即设备节点挂载的位置)直接反映了设备的总线关系。以下是一些具体的例子,说明如何通过设备树的总线关系区分。对于明确硬件总线的设备(如 I2C、SPI),设备树节点通常挂载在对应的总线控制器节点下。这种设备会被解析为总线设备(如。它们的节点通常直接挂载在设备树的根节点下,或者挂载在某个。和特定硬件总线设备(例如 I2C 或 SPI 设备)。通过设备树的上下文(节点的挂载位置)和属性(如。设备直接挂载在根节点或。和特定硬件总线设备。

2025-07-14 15:58:24 481

原创 linux 解析设备树文件时,怎么区分是属于Platform 设备和非Platform 设备2

在Linux内核中,设备树(Device Tree,DT)是一种描述硬件系统资源的结构化数据。解析设备树文件时,如何区分设备是属于platform设备还是,主要取决于设备的驱动框架和注册方式。

2025-07-14 15:32:02 441

原创 linux 解析设备树文件时,怎么区分是属于Platform 设备和非Platform 设备1

属性的节点如果没有被其他总线驱动认领,最终会被当作 Platform 设备处理。如果父节点是 I2C、SPI 等总线,则创建对应的非 Platform 设备。是 I2C 设备,不会被当作 Platform 设备处理。不属于任何特定总线(如 I2C、SPI、PCI 等)的设备。下的设备通常会被识别为 Platform 设备。如 I2C、SPI、PCI 等总线下的设备节点。由对应的总线控制器驱动处理并创建相应的设备。内核会将其注册为 Platform 设备。内核首先扫描设备树中的所有节点。

2025-07-14 15:21:40 442

原创 调用 device_add():将设备添加到内核的设备层次结构中。 与总线关联,触发设备与驱动的匹配流程。

是 Linux 内核设备模型中的核心函数,用于将设备添加到内核的设备层次结构中,并与总线关联,触发设备与驱动的匹配流程。通过这些步骤,设备被完整地注册到内核的设备模型中,并与总线和驱动程序建立了关联。这一机制为总线提供了灵活性,允许开发者根据具体的需求控制驱动匹配行为。是一个布尔变量,用来控制是否允许总线自动探测驱动与设备的匹配关系。),表示是否允许总线自动探测驱动程序与设备之间的匹配关系。,表示 platform 总线支持驱动与设备的自动匹配。的主要作用是在设备注册到总线时,控制是否自动调用。

2025-07-14 14:55:18 488

原创 linux 驱动的platform机制:

设备注册的时候Platform_device_register()→platform_device_add()→(pdev→dev.bus = &platform_bus_type)→device_add(),就这样把设备给挂到虚拟的总线上。是 Linux 内核中的一种设备类型,通常用于描述嵌入式系统中的设备。机制是一种用于管理无明确硬件总线关系的设备(通常是 SoC 上的设备)的框架。是设备模型的核心函数,用于将设备注册到内核的设备层。是注册平台设备的函数,它的实现实际上会调用。时,设备会被挂到总线。

2025-07-14 14:39:29 486

原创 深度:一文看懂Linux内核!Linux内核架构和工作原理详解

懂C语言懂一点操作系统的知识熟悉少量相关算法懂计算机体系结构。

2025-07-10 15:55:11 1438

原创 wpa_supplicant\ wifi STA , AP说明

*wpa_supplicant** 是专门用于 **WiFi STA端**(即无线客户端设备)的软件组件,而不是用于 **AP端**(无线接入点)。- **wpa_supplicant** 是专门用于 **WiFi STA端** 的软件,负责帮助客户端设备完成无线网络的扫描、认证、连接和加密通信等任务。- **AP端** 使用的是类似 **hostapd** 的工具,用于管理接入点的行为和身份验证。- **wpa_supplicant** → STA端(客户端)

2025-06-10 09:24:34 286

H264 RTP 发送和接收

H264 RTP 发送和接收

2012-02-18

onenote linux 开发环境

Linux 开发环境 开发工具 数据库等

2018-09-04

TeamTalk 服务器思维导图

TeamTalk 服务器思维导图。 介绍服务器架构的思维导图。

2018-11-13

VC socket多线程文件传输

VC socket多线程文件传输

2012-02-21

php手册-PHP5研究室编译 无乱码版本.chm

php手册-PHP5研究室编译 无乱码版本.chm

2011-12-31

虚拟光驱软件

虚拟光驱软件

2012-02-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除