深度学习
文章平均质量分 91
深度学习(Deep Learning)是机器学习领域中的一个研究方向,主要是通过学习样本数据的内在规律和表示层次,让机器能够具有类似于人类的分析学习能力。深度学习的最终目标是让机器能够识别和解释各种数据,从而实现人工智能的目标。深度学习的关键在于神经网络,这是一种模拟人类大脑神经元的工作方式的算法。
109702008
数字人 - 幺洞勾拐洞两洞洞八
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
全面指南:PyTorch与ROCm版本兼容性及多版本环境管理
本文详细介绍了在AMD GPU上配置PyTorch开发环境的完整流程,重点解决版本兼容性和多版本ROCm环境管理问题。主要内容包括:1) PyTorch与ROCm版本对应关系查询;2) 四种查看ROCm版本的方法;3) 使用update-alternatives管理多版本ROCm;4) 环境变量配置与冲突解决方案;5) 完整的验证流程和性能测试方法。文章提供了最佳实践建议和故障排除清单,帮助开发者快速搭建稳定高效的深度学习开发环境,充分发挥AMD GPU硬件性能。通过系统化的验证流程确保各组件协同工作,解决原创 2025-12-01 14:11:15 · 217 阅读 · 0 评论 -
工业视觉实战:用摄像头+AI高精度测量钢板尺寸(附深度分析)
摘要: 钢铁制造业正加速采用基于摄像头与深度学习的视觉测量技术,以取代传统人工测量,实现钢板长、宽、高(厚)的非接触、高精度在线检测。核心方案包括单目视觉(低成本但受限于变形)、双目/多目立体视觉(可精确测量变形钢板)及3D激光扫描(微米级精度)。系统精度受硬件(相机分辨率、镜头)、算法(亚像素技术)及环境稳定性共同影响,综合精度可达±0.1mm。实战中需重点解决热膨胀(需红外测温实时补偿)和钢板变形(必须采用三维方案)两大挑战,并通过工程化设计(散热、防振)确保系统可靠运行。该技术需融合光学、机械与算法,原创 2025-11-23 09:48:30 · 173 阅读 · 0 评论 -
计算机视觉数据格式全解析:从VOC到YOLO再到YAML配置
本文系统梳理了计算机视觉中三种关键数据格式:VOC作为经典标注标准,采用XML存储丰富元数据;YOLO格式专为高效检测设计,使用归一化坐标的TXT文件;YAML作为现代项目的配置核心,通过结构化文件管理数据集和训练参数。文章对比了三者的优缺点,并提供了VOC转YOLO的代码示例和YAML配置指南。三种格式各有侧重:VOC可读性强但效率低,YOLO适合高效训练但信息简略,YAML则完美平衡可读性与配置管理需求。最后推荐采用分层目录结构管理不同格式数据,实现项目的高效维护与扩展。原创 2025-11-14 07:49:17 · 226 阅读 · 1 评论 -
PyTorch与TensorBoard完美结合:全面指南与实战详解
本文为PyTorch开发者提供TensorBoard使用指南,涵盖安装配置、核心API及实战应用。TensorBoard能有效提升深度学习实验效率,支持训练监控、模型可视化、权重分析等功能。指南详细介绍了SummaryWriter的使用方法,包括标量记录、模型结构可视化、权重分布监控和图像数据展示。通过完整的MNIST分类示例,演示了如何在实际项目中集成TensorBoard,帮助开发者更直观地理解模型训练过程并进行有效调试。适用于PyTorch 1.1.0及以上版本,是深度学习项目开发的实用工具包。原创 2025-11-13 05:40:19 · 141 阅读 · 1 评论 -
当深度学习遇见“不二”哲学:算法中消融的边界与统一的智慧
深度学习应用/特性所体现的“不二”思想生成式模型打破真实与虚假、创造与模仿的二元对立表征学习超越类别标签的硬性边界,实现概念的连续融合多模态学习消融不同感官模态(如图像、文本)之间的隔阂自监督学习不依赖人为分别,从数据本身发现内在统一规律不确定性估计将确定性与不确定性统一于概率框架,超越对错需要警惕的是:深度学习模型本身是数学和工程的产物,它没有意识,其“不二”特性是结构性和涌现性的,而非觉悟性的。它通过海量数据拟合出的复杂函数,在形式上。原创 2025-11-12 05:02:43 · 166 阅读 · 2 评论 -
PPOCRLabel完全指南:开源高效的OCR数据标注工具
PPOCRLabel是一款基于PaddlePaddle的开源OCR标注工具,通过内置PP-OCR模型实现智能半自动化标注,大幅提升效率。支持矩形框和四点标注模式,提供完整标注工作流和批量处理功能,配备快捷键操作。完全开源支持定制,可切换不同模型并加载自定义词典。适用于文档数字化、自然场景文本识别等场景,显著降低标注时间成本并提高准确性。工具提供便捷安装方式,支持中英文界面,生成标准格式标注文件直接用于模型训练,是OCR数据标注的高效解决方案。原创 2025-11-08 04:37:44 · 375 阅读 · 1 评论 -
期权交易升维指南:当深度学习遇上希腊字母风险管理
作为技术人员,我们习惯于寻找模式、优化算法、构建系统。在交易领域,这种思维模式让我们自然倾向于技术分析——MACD金叉死叉、均线排列、神经网络预测价格。然而,残酷的真相是:单纯依靠技术分析的交易者,长期来看几乎注定失败。这不是因为技术分析无效,而是因为我们陷入了低维竞争的陷阱。想象一下,你拿着步枪闯入了由卫星、无人机和AI指挥的现代战场——这就是只用技术分析去对抗专业机构的真实写照。本文将带你实现认知跃迁,将深度学习、技术指标与期权希腊字母风险管理相结合,构建真正有竞争力的多维交易系统。2.2 专业机构的原创 2025-11-08 04:37:08 · 167 阅读 · 0 评论 -
图像标注神器:完全开源免费的多功能标注工具Labelme详解
Labelme是MIT开发的免费开源图像标注工具,支持多边形、矩形等多种标注类型,适用于目标检测、分割等计算机视觉任务。提供Windows可执行文件和Python安装两种方式,可输出JSON格式并转换为COCO等标准数据集。具有跨平台、功能全面、社区活跃等优势,能显著提升标注效率,是AI视觉项目的重要数据准备工具。原创 2025-11-07 05:35:56 · 214 阅读 · 2 评论 -
LabelImg完全指南:开源图像标注工具从安装到高效使用
LabelImg是一款专为目标检测设计的开源图像标注工具,支持PASCAL VOC和YOLO两种主流格式。安装简单,可通过pip命令或直接下载exe文件使用。核心功能包括边界框标注、类别标记和快捷键操作(如W键创建边界框,Ctrl+S保存)。提供预定义类别设置和跨平台支持,适合中小规模标注项目。虽然原作者不再维护,但1.8.1版本稳定可靠,是计算机视觉领域创建高质量数据集的实用工具。原创 2025-11-06 15:34:04 · 437 阅读 · 0 评论 -
数据可视化与模型可解释性的完美结合:全方位解析热力图及其在Informer模型中的应用
摘要:热力图作为一种直观的数据可视化工具,能通过颜色变化展现数据密度、数值分布及模式规律,广泛应用于用户行为分析、地理空间统计和特征相关性研究。在深度学习中,热力图(如注意力热力图)成为解释复杂模型(如Informer)决策过程的关键手段。通过可视化Informer的注意力权重,可直观展示模型如何捕捉时序依赖、周期性特征,并验证其ProbSparse机制的稀疏性优势。热力图不仅提升模型性能分析能力,还增强了AI的可解释性,成为连接数据科学与业务理解的桥梁。原创 2025-10-15 10:10:06 · 250 阅读 · 0 评论 -
深入理解梯度消失:从DNN到RNN的全面解析与解决方案
梯度消失是指在训练深度神经网络时,反向传播算法中,从输出层向输入层方向逐层计算梯度时,梯度值会变得越来越小,以至于靠近输入层的隐藏层权重更新非常缓慢,甚至停止更新。网络的早期层无法有效地从数据中学习,整个网络的性能因此受到限制。想象一下,一个团队中只有靠近领导的几个人在工作,而基层员工却无所适从——这样的组织效率必然低下。特性普通DNN中的梯度消失RNN中的梯度消失深度来源网络的层数序列的时间步长度主要影响靠近输入层的空间特征无法学习早期时间步的历史信息无法学习核心解决方案。原创 2025-10-13 19:42:14 · 456 阅读 · 1 评论 -
Informer模型完全解析:长序列预测的革命与超越
Informer模型革新了长序列时间序列预测领域,通过ProbSparse自注意力、注意力蒸馏和生成式解码三大核心技术,显著降低了计算复杂度(O(L²)→O(L log L)),解决了传统Transformer在长序列预测中的瓶颈。其关键创新包括:智能稀疏化注意力机制筛选重要时间点,金字塔式信息蒸馏保持深层网络效率,以及一次性生成式解码避免误差累积。该模型不仅实现了高效精准的预测性能,还推动了后续Pyraformer、Finformer等改进模型的发展,开创了Transformer在时序预测领域的新纪元。原创 2025-10-13 10:28:05 · 202 阅读 · 2 评论 -
【模型量化迁移】详解:让AI大模型在端侧“轻装上阵”的核心技术
模型通过降低数值精度(量化)并适配到目标硬件(迁移)上,以实现高效部署的技术。其核心是将FP32模型转换为INT8等低精度格式,减少75%的体积和内存占用,同时利用硬件专用加速器提升推理速度、降低功耗。量化迁移面临精度损失与硬件兼容性等挑战,但通过训练后量化或量化感知训练等方法,可在资源受限的边缘设备上实现轻量高效的AI应用部署,推动从云端到终端的技术落地。原创 2025-10-06 08:58:50 · 343 阅读 · 0 评论 -
agenthub\codeact_agent\action_parser.py
这段代码实现了一个灵活的动作解析系统,能够根据不同的动作标签解析并执行相应的动作。通过使用多个子解析器和一个默认解析器,系统能够处理多种类型的动作,并确保在解析过程中的一致性和正确性。原创 2024-07-17 05:31:38 · 899 阅读 · 1 评论 -
可学习激活函数 Maxout
假设输入是向量x,通过权重矩阵W_i和偏置向量b_i进行线性变换,对于某一层的第i个神经元,`Maxout` 函数的定义如下:其中:x是输入向量。W_i是第i个线性变换的权重矩阵。b_i是第i个线性变换的偏置向量。k是一个超参数,表示我们允许的线性变换的数量。原创 2024-07-16 00:06:13 · 1014 阅读 · 2 评论 -
大语言模型系列-Transformer
3. XLNet(eXtreme Multi-task Learning for Efficiently Scalable and Accurate Multi-task Learning)- XLNet是一种基于自回归模型的语言模型,它采用了一种新的预训练方法,称为Permutation Language Modeling(PLM),能够在不损失自回归能力的情况下处理任意长度的文本序列。具体来说,DETR利用Transformer架构中的自注意力机制,来对图像特征进行全局编码,并生成一组潜在的检测结果。原创 2024-07-06 08:35:36 · 1171 阅读 · 2 评论 -
目标检测算法
1. R-CNN(Region-based Convolutional Neural Network)系列算法:包括 R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN,这些算法都是以区域建议网络 (RPN) 作为基础,使用卷积神经网络进行特征提取和分类。5. EfficientDet:EfficientDet是一种高效的目标检测算法,它基于EfficientNet网络结构,通过使用一系列特征金字塔网络和轻量级的检测头,实现了更高的检测精度和更低的计算开销。原创 2024-07-05 23:31:57 · 1392 阅读 · 1 评论 -
大语言模型系列-Transformer
自动生成文章或新闻的摘要。原创 2024-06-22 03:35:52 · 1694 阅读 · 1 评论 -
一文看懂llama2(原理&模型&训练)
理解一个机器学习模型(如假设的llama2)的关键在于掌握其原理、模型结构和训练过程。这涉及到从数据中提取特征,选择合适的模型架构,定义损失函数,以及使用优化算法来训练模型。通过这些步骤,模型能够从数据中学习并做出准确的预测。原创 2024-06-13 07:44:00 · 2558 阅读 · 0 评论 -
深度解读ChatGPT基本原理
ChatGPT通过结合大规模预训练的Transformer模型、特定任务的微调技术,以及可能的RLHF等高级训练策略,实现了高水平的自然语言理解和生成能力。它不仅代表了自然语言处理技术的重大进步,也预示着人工智能在人机交互领域的新时代。然而,其工作原理的具体细节,如确切的训练数据集、微调策略和评估反馈机制,由于技术保密原因,外界了解有限。深入解读 ChatGPT 的基本原理(个人总结版)_chatgpt架构-优快云博客深入浅出,解析ChatGPT背后的工作原理-人工智能-PHP中文网。原创 2024-06-05 08:43:25 · 1912 阅读 · 0 评论 -
解决cannot import name ‘prepare_model_for_int8_training‘ from ‘peft‘ 错误
出现“cannot import name ‘prepare_model_for_int8_training‘ from ‘peft‘”错误通常表示你尝试从 Python 包 peft 导入一个不存在的函数 prepare_model_for_int8_training。如果在尝试上述建议后问题仍未解决,你可能需要提供更详织的信息,例如 peft 包的版本号、安装方式或是你尝试导入该函数的代码片段,以便能够提供更具体的帮助。请检查你是否安装了正确的包,并检查你的环境路径是否包含了该包。原创 2024-05-30 18:55:10 · 3752 阅读 · 3 评论 -
unpermute_kernel_backward<<<num_blocks, block_size>>>(scratch, dout, B, T, NH, HS);
这行代码是用来调用一个名为unpermute_kernel_backward`的CUDA kernel,其中`num_blocks`是grid中block的数量,`block_size`是每个block中thread的数量。其中`hipLaunchKernelGGL`是用于启动kernel的宏,`dim3(num_blocks)`和`dim3(block_size)`指定了block和grid的维度,后面的两个0分别对应了共享内存大小和流(stream),尽管这里它们被设置为0,表示使用默认值。原创 2024-05-30 18:46:43 · 688 阅读 · 0 评论 -
情感分析及数据集代码解析
11. 最后定义了一个函数`load_data_imdb`,它下载数据集、读取数据、分词、建立词汇表、处理文本为固定长度的序列,并返回训练和测试的数据迭代器以及词汇表供后续的神经网络模型使用。标签为'neg'表示消极的评论,使用0表示。7. 准备数据迭代器:数据被截断或填充至指定的序列长度(这里是500个单词),然后使用`d2l.load_array`函数将处理后的数据和标签封装成小批量的数据迭代器。1. 导入所需的包和模块,如`os`、`torch`、`nn`以及一个定制的深度学习库`d2l`。原创 2024-05-28 11:52:29 · 911 阅读 · 2 评论 -
windows ollama 指定模型下载路径
打开任务管理器,转到“进程”标签(或Windows 10及更高版本的“详细信息”标签),找到与"Ollama"相关的进程,右键点击并选择“结束任务”。如果使用的是某些特定的IDE或代码编辑器,它们可能有自己的方式来设置环境变量。在Windows系统中,如果想为Ollama指定模型的下载路径,可以通过设置环境变量来实现。在设置环境变量时,确保路径是正确的,并且有足够的权限来访问和写入该目录。在“系统变量”或“用户变量”部分,点击“新建”来创建一个新的环境变量。右键点击“此电脑”或“计算机”,选择“属性”。原创 2024-05-28 11:51:11 · 28910 阅读 · 0 评论 -
使用LoRA进行高效微调:基本原理
选择一个预训练的神经网络模型,例如ResNet、Transformer等。为了简单起见,您可以选择一个轻量级的卷积神经网络(CNN)。原创 2024-05-26 07:25:33 · 7737 阅读 · 6 评论 -
ROCm上来自Transformers的双向编码器表示(BERT)
需要注意的是,这个代码片段作为一个解析,但实际中运行它需要额外的上下文(例如 MaskLM 类的实现)和适当的数据准备和预处理步骤。9. 模型实例化后,通过随机生成的 tokens 和 segments 调用其 forward 方法,得到编码后的向量 encoded_X,同时执行MLM和NSP任务,输出预测结果。6. MaskLM 类未在代码中定义,通常用来实现BERT的掩码语言模型任务,它在一定比例的输入词元上应用掩码,并训练模型来预测这些被掩码的词元。原创 2024-05-26 07:24:28 · 1069 阅读 · 0 评论 -
ROCm上情感分析:使用循环神经网络
LSTM层(`encoder`)设定为双向,输出经过全连接层(`decoder`)得到最终的分类结果。整体来看,这段代码主要是利用循环神经网络对电影评论的情感进行分类,它通过加载预训练好的词向量,构建一个双向LSTM网络,并在IMDB评论数据集上进行训练和测试。加载IMDB电影评论数据集,并用迭代器`train_iter`和`test_iter`进行训练和测试。`vocab`是数据集的词汇表。这里导入了PyTorch库、神经网络模块`nn`和基于PyTorch的深度学习库`d2l`(深度学习的一本书)。原创 2024-05-25 05:45:19 · 595 阅读 · 4 评论 -
ROCm上运行网络中的网络(NiN)
使用`nn.Sequential`定义了NIN的网络结构,它由多个`nin_block`和`MaxPool2d`、`Dropout`等层经过堆叠后形成,并且在网络最后使用全局平均池化层`AdaptiveAvgPool2d`代替全连接层,然后将输出扁平化(`Flatten`)以匹配类别标签数量。导入了PyTorch的核心库,用于构建网络模型和数据处理,以及`d2l`作为`Dive into Deep Learning`书的辅助工具包,用于加载数据和模型训练等功能。原创 2024-05-24 08:27:14 · 1079 阅读 · 1 评论 -
ROCm上运行情感分析:使用卷积神经网络
TextCNN模型通过嵌入层(`nn.Embedding`)将单词映射到低维空间,然后使用卷积层(`nn.Conv1d`)提取局部特征,最后通过一个全连接层(`nn.Linear`)进行分类。调用预测函数`predict_sentiment`测试模型效果,传入模型、词汇表和待预测的句子,函数会输出句子的情感倾向(正面或负面)。`train_ch13`函数来自`d2l`工具箱,负责模型的训练过程。通过`apply`函数将初始化操作`init_weights`应用到模型的每个子模块上。原创 2024-05-24 08:25:44 · 516 阅读 · 0 评论 -
ROCm上运行Transformer
总之,此段代码整体上展示了如何构建 Transformer 模型,训练它进行机器翻译任务,并对其内部的注意力机制进行可视化,帮助我们了解模型是如何工作的。接下来,代码段处理解码器的两组注意力权重:解码器的自注意力权重和编码器-解码器之间的注意力权重。这将为每个头展示编码器-解码器注意力的热图,显示了当生成翻译的每个词元时,模型对输入句子中不同词元的关注分布。显示了解码器自注意力权重的热图,其中包括了当前词元和前面所有已生成的词元之间的关注关系。在代码的后面部分,实现了对注意力权重的可视化。原创 2024-05-23 07:42:40 · 1478 阅读 · 4 评论 -
自然语言推断与数据集代码解析
文本数据会被截断或补齐到一定长度。3. 实现`read_snli`函数,用于读取SNLI数据集,并将其解析为前提(premises)、假设(hypotheses)以及对应的标签(labels)。7. 定义`load_data_snli`函数,它使用上面定义的`SNLIDataset`类来创建训练和测试数据迭代器,同时返回构建的词汇表(vocab)。值得注意的是,这个代码的部分注释标签是`#@save`,这是d2l包中用于标记某个代码块或函数将会被保存并在后续使用中重新加载的一个特殊注释。原创 2024-05-22 08:22:19 · 754 阅读 · 1 评论 -
ROCm上运行预训练BERT
此外,由"#<save>"标记的部分,是保存函数定义的提示,便于以后的复用。请注意,由于硬件和软件的快速发展,具体的安装和配置步骤可能会随着时间而变化,因此建议查阅最新的ROCm和相关深度学习框架的官方文档。因此,在使用ROCm时可能会遇到一些挑战和限制。此外,由于ROCm和BERT都是不断发展的技术,建议您查阅最新的官方文档和社区讨论,以获取最准确的安装和运行指南。要在ROCm上运行预训练的BERT模型,您需要确保您的系统已经安装了支持ROCm的TensorFlow版本,并且已经正确配置了相关的环境。原创 2024-05-19 05:24:52 · 1219 阅读 · 1 评论 -
ROCm上运行自然语言推断:使用注意力
具体来说,如果你在PyTorch中实现或运行NLI模型,并且想要确保它能在ROCm环境下运行,你需要确保安装了PyTorch的ROCm版本,并且所有使用到的功能和算子都是ROCm兼容的。因此,在ROCm上进行开发可能需要更多的实验和调试。看起来你可能在尝试恢复一个自然语言推断(NLI)模型的训练或推理过程,该模型可能使用了注意力机制,并且是在ROCm平台上运行的。在ROCm(AMD的开源GPU加速计算平台)上运行自然语言推断(NLI)任务,特别是使用注意力机制,通常涉及深度学习模型的构建和训练。原创 2024-05-19 05:16:46 · 1086 阅读 · 0 评论 -
ROCm上运行自然语言推断:微调BERT
SNLIBERTDataset类处理SNLI数据库的数据,用于BERT的使用,分词数据集中的前提和假设,并创建相应的令牌ID和段ID作为模型的输入。- 使用`d2l`的`train_ch13`函数来训练模型,传入定义的网络、训练和测试迭代器、损失函数、训练器、训练周期数和设备配置。10. 使用定义的训练迭代器、损失函数、优化器以及`d2l`提供的训练工具来对SNLI数据库中的BERT分类器模型进行训练。2. 从指定的`d2l.DATA_HUB`下载预训练模型(BERT基础版和BERT小型版)。原创 2024-05-17 07:09:21 · 1071 阅读 · 0 评论 -
ROCm上运行深度卷积神经网络(AlexNet)
如果你要在支持ROCm的AMD GPU上运行深度学习模型(例如AlexNet),你需要确保ROCm已经安装在你的系统中,并且PyTorch与ROCm兼容。它使用PyTorch框架中的API来实现,并且模仿了AlexNet的一般结构,这是一个著名的网络结构,常用于图像识别任务。然而,确保环境设置正确是至关重要的。3. 查看各层输出:通过遍历网络的每一层,输入一个随机生成的数据`X`(尺寸为1x1x224x224,代表一批大小为1的224x224像素的单通道图像),并打印各层的输出形状。原创 2024-05-17 07:02:59 · 882 阅读 · 0 评论 -
win10用pip安装mxnet-cu101、mxnet-cu102
pip --default-timeout=1000 install --upgrade mxnet-cu101 -i https://pypi.tuna.tsinghua.edu.cn/simple/或者pip install --pre mxnet-cu101 -i https://pypi.douban.com/simple。。。参考:https://blog.youkuaiyun.com/mod_13/article/details/105490656https://blog..原创 2021-01-13 18:20:32 · 3259 阅读 · 3 评论 -
Win10编译gpu mxnet
安装CUDA和cudnn后,开始编译mxnet。1. 下载源码git clone --recursive https://github.com/apache/incubator-mxnet mxnet或者用代理:git clone --recursive https://g.0x6.xyz/https://github.com/apache/incubator-mxnet mxnet如果子模块下载慢,修改.gitmodules文件,使子模块用代理:[submodule "3rdpa原创 2021-02-18 13:16:05 · 615 阅读 · 2 评论 -
mxnet安装
以上步骤涵盖了在不同操作系统和配置下安装MXNet的基本流程。在安装过程中,请确保遵循适用于您系统的特定指南,并根据需要选择合适的CPU或GPU版本的MXNet。安装完成后,您可以通过运行测试脚本来验证MXNet是否正确安装并配置【3】【4】。原创 2024-04-10 08:00:56 · 1640 阅读 · 0 评论 -
ubuntu20安装mxnet gpu参考汇总
The setup of nvidia.persistenced is formulated as follows.1. check the status of nvidia-persistenced$ sudo systemctl status nvidia-persistenced2. Enable nvidia-persistenced$ sudo systemctl enable nvidia-persistenced3. Reboot for execution$ sudo原创 2021-03-06 09:07:16 · 615 阅读 · 1 评论 -
深度学习知识点全面总结
随着研究的深入,还会有更多高级的模型和算法被开发出来,推动深度学习技术的进步,以解决更加复杂的问题。深度学习是机器学习领域中的一个新方向,主要是通过学习样本数据的内在规律和表示层次,让机器能够具有类似于人类的分析学习能力。神经网络(Neural Networks):这是深度学习的基础,由大量的神经元(或称为节点)按照不同的层次组织起来,每个神经元都与前一层的所有神经元相连。深度学习是机器学习的一个分支,它通过构建多层的神经网络来模拟人脑处理信息的方式,从而实现对复杂数据的高效处理和分析。原创 2024-05-13 08:02:31 · 1427 阅读 · 2 评论
分享