
人工智能
文章平均质量分 69
吴脑的键客
凡人修仙,AGI散修。领域展开——四海皆兄弟!!!
展开
-
阿里通义千问QVQ-Max视觉推理模型:开启多模态推理新纪元
在人工智能领域,多模态推理一直是研究的热点和难点。随着技术的不断进步,如何让机器像人类一样,通过视觉、文本等多种模态信息进行深度思考和推理,成为了众多科研团队追求的目标。近日,阿里通义千问团队推出的QVQ-Max视觉推理模型,为这一领域带来了新的突破和惊喜。原创 2025-03-29 09:06:33 · 518 阅读 · 0 评论 -
阿里通义千问开源发布新一代端到端多模态模型Qwen2.5-Omni
我们对 Qwen2.5-Omni 进行了全面评估,与类似规模的单模态模型和封闭源模型(如 Qwen2.5-VL-7B、Qwen2-Audio 和 Gemini-1.5-pro)相比,Qwen2.5-Omni 在所有模态中都表现出强劲的性能。此外,在单模态任务中,它在语音识别(Common Voice)、翻译(CoVoST2)、音频理解(MMAU)、图像推理(MMMU、MMStar)、视频理解(MVBench)和语音生成(Seed-tts-eval 和主观自然度)等领域表现出色。原创 2025-03-27 10:12:10 · 1258 阅读 · 0 评论 -
王炸!DeepSeek-V3-0324悄然发布:6850亿参数免费商用,Mac也能跑的编程神器
DeepSeek-V3-0324的震撼,不仅在于技术指标的飞跃,更在于它证明了顶级AI可以同时做到开源、免费、高性能。当硅谷还在争论"闭源模型是否更安全"时,DeepSeek用代码向世界宣告:真正的技术革命,永远属于那些把星辰大海写进开源协议的人。现在,打开你的Mac,启动那个352GB的模型文件吧——AI编程的全民时代,已经来临。原创 2025-03-25 11:54:26 · 2105 阅读 · 0 评论 -
新测试挑战 AI 智能水平:ARC-AGI-2 让顶尖模型碰壁
根据 Arc Prize 排行榜,诸如 OpenAI 的 o1-pro 和 DeepSeek 的 R1等 “推理型” AI 模型在 ARC-AGI-2测试中的得分仅在1% 到1.3% 之间,而更为强大的非推理模型,例如 GPT-4.5、Claude3.7Sonnet 和 Gemini2.0Flash 的得分也大约在1%。与此同时,Arc Prize 基金会还宣布了2025年的 Arc Prize 竞赛,挑战开发者在 ARC-AGI-2测试中达到85% 的准确率,而每个任务的花费仅为0.42美元。原创 2025-03-25 11:40:54 · 378 阅读 · 0 评论 -
AMD推出开源项目“GAIA”实现本地大模型高效运行
AMD宣布推出专为本地运行大语言模型(LLM)设计的开源应用GAIA,目前支持Windows平台。GAIA是一款生成式AI应用,可在Windows PC上实现本地化私密运行LLM,并针对锐龙AI 300系列处理器进行了优化。GAIA基于ONNX TurnkeyML的Lemonade SDK开发,采用检索增强生成(RAG)技术,支持Llama、Phi等主流模型。AMD提供普通版和混合版安装方案,普通版兼容任意Windows设备,混合版专为锐龙AI 300系列优化。原创 2025-03-24 09:12:35 · 245 阅读 · 0 评论 -
腾讯混元自研深度思考模型「T1」正式发布
混元T1正式版在大规模强化学习的基础上,针对数学、逻辑推理、科学和代码等理科难题进行了专项优化,从而实现了推理能力的显著提升。同时,在CEval、AIME、Zebra Logic等中英文知识及竞赛级数学、逻辑推理的公开基准测试中,混元T1也展现出了业界领先推理模型的水平。这是工业界首次将混合Mamba架构无损应用于超大型推理模型,有效降低了传统Transformer结构的计算复杂度,减少了KV-Cache的内存占用,从而显著降低了训练和推理成本。近日,腾讯正式推出了其自研的深度思考模型——混元T1正式版。原创 2025-03-24 08:44:42 · 238 阅读 · 0 评论 -
运动可控!阶跃星辰 Step-Video-TI2V 图生视频模型开源
首先,引入图像条件以提高生成视频与原图的一致性。与传统的cross-attention方法不同,该模型采用了更直接的方式,将图像对应的向量表示与DiT第一帧对应的向量表示直接进行channel维度的拼接,从而确保生成的视频与输入图片高度一致。与现有的开源图生视频模型相比,Step-Video-TI2V不仅在参数规模上提供了更高的上限,其运动幅度可控能力还能平衡视频生成结果的动态性和稳定性,为创作者提供了更灵活的选择。同时,它支持多种尺寸的图生视频,无论是横屏、竖屏还是方屏,都能满足不同平台的需求。原创 2025-03-21 10:01:20 · 562 阅读 · 0 评论 -
Meta杨立昆:人类将是未来AI的主人,而不是被其毁灭
3月19日,商业内幕报道,Meta首席人工智能科学家杨立昆表示,超级AI即将到来,但至少目前它不会取代人类。杨立昆周二在GTC大会上表示:“嗯,在某些时候AI可能会取代人类,但我认为人们不会接受这种情况,对吧?我的意思是,我们与未来的AI系统的基本关系是,我们将成为它们的老板。我们会有一群超级聪明、出色的AI员工为我们工作。我不知道你们怎么想,但我喜欢和比我聪明的人一起工作。这是世界上最棒的事情。”包括OpenAI的山姆・奥特曼和xAI的马斯克在内的人工智能行业领袖,常常将超级AI的出现描述为人类的关键时原创 2025-03-21 09:40:09 · 213 阅读 · 0 评论 -
LG开源EXAONE Deep模型,号称韩国首个自研推理AI模型
除了强大的32B版本,LG AI Research 还同步开源了“轻量级模型 EXAONE Deep-7.8B”和“端侧模型 EXAONE Deep-2.4B”。轻量级模型在只有32B模型 24% 大小的情况下,竟然保持了高达 95% 的性能。而更小巧的端侧模型,在只有 7.5% 大小的情况下,也拥有 86% 的性能。LG AI Research 的官方人士还透露,早在今年二月份,他们就预告了即将开源DeepSeek R1级别模型的计划,如今看来是“说到做到”。,超越了同等参数规模的其他推理AI模型。原创 2025-03-20 14:03:08 · 908 阅读 · 0 评论 -
NVIDIA新款 DGX Spark 和 DGX Station AI台式机将于今年夏天推出
DGX Spark 是 NVIDIA 3000 美元 Mac Mini 大小的"世界上最小的 AI 超级计算机"的新名称,在今年早些时候的 CES 上以"Digits"的名称发布。NVIDIA 并不是唯一一家在 GPU 上配备大量可用于本地 LLM 的统一内存的公司。同时,DGX Station 的尺寸更大,可容纳 NVIDIA 刚刚宣布的更强大的 GB300 Blackwell Ultra 桌面超级芯片,“可提供 20 petaflops 的 AI 性能和 784GB 的统一系统内存”。原创 2025-03-19 09:00:26 · 560 阅读 · 0 评论 -
摩尔线程重磅开源两大AI框架,国产GPU训练效率突破90%
最后,两个框架兼容GPU主流生态,既保障了现有生态的平滑迁移,也为开发者构建自有的AI技术栈提供了底层支撑。而MT-TransformerEngine则主攻Transformer模型的训练与推理优化,通过算子融合、并行加速策略等技术,有效释放了摩尔线程全功能GPU高密度计算的潜力,显著提升了memory bound算子的效率。这一系列技术突破与开源举措,不仅展示了摩尔线程在AI算力领域的实力,更为国产AI基础设施的发展开辟了新的可能性,让我们拭目以待其在AI模型训练领域带来的更多突破。原创 2025-03-19 08:20:15 · 428 阅读 · 0 评论 -
苹果新品Mac Studio搭载M3 Ultra芯片,高效运行DeepSeek R1大模型
它采用独特的“UltraFusion” 技术,将两颗 M3 Max 芯片融合,拥有最高32核 CPU、80核 GPU 以及32核神经网络引擎,最高支持512GB统一内存,内存带宽高达 819GB/s,性能远超前代 M2 Ultra 芯片。然而,如此强劲的性能也意味着不菲的价格。据国外知名科技博主 Dave Lee 测试,苹果最新推出的 Mac Studio 搭载 M3 Ultra 芯片,能够高效运行拥有6710亿参数的 DeepSeek R1 大模型,为AI开发与应用开辟了新的道路。原创 2025-03-18 16:24:07 · 486 阅读 · 0 评论 -
OLMo 2 32B Instruct:针对不同任务的强大语言模型
艾伦人工智能研究所(Ai2)最近发布了一个名为 OLMo 2 32B Instruct 的新语言模型,它是 OLMo-2 32B March 2025 模型的后训练变体。该模型已在聊天、数学、GSM8K 和 IFEval 等多种任务中进行了微调,是适用于各种应用的通用工具。原创 2025-03-17 09:41:21 · 799 阅读 · 0 评论 -
谷歌开源新一代多模态模型 Gemma-3:性能卓越、成本降低 10 倍
根据最新的测试数据,Gemma-3在各类对话模型的评比中表现不俗,仅次于知名的 DeepSeek 模型,超越了 OpenAI 的 o3-mini 和 Llama3等多个热门模型。在训练过程中,Gemma-3使用了更多的 token 预算,特别是在270亿参数模型中使用了14T 的 token 量,并引入了多语言数据,以增强模型的语言处理能力,支持140种语言,其中35种语言可以直接使用。此外,在对话能力评估中,Gemma-3的表现也名列前茅,显示了其在各项任务中的综合实力。原创 2025-03-15 14:41:51 · 349 阅读 · 0 评论 -
清华团队开源 “赤兔 Chitu” 推理引擎,助力国产 AI 生态发展
这一进展不仅推动了国产 AI 芯片的广泛应用,也为国内的 AI 生态建设提供了强有力的技术支持。在全球 AI 技术竞争日益激烈的背景下,清华团队的这一举措将为国内企业在 AI 领域的发展提供新的机会。此外,开源的方式也将吸引更多的开发者参与到 AI 的研发中,共同推动技术的进步。这一创新性技术的推出,标志着国内在 AI 领域的又一重要突破,尤其是在推理引擎的开发上。未来,期待有更多的企业和开发者能够借助这一工具,在 AI 的海洋中乘风破浪,开创属于中国的 AI 新时代。原创 2025-03-15 13:52:31 · 261 阅读 · 0 评论 -
大模型长文推理迎来“核弹级”提速!清华APBB框架狂飙10倍,Flash Attention直接被秒
还在为大模型处理长文本“龟速”而抓狂?别急!清华大学祭出“王炸”技术——APB 序列并行推理框架,直接给大模型装上“涡轮增压”引擎!实测显示,这项黑科技在处理超长文本时,速度竟比肩 Flash Attention 快10倍!没错,你没听错,是10倍!要知道,随着 ChatGPT 等大模型的爆火,AI 们“阅读”能力也水涨船高,动辄处理十几万字的长文不在话下。原创 2025-03-14 08:42:59 · 722 阅读 · 0 评论 -
【AI Agents 大解密】Manus AI系统提示词泄露!
Manus 的联合创始人兼首席科学家季逸超表示,实际上,用户可以直接访问沙盒,每个会话都有独立的沙盒,彼此隔离。根据 jian 发布的内容显示,Manus 并不是一个独立的模型,而是基于 Claude Sonnet 构建的,同时配备了29种工具来辅助任务,但并未实现多智能体功能。除了不少团队开始复刻Manus以外,日前一位名为 jian 的用户对 Manus 系统进行了破解,简单地要求 Manus 输出 “/opt/.manus/” 目录下的文件,竟然成功获取了一些重要信息和运行代码。原创 2025-03-12 11:31:15 · 425 阅读 · 0 评论 -
【360拥抱开源】Light-R1-32B:低成本高性能的数学解题新星闪耀登场
2025年3月6日,一款名为的全新语言模型正式亮相。这款基于模型打造的数学解题利器,经过特别训练,以其卓越的数学解题能力、低廉的训练成本以及可复现性,成为人工智能领域的一大亮点。开发团队xAI表示,Light-R1-32B不仅在性能上超越同类模型,还为学术研究和实际应用提供了极具价值的参考。原创 2025-03-12 09:45:02 · 330 阅读 · 0 评论 -
李飞飞带领的 simplescaling 开源 s1.1 CoT模型(3B、7B、14B和32B)
测试时间扩展是一种很有前途的语言建模新方法,它利用额外的测试时间计算来提高性能。最近,OpenAI 的 o1 模型展示了这一能力,但并未公开分享其方法,这导致了许多复制工作。我们寻求最简单的方法来实现测试时间扩展和强大的推理性能。首先,我们策划了一个由 1000 个问题组成的小型数据集 s1K,并根据我们通过消融验证的三个标准(难度、多样性和质量)对推理轨迹进行配对。其次,我们开发了预算强制功能,通过强制终止模型的思考过程或在模型生成时多次附加 "等待 "来延长思考过程,从而控制测试时间的计算。原创 2025-03-12 09:41:30 · 583 阅读 · 0 评论 -
【百度重新拥抱开源】百度AI开源表格识别模型PP-TableMagic
而新一代表格结构识别模型SLANeXt则在表格HTML结构解析方面表现出色,相比前代模型SLANet和SLANet_plus,SLANeXt使用了更强的特征表征能力的Vary-ViT-B作为视觉编码器,进一步提升了表格结构识别的准确性。在实际应用中,PP-TableMagic不仅能够直接处理表格,还能通过定制化的模型微调满足不同场景的需求。PP-TableMagic旨在解决传统表格识别技术在复杂场景下的局限性,通过创新的多模型组网架构,实现了高精度的端到端表格识别,并支持全场景高定制化的模型微调。原创 2025-03-12 09:22:38 · 1051 阅读 · 0 评论 -
NVIDIA RTX PRO 6000专业卡参数首曝:600W双风扇 超大96GB显存
NVIDIA新一代工作站显卡RTX PRO 6000的相关参数配置终于浮出水面。这款显卡采用了Blackwell架构,配备96GB的GDDR7显存,显存位宽为512bit,这也意味着其将是首款采用3GB GDDR7模块的桌面显卡。不过还是采用了双风扇散热,类似于RTX 5090的双流散热方案,此外显卡还采用了PCIe 5.0 x16接口,并配备了四个DisplayPort 2.1接口。值得注意的是,这款显卡的显存支持ECC(错误校正)功能,这对于需要高可靠性和稳定性的专业应用场景至关重要。原创 2025-03-10 06:30:00 · 307 阅读 · 0 评论 -
2024年图灵奖公布:两位AI先锋因强化学习获奖
据《纽约时报》报道,全球最大的计算机专业人士协会计算机协会(ACM)周三宣布,将2024年图灵奖授予安德鲁·巴托(Andrew Barto)博士和理查德·萨顿(Richard Sutton)博士,以表彰他们在强化学习方面的研究。他们一起努力用这个简单的概念来解释人类的智力,并将其应用于AI领域。“他们是强化学习领域无可争议的先锋,”华盛顿大学计算机科学荣誉退休教授、艾伦AI研究所创始人兼CEO奥伦·埃特齐恩(Oren Etzioni)表示,“他们提出了关键理念,并且撰写了这方面的权威著作。原创 2025-03-07 07:41:37 · 432 阅读 · 0 评论 -
阿里开源新模型:仅用1/20参数比肩满血DeepSeek-R1 可在消费级显卡部署
3月6日凌晨,阿里云发布并开源全新的推理模型通义千问QwQ-32B。官方称,这个新模型仅仅拥有320亿参数,但在性能上比肩6710亿参数的满血版DeepSeek R1。目前,阿里云并未发布还完整技术报告,但官方数据显示,QwQ-32B仅在编程竞赛(LiveCodeBench)和美国数学竞赛(AIME24)两项略逊于满血的DeepSeek-R1,其余三项则全面超越。此外更是碾压完全超越了OpenAI-o1-mini。原创 2025-03-07 07:38:21 · 1140 阅读 · 0 评论 -
第六天:还有一件事,DeepSeek-V3/R1 推理系统概述
在人工智能(AI)技术快速发展的今天,DeepSeek 团队推出了其全新的 DeepSeek-V3/R1推理系统。这一系统旨在通过更高的吞吐量和更低的延迟,推动 AGI(通用人工智能)的高效发展。为了实现这一目标,DeepSeek 采用了跨节点专家并行(Expert Parallelism,EP)技术,显著提高了 GPU 的计算效率,并在降低延迟的同时,扩展了批处理规模。原创 2025-03-05 07:30:00 · 1037 阅读 · 0 评论 -
DeepSeek 开放源码周第五天:3FS
3FS的核心是一个并行文件系统,旨在以无与伦比的速度处理海量数据集。如果您从事过人工智能培训、大数据处理或任何涉及大规模数据的项目,您就会知道快速数据访问有多么重要。传统的文件系统往往会成为瓶颈,拖慢工作流程,让您等待文件加载。3FS 通过将数据分布到多个节点来消除这些瓶颈,从而实现同步访问并显著降低延迟。将其视为数据管道的涡轮增压器。无论您是将数据输入人工智能模型、预处理 TB 级信息,还是管理游戏开发中的大型资产,3FS 都能确保您的数据操作以最高效率运行。原创 2025-03-05 06:30:00 · 1003 阅读 · 0 评论 -
DeepSeek 开放源码周第 4 天:DualPipe 和 EPLB
DeepSeek开源周第四天的活动到此结束。借助DualPipe和EPLB,DeepSeek正在大胆地优化人工智能训练,使其更快、更高效,并且人人都能使用。得益于他们的开源方法,我们都成为了这一激动人心的旅程的一部分。那么,您的下一步行动是什么?您准备好将这些工具整合到您的项目中了吗?请在下方留言,告诉我们您是如何使用 DeepSeek 的创新成果的。下次再见,继续建设,继续探索,让我们拭目以待人工智能将我们带向何方!原创 2025-03-04 07:00:36 · 1155 阅读 · 0 评论 -
DeepSeek 开放源码周第三天:DeepGEMM
如果您热衷于人工智能创新和前沿工具,DeepSeek 的开源周第 3 天活动一定不能错过。他们刚刚发布了,这是一个 FP8 GEMM 库,将重新定义人工智能训练和推理的格局。作为开发人员,这一版本尤其令人兴奋,因为它解决了现代人工智能系统中一些最关键的瓶颈问题。原创 2025-03-04 06:30:00 · 884 阅读 · 0 评论 -
✨Deepseek开放源代码周第二天:解压DeepEP✨
DeepEP不仅仅是人工智能生态系统中的另一种工具,它还是朝着使 MoE 模型更加高效、可扩展和可访问方向迈出的一步。随着人工智能模型日益复杂,DeepEP等工具将帮助开发人员迎难而上,同时促进社区的协作性和开放性。原创 2025-03-03 09:05:40 · 1114 阅读 · 0 评论 -
Deepseek 开放源码周以 FlashMLA(包括 Github 代码库)拉开帷幕
虽然DeepSeek开源周的狂欢已经谢幕了,但是由我来帮各位回顾一下。Deepseek 以 FlashMLA 这一重要版本拉开了开源周的序幕。作为一名开发人员,我很高兴能深入了解这款新内核是如何彻底改变人工智能性能和 GPU 优化的,特别是针对英伟达™(NVIDIA®)的 Hopper GPU。让我们来分析一下 FlashMLA 是如何改变游戏规则的。原创 2025-03-03 08:39:53 · 1570 阅读 · 0 评论 -
谷歌推免费AI编程助手Gemini Code Assist 每月18万次代码补全
更令人振奋的是,Gemini Code Assist 全面支持所有主流编程语言,无论是 Python、Java、JavaScript、C++、Go、Rust 等常用语言,还是其他小众语言,Gemini Code Assist 都能完美驾驭,为开发者提供全方位的语言支持,彻底打破语言壁垒,让开发者可以自由选择自己擅长的语言进行创作。它拥有高达128k 的上下文窗口,能够深度理解大型本地代码库,精准捕捉代码上下文信息,从而提供更智能、更精准的代码补全建议,大幅提升代码生成的准确率和效率。原创 2025-02-28 11:53:14 · 563 阅读 · 0 评论 -
字节跳动 AI 编程产品 Trae 国内版下周将在中国上线
Trae AI IDE由字节跳动旗下新加坡公司SPRING PTE提供服务,功能丰富,包括AI问答、代码自动补全以及基于Agent的AI编程等。此外,对于需要快速构建项目的团队而言,Trae的聊天构建模式也能提供显著帮助,让团队协作更加顺畅。近日,字节跳动技术团队宣布,其面向开发者的全新AI编程产品——Trae AI IDE,将于下周正式进入中国内地市场。这款IDE作为国内首个AI中文集成开发环境,旨在深度理解中文开发场景,为开发者提供智能协作支持。原创 2025-02-28 10:25:01 · 597 阅读 · 0 评论 -
微软发布 Phi-4 迷你模型,适合本地部署ChatBot
Phi-4-mini-instruct是一个轻量级的开放模型,它建立在合成数据和经过筛选的公开网站基础上,重点关注高质量、推理密集的数据。该模型属于 Phi-4 模型系列,支持 128K 标记上下文长度。该模型经历了一个增强过程,包含了监督微调和直接偏好优化,以支持精确的指令遵循和稳健的安全措施。原创 2025-02-28 10:00:15 · 1350 阅读 · 0 评论 -
微软向所有Copilot用户免费提供Copilot Voice和Think Deeper
此前,Think Deeper(由 o1 提供支持)和 Copilot 中的 Voice 对免费用户都有限制,但微软今天取消了这些限制,以允许 Copilot 用户与该公司的 AI 助手进行长时间对话。微软继续以每月 20 美元的价格销售 Copilot Pro 订阅,并表示用户“将在高峰使用期间保留对我们最新型号的优先访问权、提前访问实验性 AI 功能(更多信息即将发布),以及在 Word、Excel 和 PowerPoint 等精选 Microsoft 365 应用程序中额外使用 Copilot。原创 2025-02-26 09:51:59 · 197 阅读 · 0 评论 -
阿里通义千问推出推理模型QwQ-Max预览版 可在qwen.ai域名体验
与以往不同的是,此次开源不仅包括模型本身,还涵盖了更小的版本,如QwQ-32B,这些版本可以部署在本地设备上,进一步推动AI技术的普及和应用。2月25日,阿里巴巴宣布推出基于Qwen2.5-Max的推理模型QwQ-Max-Preview,并计划全面开源其最新推理模型QwQ-Max和Qwen2.5-Max。此次开源的QwQ-Max和Qwen2.5-Max模型,预计将为开发者和企业提供更强大的推理能力,特别是在代码生成、多模态处理和复杂任务解决方面。原创 2025-02-26 09:33:10 · 667 阅读 · 0 评论 -
360智脑发布Tiny-R1-32B:5%参数逼近Deepseek-R1满血性能
360智脑团队与北京大学联合研发的中等量级推理模型 Tiny-R1-32B-Preview 正式发布。这一模型仅以5%的参数量,成功逼近了 Deepseek-R1-671B 的满血性能,展现了小模型在高效推理领域的巨大潜力。该模型在多个关键领域的表现尤为突出。在数学领域,Tiny-R1-32B-Preview 在 AIME2024评测中取得了78.1分的成绩,与原版 R1模型的79.8分相当接近,远超 Deepseek-R1-Distill-Llama-70B 的70.0分。原创 2025-02-26 09:29:34 · 1401 阅读 · 0 评论 -
【月之暗面Kimi拥抱开源】Muon 可扩展用于LLM训练
最近,Muon 优化器在训练小规模语言模型方面取得了很好的效果,但对更大规模模型的可扩展性尚未得到证实。重量衰减:对于扩展到更大的模型至关重要一致性均方根更新:对模型更新执行一致的均方根。这些技术使 Muon 能够在大规模训练中开箱即用,无需进行超参数调整。缩放规律实验表明,Muon 是∼2×∼2×比亚当计算最优训练的采样效率更高。基于这些改进,我们推出了Moonlight,一个使用 Muon 以 5.7T 标记训练的 3B/16B 参数专家混合(MoE)模型。原创 2025-02-24 09:02:11 · 1082 阅读 · 0 评论 -
AI大语言模型幻觉排行榜:Gemini 2.0 Flash幻觉最低
在最新的排行榜中,谷歌的 Gemini2.0系列表现出色,尤其是 Gemini-2.0-Flash-001,以0.7% 的低幻觉率位居榜首,显示出其在处理文档时几乎没有引入虚假信息。此外,Gemini-2.0-Pro-Exp 和 OpenAI 的 o3-mini-high-reasoning 模型分别以0.8% 的幻觉率紧随其后,表现同样不俗。报告还显示,尽管许多模型的幻觉率有所上升,但大部分仍保持在一个较低的水平,且多模型的事实一致性率均在95% 以上,表明它们在确保信息真实方面的能力相对强劲。原创 2025-02-24 06:15:00 · 1182 阅读 · 0 评论 -
Meta 宣布举办首届生成式 AI 开发者大会 LlamaCon,聚焦 Llama 系列模型
此外,Meta 还计划在今年内对 AI 项目投入高达800亿美元,这笔资金将用于招聘 AI 相关人员及建设新的 AI 数据中心,以确保在未来的竞争中保持领先。Meta 公司近日宣布,将于4月29日举行首届 LlamaCon 开发者大会,专注于其 Llama 系列生成式 AI 模型的最新进展。在这场即将到来的大会上,Meta 计划展示多项与 Llama 模型相关的新功能和技术进展。LlamaCon 的召开,无疑将为开发者提供更多的交流与合作机会,同时也将展示 Meta 在开源 AI 领域的努力与成果。原创 2025-02-21 07:03:08 · 348 阅读 · 0 评论 -
秘塔科技推出 “先想后搜” 研究模式,引领AI搜索新趋势
与传统的研究方式相比,专业研究者往往需要数天的时间来收集和整理资料。然而,秘塔的这一新模式能够在短时间内完成浅度研究(Shallow Research),这对于那些需要快速收集信息以进行初步分析的用户来说,无疑是一个福音。举个例子,如果用户想要计算制造一台《流浪地球》中的行星发动机所需的费用,模型会自动制定研究步骤,并参考288篇相关文献,快速得出结论。值得一提的是,秘塔科技表示,他们的研究模式仍在不断优化之中,未来将会加入更多的功能,如代码执行与数值分析等,进一步提升 AI 的研究能力。原创 2025-02-19 09:51:39 · 658 阅读 · 0 评论 -
【百度拥抱开源】李彦宏回应开源文心4.5:DeepSeek让我们明白要开源
李彦宏强调,文心大模型4.5系列是百度有史以来最先进的模型,公司希望通过开源这一举措,让用户和客户能够更轻松地试用和体验其卓越性能。他解释称,当一个模型被开源后,人们的好奇心会驱使他们进行尝试,这种自然的探索行为有助于模型更广泛地应用于实际场景中。他强调,百度开源文心大模型4.5系列,旨在推动该模型在更广泛的领域得到应用,从而充分发挥其潜在价值。近日,百度创始人李彦宏在百度2024年四季度及全年财报电话会上,就公司决定开源文心大模型4.5系列的原因进行了详细阐述。原创 2025-02-19 09:49:01 · 534 阅读 · 0 评论