新一代人工智能发力:深度学习技术正在改变互联网

百度首席科学家吴恩达在BIG TALK大会上阐述了深度学习技术如何改变互联网,包括语音识别、计算机视觉应用以及医疗影像等领域的发展。深度学习在医疗、教育和其他领域的应用也展示了其巨大潜力。
部署运行你感兴趣的模型镜像

新华网北京2月8日专电(记者周文林)“再过几年,我们将不再需要电视遥控器,而是可以直接用语音对电视下指令。这一切都得益于计算机视觉识别及语音识别技术的应用,其背后是以深度学习为代表的新一代人工智能技术的巨大贡献。”百度首席科学家吴恩达近日在最新一期BIG TALK论坛上说。

对于普通公众而言,人工智能似乎是一个较为遥远的概念,远不及那些生活中普遍接触的应用或产品更加熟悉。不过在最近几年里,深度学习技术在人工智能领域掀起了一场革命。它通过强大的模式识别形式,结束了人工智能长达十年未能有突破性进展的局面,正开始深入地改变人们的生活。正因如此,展示深度学习最新成果,成为本次BIG TALK大会的核心话题之一。

BIG TALK是国内知名的科技论坛,它致力于连接前沿科技和商业价值,解读未来趋势。本此大会吸引了百度首席科学家吴恩达、康奈尔大学创意机器实验室主任霍德·利普森及苹果公司联合创始人史蒂夫·沃兹尼亚克等众多国际知名专家。

作为全球深度学习领域的权威科学家,吴恩达表示,传统网络中的沟通大都是通过文字进行,但如今,沟通已越来越多地变成了图像和语音,特别是在移动互联网领域。“在过去几年中,我们认识到神经网络技术能帮助电脑识别和发送图像,神经网络模拟人脑,深度学习就是一种神经网络技术。”他表示,深度学习的快速发展使计算机视觉有了极大应用,电脑将可以像人类一样深度识别和理解复杂图像。“我们正在开发一个系统,输入图像后可以自动提供图解。百度是第一家使用现有的神经网络发明这项技术的公司,这种计算机视觉技术未来可以广泛应用于医学影像、图像搜寻等众多领域。”

在过去几年中,深度学习技术开始飞速发展,并在冲击和改变着医疗保险、教育及其他领域。“深度学习提速的根本原因在于我们建立了有效的深度学习算法。”吴恩达表示,在2010年,最大的神经网络有1000万个连接点,即模拟神经元和模拟线路连接。“几年前我开始了一个云项目,用1000台电脑建立十亿个连接点的神经元网络,但后来我意识到这是一项非常昂贵的技术,所以希望能用其他技术来代替这么多台电脑。”最终,吴恩达团队借助GPU技术,只用了三台电脑就建立了十倍于过去的庞大神经网络。资料显示,用GPU作为基础技术,百度目前已在硅谷及中国建立了越来越大的神经网络。“从百度的角度来说,我们是第一个将GPU技术应用到深度学习的公司,这就像是一个火箭引擎,能支撑我们完成很多深度学习的工作,很多公司正在追随我们的脚步。”

深度学习的另一重要进步体现在语音识别上。“在中国有很多年幼、年长的用户无法使用拼音打字搜索,所以语音是目前唯一可以让我们知道他们需求的搜索方式。”吴恩达表示,语音是互联网改革的一个重要因素,全世界都在改进移动互联网,在这个方面,中国领先于美国和其他国家很多。语音识别会对互联网带来更加个性的影响,包括汽车显示界面和家用电器等。同时,语音识别能力的提升,将推动整个产业界围绕语音界面来设计和创新产品。

(原标题:新一代人工智能发力:深度学习技术正在改变互联网)

netease 本文来源:新华网

您可能感兴趣的与本文相关的镜像

Dify

Dify

AI应用
Agent编排

Dify 是一款开源的大语言模型(LLM)应用开发平台,它结合了 后端即服务(Backend as a Service) 和LLMOps 的理念,让开发者能快速、高效地构建和部署生产级的生成式AI应用。 它提供了包含模型兼容支持、Prompt 编排界面、RAG 引擎、Agent 框架、工作流编排等核心技术栈,并且提供了易用的界面和API,让技术和非技术人员都能参与到AI应用的开发过程中

内容概要:本文介绍了基于贝叶斯优化的CNN-LSTM混合神经网络在时间序列预测中的应用,并提供了完整的Matlab代码实现。该模型结合了卷积神经网络(CNN)在特征提取方面的优势与长短期记忆网络(LSTM)在处理时序依赖问题上的强大能力,形成一种高效的混合预测架构。通过贝叶斯优化算法自动调参,提升了模型的预测精度与泛化能力,适用于风电、光伏、负荷、交通流等多种复杂非线性系统的预测任务。文中还展示了模型训练流程、参数优化机制及实际预测效果分析,突出其在科研与工程应用中的实用性。; 适合人群:具备一定机器学习基基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)础和Matlab编程经验的高校研究生、科研人员及从事预测建模的工程技术人员,尤其适合关注深度学习与智能优化算法结合应用的研究者。; 使用场景及目标:①解决各类时间序列预测问题,如能源出力预测、电力负荷预测、环境数据预测等;②学习如何将CNN-LSTM模型与贝叶斯优化相结合,提升模型性能;③掌握Matlab环境下深度学习模型搭建与超参数自动优化的技术路线。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注贝叶斯优化模块与混合神经网络结构的设计逻辑,通过调整数据集和参数加深对模型工作机制的理解,同时可将其框架迁移至其他预测场景中验证效果。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值