人工智能进入新的发展阶段

http://www.xinhuanet.com/tech/2019-06/12/c_1124609817.htm

 

□ 人工智能对科技、产业和社会变革的巨大潜力得到全球广泛认同,各国人工智能战略进一步升级,从少数大国关注走向全球布局

  □ 到2030年,我国有望在人工智能理论、技术与应用方面总体达到世界领先水平,成为世界主要人工智能创新中心

  □ 基础理论和原创算法积淀不够、关键元器件依赖进口、缺乏高水平开源开放平台等是我国在人工智能领域必须加快补齐的短板

  “人类正在走向智能时代。”日前,中国工程院院士、中国计算机学会理事长高文在“2019数博会”上表示,自2006年以来,随着大数据与人工智能持续融合,人工智能正步入新的发展阶段,“人工智能将是未来的核心关键技术”。

  如今,人工智能已成为国际竞争新焦点。数据显示,2018年,有12个国家和地区发布或加强了人工智能战略计划,另有11个国家正筹备制定其人工智能国家战略。

  日前发布的《中国新一代人工智能发展报告2019》显示,2018年以来,人工智能对科技、产业和社会变革的巨大潜力得到全球广泛认同,各国人工智能战略进一步升级,人工智能正在从少数大国关注走向全球布局。

  我国高度重视推动人工智能发展。截至目前,全国已有19个省(区、市)发布了26项人工智能专项政策。例如,贵阳高新区去年出台了“人工智能十条政策”,每年设立5000万元人工智能专项发展资金和1亿元人工智能产业发展基金,打造人工智能开放创新平台。

  在政策推动下,我国人工智能产业化落地加快推进,在智能制造、科技金融、数字内容和新媒体、新零售、智能安防等多个应用领域引发了重大变革,为新旧动能转换和国民经济高质量发展提供了有力支撑。据统计,2018年中国人工智能市场规模为17.6亿美元,预计2023年这一规模将达到119亿美元。到2030年,我国有望在人工智能理论、技术与应用方面总体达到世界领先水平,成为世界主要人工智能创新中心。

  讯飞幻境(北京)科技有限公司董事长兼CEO闫宏伟说,当前人工智能正在与各行业深度融合,概念、构想逐渐成为现实,“未来人工智能将像水和电一样影响人们生活,加速推进人与社会的智能化发展”。

  因为研究起步时间较晚,我国人工智能在基础理论和原创算法上的积淀不够,关键元器件主要依赖进口,国内还没有建立高水平的开源开放平台,加上高端人才不足,是今后我国在人工智能领域必须加快补齐的短板。

  高文表示,当务之急要做好4件事,一是数据的组织、清洗、安全保护,二是建设开源平台,三是应用场景的探索,四是通过各种比赛交流筛选出一批垂直领域的成功案例并推广,“要发挥好政府、企业、教育、科研部门等各方的主观能动性,齐心协力补短板。”

  值得注意的是,人工智能在许多具体行业中的应用刚刚起步,需要保持头脑清晰,不能“盲目跟风”。同时,数据安全、隐私泄露等也伴随着智能化应用不断出现,还应加快制定行业标准、技术法规。

### 人工智能的发展历程 #### 符号主义与逻辑推理阶段(1950s-1970s) 这一阶段被认为是人工智能的起点,起源于1956年的达特茅斯会议,会上首次提出了“人工智能”的概念[^3]。此时期的焦点在于符号主义和逻辑推理,研究者尝试通过构建规则和符号系统来模拟人类思维过程。例如,图灵测试被提出作为评估机器智能的标准之一,而早期的人工智能程序如ELIZA展示了人机对话的可能性[^1]。尽管如此,由于当时计算资源有限以及知识表示上的难题,该领域遭遇了发展的瓶颈。 #### 连接主义与机器学习兴起阶段(1980s-2010s) 进入20世纪80年代至21世纪初,连接主义逐渐成为主流方向,这标志着神经网络模型及其训练算法的重要性日益凸显[^1]。随着硬件性能提升和技术进步,特别是大数据时代的到来,使得复杂的模式识别任务得以解决。在此期间,支持向量机(SVM)、随机森林(Random Forest)等传统机器学习方法得到了广泛应用;同时深度信念网(DBN),卷积神经网络(CNN)也开始崭露头角并推动图像处理等领域取得突破性进展[^2]。 #### 开放共享与通用AI探索阶段(2010s至今) 近年来,开放平台促进了全球范围内对于先进算法的研发合作交流。比如由埃隆·马斯克联合创立于2015年的OpenAI机构致力于开发安全可靠的AGI技术,并相继推出了诸如GPT系列这样的革命性产品[^4]。这些努力不仅加速了自然语言理解和生成方面的飞跃式发展,也为未来更广泛的应用场景提供了无限可能。 ```python import torch from transformers import GPT2LMHeadModel, GPT2Tokenizer tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2') input_text = "Artificial intelligence is" inputs = tokenizer.encode(input_text, return_tensors='pt') outputs = model.generate(inputs, max_length=50) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 以上代码片段展示如何利用预训练好的GPT-2模型完成文本续写功能,体现了当前基于Transformer架构的大规模语言建模所达到的高度灵活性与表现力。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值