AI行业精选日报_人工智能(12·02)

  1. 《人工智能标准化白皮书(2020版)》编制启动会召开

12月2日消息,近日,由国家人工智能标准化总体组、中国电子技术标准化研究院主办的第二批人工智能标准需求研讨会暨《人工智能标准化白皮书(2020版)》编制启动会在深圳召开。云天励飞作为此次大会的承办单位,与华为、阿里巴巴、腾讯、平安科技等国内外90余家人工智能企业参加活动。
来源:https://www.tmtpost.com/nictation/4202908.html

  1. 特斯拉新专利:脉冲激光将为自动驾驶清障

12 月 2 日消息,特斯拉近日申请了一项全新专利,该专利可以利用车载激光系统可清洁前后挡风玻璃及摄像头,甚至能够除去车顶太阳能板上的碎屑。 特斯拉专利显示:当车载的传感器检测到玻璃上附着有污渍时,激光此时会发射高能光束,将玻璃及车顶上的污渍烧掉,从而实现保持玻璃清洁的作用。
来源:https://www.pingwest.com/w/198984

  1. 上海市人工智能技术协会成立 入驻虹桥商务区

11月29日,上海市人工智能技术协会正式成立,旨在团结和凝聚全市该领域的科研院所和相关企事业单位,立足全球视野,以人工智能关键核心技术研发为核心,构建产学研用生态体系,搭建具有国际影响力的人工智能技术服务平台。
来源:http://baijiahao.baidu.com/s?id=1651696398205087339&wfr=spider&for=pc

  1. 华为AI集群Atlas 900入驻鹏城实验室

据悉,华为与鹏城实验室 11 月 29 日在深圳共同发布鹏城云脑Ⅱ一期,正式开启千P级AI集群应用。搭载鲲鹏、昇腾处理器的华为Atlas 900 AI集群作为鹏城云脑Ⅱ的底座,为鹏城云脑Ⅱ注入澎湃算力,支撑AI领域诸如计算机视觉、自然语言、自动驾驶、智慧交通、智慧医疗等各类基础性研究与探索。鹏城云脑目前算力为100P FLOPS,明年将迈入千P级算力规模。
来源:http://baijiahao.baidu.com/s?id=1651696398205087339&wfr=spider&for=pc

  1. 网信办等三部门联合发布新规:明年起,AI造假音视频不得随意发布

近日,国家互联网信息办公室、文化和旅游部、国家广播电视总局联合印发了《网络音视频信息服务管理规定》,自2020年1月1日起施行。《规定》明确,网络音视频信息服务提供者应当建立健全辟谣机制,发现网络音视频信息服务使用者利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的,应当及时采取相应的辟谣措施,并将相关信息报网信、文化和旅游、广播电视等部门备案。
来源:https://new.qq.com/omn/20191130/20191130A06FSK00.html


Testin云测创立于2011年,是一家人工智能技术驱动的企业服务平台,为全球超过百万的企业及开发者提供云测试服务、AI数据标注服务、安全服务及推广服务。如果你有数据采集与标注需求,欢迎联络。

### 人工智能每日资讯获取方式 对于希望获取关于人工智能的每日资讯或内容的需求,可以通过以下几种方式进行订阅和关注。这些资源能够帮助用户及时了解人工智能领域的最新动态、技术突破以及行业应用。 #### 1. 订阅专业AI新闻平台 许多专业的科技新闻网站提供专门的人工智能板块,部分甚至推出每日新闻摘要服务。例如,TechCrunch[^1] 和 Wired[^2] 等平台会定期发布与人工智能相关的深度文章和简讯。此外,像 Medium 上的 Towards Data Science 和 AI Trends 这样的专栏也提供了高质量的内容更新。 #### 2. 使用聚合工具 通过 RSS 阅读器(如 Feedly)可以整合多个来源的人工智能新闻,形成个性化的信息流。这种方式允许用户根据自己的兴趣选择特定主题或作者进行跟踪。同时,一些社交媒体平台如 Twitter 和 LinkedIn 的算法推送也能为用户提供定制化的内容推荐[^3]。 #### 3. 关注权威机构发布的报告 国家及国际组织经常发布有关人工智能发展的政策指导和技术标准文件。例如,《国家新一代人工智能标准体系建设指南》中提到的标准体系框架对于理解中国未来几年内AI发展方向具有重要意义[^4]。类似地,湖南省直机关中心组大课堂所讨论的大模型技术和开源社区进展也为地方性应用提供了参考价值[^5]。 #### 4. 参与在线学习社区 Coursera、edX 等教育平台上开设了大量免费或付费课程,其中包含最新的研究成果和案例分析。这些课程不仅限于理论知识传授,还强调实际操作技能培养,非常适合希望深入学习者参与。 ```python # 示例代码:利用Python爬取AI相关资讯 import requests from bs4 import BeautifulSoup def fetch_ai_news(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') articles = [] for article in soup.find_all('article'): title = article.h2.a.text.strip() link = article.h2.a['href'] articles.append((title, link)) return articles[:5] # 返回前五条新闻 url = "https://example.com/ai-news" print(fetch_ai_news(url)) ``` 上述代码片段展示了一个简单的网络爬虫示例,用于从指定URL抓取AI相关新闻标题及其链接。请注意,在实际应用时需遵守目标网站的服务条款并考虑数据隐私问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值