CS231n:Lecture1--Introduction

讲授时间:2016-1-4
主讲教师:Fei-Fei Li

英文版视频地址(在YouTube上,需要翻墙观看):Lecture1
带中文字幕的视频地址(在网易云课堂上,正在翻译中):课时1 课时2 课时3

PPT下载地址:点击这里


要点整理:

计算机视觉相关领域:

大的领域:生物学、心理学、数学、物理、工程学、计算机科学等
小的方向:神经科学、认知科学、图形学、算法理论、系统结构、信息检索、机器学习、机器人学、语音、自然语言处理、图像处理、 光学等

计算机视觉发展简史:

——公元前5亿4千万年前,进化大爆炸(眼睛的出现)
——公元16世纪,达芬奇的“camera obscura”(照相暗盒)
——1959年,Hubel & Wiesel的“小猫实验”,1981年获得诺奖(结论:视觉处理的第一步工作是对简单边缘、排列等进行处理)
——1963年,Larry Roberts的“Block World”(解析图片中物体的边缘,形状)
——1966年,MIT的“The Summer Vision Project”(AI元年,CV元年)
——1970s,David Marr的“Vision”中的“Stages of Visual Representation”(视觉是分层的:输入图像–边缘图像–2.5D图像–3D图像)
——1973年,Fischler & Elschlager的“Pictorial Structure”
——1979年,Brooks & Binford的“Generalized Cylinder”
——1987年,David Lowe的“识别剃须刀”
——1997年,Shi & Malik的“Normalized Cut”(图像分割还是个研究热点)
——1999年,David Lowe的“SIFT”& Object Recognition
——2001年,Viola & Jones的“人脸识别”(2006年用于富士相机上)
——2005年,Dalal & Triggs的“Histogram of Gradients (HoG)”
——2006年,Lazebnik, Schmid & Ponce的“Spatial Pyramid Matching”
——2009年,Felzenswalb, McAllester & Ramanan的“Deformable Part Model”

图片识别分类比赛:

早期(2006-2012年):
PASCAL Visual Object Challenge(20个类别)

现在(2009年至今):
The Image Classification Challenge:(始于2010年,1000个类别,140万张图片, 2012年错误率明显下降,模型用的就是CNN)

这个比赛所用的图片来自于ImageNet图片库(该图片库共22000个物体类别,约1400万张图片,由李飞飞教授等人从2009年开始建设)


图像分类是视觉识别领域中的一个重要问题;目标检测、图像描述都和图像分类有关。

CNN(卷积神经网络)已经成为目标识别的一个重要工具。

2012年以前,图像分类的方法是特征+SVM
2012年以后,都是基于深度学习的模型(层数越来越深)

CNN不是一夜之间发明的(1998年Yann LeCun,手写数字识别,sigmoid;2012年,Alex Krizervsky & Geoff Hinton参加的ImageNet挑战赛,ReLU)

深度学习的发展,与以下两方面有很大关系:
硬件的发展(NVIDIA的GPU)
数据量的增加

我们还有很多视觉的领域,本次课不会涉及到:如感知分组,3D建模,图像分割等。

我们重点关注的是图像分类。

计算机视觉的愿景:看图讲故事,娱乐,社交,理解等。


本节PPT参考文献:

这里写图片描述

这里写图片描述

03-16
### CS-408 课程材料及相关内容 关于课程编号 **CS-408** 的具体描述并未直接提及,但从提供的参考资料可以推测其可能涉及的内容领域以及相关资源。 #### 可能的研究方向与主题 根据引用中的信息[^4],提到的数据挖掘项目团队合作模式、大规模数据处理工具(如Amazon EC2、Hadoop 和 Hive),以及定期指导会议等内容表明该课程可能是面向大数据分析或分布式系统的实践型课程。如果假设 **CS-408** 属于此类别,则它可能会覆盖以下方面: 1. 大规模数据分析方法论及其应用案例研究; 2. 使用云平台(例如 AWS Elastic Compute Cloud (EC2))部署并管理计算环境的技术细节; 3. 开源框架(比如 Apache Hadoop 和 Apache Hive)的操作指南及性能优化策略讲解; 以下是基于上述背景构建的一个典型大纲示例: ```plaintext Course Title: Advanced Data Mining & Distributed Computing Systems - CS-408 I. Introduction to Large-Scale Data Processing Frameworks A. Overview of Big Data Technologies * Importance in modern industries * Challenges faced when handling big datasets II. Hands-On Experience With Tools And Platforms For Managing Massive Datasets B. Setting Up An Environment On Amazon Web Services(EC2 Instances) * Step-by-step instructions on creating instances * Configuring security groups and accessing remote servers via SSH commands III. Practical Applications Of Popular Open Source Ecosystem Components In Real World Scenarios C. Working Through Examples Using MapReduce Programming Model Within The Context Of Hadoop Cluster Setups + Writing simple map reduce jobs using Java SDK provided by official documentation sites such as https://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTutorial.html [^5]. IV. Performance Tuning Techniques To Optimize Query Execution Times Over Partitioned Tables Stored Inside Relational Database Management Systems Such As MySQL Or PostgreSQL When Integrated Alongside NoSQL Solutions Like MongoDB. D. Exploring Best Practices Around Index Selection Strategies While Design Queries Against Highly Normalized Schemas Versus Denormalizing Them Depending Upon Use Case Requirements. V. Final Project Presentations Where Students Showcase Their Findings From Semester Long Research Efforts Conducted Under Supervision By Faculty Members Serving As Mentors Throughout This Period. E. Guest Speaker Series Featuring Industry Experts Sharing Insights Into Cutting Edge Innovations Happening Across Various Domains Leveraging These Skills Everyday At Scale! ``` 此结构仅作为参考模板展示如何围绕特定技术栈设计一门综合性强且实用性强的学习计划。实际授课安排还需参照官方发布的最新版次教材目录为准[^6]. 对于希望获取更详尽讲义文档或者练习题目集的同学来说,可以通过访问类似站点寻找公开分享的教学素材链接地址[^2]: ```python import requests from bs4 import BeautifulSoup url = 'https://example-university.edu/course-materials/cs408' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') links = soup.find_all('a') for link in links: href = link.get('href') text = link.string if ('lecture' in str(text).lower()) or ('assignment' in str(text).lower()): print(f"{text}: {href}") ``` 以上脚本可用于自动化爬取目标网页内的所有超链关系,并筛选出符合条件的结果列表供进一步查阅确认用途。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值