国科大 - 算法中的最优化方法(林姝)考试复习

本文分享了中国科学院大学研究生课程《算法中的最优化方法》考试要点,包括梯度方向判断、函数类型辨识、优化方法选择及证明题解。建议重视讲义和代码练习,特别强调FR共轭梯度法的理解。

Motivation

本文针对中国科学院大学研究生开设的《算法中的最优化方法》课程,授课老师是林姝老师。

---------------------------------------------------------------------------------------------------------------------------

能搜到这里,想必你正在为考试复习焦虑吧。今年复习时同样毫无头绪,只有去年学长的一篇博客作为参考。下面将考试的要点记录下来,供未来的你复习使用。

Method

算法中的最优化方法是开卷考试,允许携带电脑、平板以及其它的纸质材料,但不允许上网。

本次考试内容大致分为两大部分。

  • 第一部分,共四道题。第一题考察等高线图上的梯度方向判断;第二题考察单峰函数、拟凸函数、凸函数的判断;第三题判断函数是凸函数还是凹函数;第四题比较复杂。给定几个优化问题,判断应该使用哪种优化方法来解决,并给出优化方法的终止条件。如果优化问题需要化简,要指出如何化简的。
  • 第二部分,主要包括简答、证明和计算。有一道简答题考察了最速梯度下降法,介绍其定义、步骤和缺陷。证明题比较简单,考察了线性函数和凸函数之和仍然为凸函数。计算题应该是最麻烦的,考察了牛顿法、FR共轭梯度法和DFP算法。建议计算题提前准备好代码,最后的时间比较紧张。

Conclusion

总体来说,除了最后一道题的FR共轭梯度法,其余的都在意料之中。准备考试的时候只要把讲义和PPT过一遍,整理好平时作业的代码,问题不大。根据学长的博客来看,题型没有大变动,估计明年也是这样吧。祝大家都能顺利通过!

教学目的要求 最优化方法属于专业普及课程,是从所有可能方案中选择最合理的方案以达到最优目标的学科,是随着计算机的普遍应用而发展起来的,它已广泛应用于各个领域。随着最优化方法理论的完善及计算机技术中各种算法的发展,最优化方法也广泛被应用于计算机算法的设计和优化。本门课程旨在讲授最优化的基本理论和方法,要求通过本课程的学习,具有应用最优化方法解决一些实际问题的初步技能,并为以后的学习和工作做必要的准备。 本课程的任务是讨论求解线性规划、无约束非线性规划、约束非线性规划、多目标规划、整数规划的基本原理与一般方法,并学习MATLAB等工具软件的应用,使学生掌握最优化方法的基本概念、基本原理和基本方法,初步学会应用最优化方法解决简单的实际优化问题,培养解决实际问题的能力。 预修课程 微积分、线性代数 教材 教材: 《最优化理论与方法》,作者袁亚湘、孙文瑜,科学出版社,1997; 课程资料。 主要内容 第一章 最优化方法的由来及其基本原理 . 最优化方法的产生与发展,最优化方法的基本原理 第二章 线性规划 .线性规划问题,单纯形法 第三章 二次规划 . 二次规划算法及应用 第四章 无约束非线性规划 . 牛顿、拟牛顿方法,下降方向及线性搜索 第五章 有约束非线性规划 . 有约束非线性规划算法,等式约束和不等式约束的处理 第六章 凸优化 . 凸问题,凸约束,凸优化算法及实例 第七章 全局优化 . 局部与全局最优解,多起始点、模拟退火、遗传算法 第八章 MATLAB优化工具箱 . MATLAB优化工具软件的使用 第九章 多目标优化 . Pareto最优性,多目标优化算法 第十章 整数规划 . 混合整数规划算法概述,整数规划复杂性,搜索 第十一章 最优化方法在计算机算法中的应用 . 最优化方法在机器学习等领域的应用。 基本要求: 1、掌握最优化方法的基本概念、相关的优化原理和最常用的算法,注意方法处理的技巧及其与计算机的结合,提高计算机应用能力; 2、通过例子,学习使用各种优化方法解决实际中遇到的简单优化问题,提高分析、解决实际问题的能力; 参考文献 主要参考书: 《最优化理论与方法》,作者陈宝林,清华大学出版社,1989; Nonlinear Programming (Second Edition),Dimitri P. Bertsekas, Athena Scientific Belmont, 1999.
### 关于强化学习的学习资料 强化学习是一种通过试错来训练智能体的方法,其核心目标是让智能体学会如何采取行动以最大化累积奖励。以下是关于强化学习的一些重要学习资源和研究方向: #### 书籍推荐 1. **《Reinforcement Learning: An Introduction》** 这本书由 Richard S. Sutton 和 Andrew G. Barto 编写,被认为是强化学习领域的经典教材[^3]。它涵盖了从基础到高级的各种主题,适合初学者以及希望深入理解理论的研究者。 2. **《Deep Reinforcement Learning Hands-On》** 此书提供了许多实用的例子和代码实现,帮助读者掌握深度强化学习的实际应用技术[^4]。 #### 在线课程 1. **Coursera上的“DeepLearning.AI系列课程”** 包括专门针对强化学习的部分,讲解了Q-learning、策略梯度等基本概念及其扩展版本[^5]。 2. **Udacity 的 Nanodegree Program “Artificial Intelligence”** 提供了一个模块专注于介绍强化学习的基础知识并引导学生完成项目实践[^6]。 #### 论文与综述文章 可以查阅最新的顶级会议论文集(如NeurIPS, ICML),这些地方经常发布有关新型强化学习算法和技术进展的文章。另外,《ArXiv Sanity Preserver》网站也汇集了许多高质量预印本论文[^7]。 #### 工具库建议 为了便于实验验证想法或者重现已有成果,可以选择合适的开源框架来进行开发工作: - OpenAI Gym 是一个流行的用于测试RL模型的标准环境集合; - Stable Baselines3 则封装了一些经典的强化学习算法以便快速部署使用[^8]。 ```python import gym from stable_baselines3 import PPO env = gym.make('CartPole-v1') model = PPO("MlpPolicy", env, verbose=1) model.learn(total_timesteps=10_000) obs = env.reset() for i in range(1000): action, _states = model.predict(obs, deterministic=True) obs, rewards, dones, info = env.step(action) env.render() env.close() ``` 以上就是一些关于强化学习方面的优质参考资料汇总情况说明[^9]。
评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值