2024全新机器学习课程GitHub_Trending/in/Introduction_to_Machine_Learning:Sharif University独家教程
欢迎来到Sharif University of Technology计算机工程系的"机器学习"课程。本课程提供全面的机器学习知识,涵盖监督学习、无监督学习、神经网络、计算机视觉、自然语言处理和对比学习等多个领域。你可以访问幻灯片、Jupyter笔记本和练习来深入学习。课程内容将在2024年秋季学期持续更新,更多资源可在SharifML网站(波斯语)获取。
课程结构概览
本课程分为六个主要章节,每个章节都包含详细的幻灯片、Jupyter笔记本和相关资源,帮助你系统学习机器学习的各个方面。
监督学习
监督学习是机器学习的基础,本课程在Chapter_01_Supervised_Learning中涵盖了线性回归、线性分类、逻辑回归、k近邻(kNN)和集成学习等内容。每个主题都有对应的Jupyter笔记本和幻灯片,例如线性回归笔记本和线性回归幻灯片。
无监督学习
无监督学习章节包括聚类和降维技术。你可以通过kmeans_in_action_code.py了解KMeans算法的实现,并查看KMeans迭代过程图来直观理解算法的工作原理。降维部分,tinyPCA.ipynb展示了主成分分析的实现,而MNIST数据集PCA可视化则帮助你理解降维在数据可视化中的应用。
神经网络
神经网络章节从基础到进阶,涵盖了神经网络的构建、优化和改进。NNs_from_scratch.ipynb带你从零开始实现神经网络,tinyAdamSGD.ipynb则介绍了常用的优化算法。此外,Improving_NNs.ipynb探讨了提升神经网络性能的各种技巧。
计算机视觉
计算机视觉部分包括卷积神经网络(CNN)、自编码器和语义分割等内容。CNNs_from_scratch.ipynb教你从零构建CNN,ResNets_Transfer_Learning.ipynb介绍了迁移学习的应用。语义分割方面,UNet.ipynb和对应的U-Net架构图帮助你理解这一重要技术。
自然语言处理
自然语言处理章节涵盖了词嵌入、注意力机制和BERT模型。Word Embedding.ipynb介绍了词嵌入的原理和实现,而BERT模型幻灯片则详细讲解了BERT的结构和应用。
对比学习
对比学习是近年来的研究热点,CLIP.ipynb介绍了对比语言-图像预训练模型,帮助你了解多模态学习的前沿进展。
学习资源与工具
为了帮助你更好地学习,本课程提供了丰富的资源和工具。Previous_Semesters包含了往年的作业、考试和项目,可供你参考和练习。LICENSE文件详细说明了课程材料的使用许可,确保你在合规的前提下使用这些资源。
如果你是机器学习的初学者,建议从README.md开始,了解课程的整体结构和使用方法。对于有一定基础的学习者,可以直接深入感兴趣的章节,通过Jupyter笔记本动手实践,结合幻灯片加深理论理解。
总结
Sharif University of Technology的机器学习课程为你提供了从基础到前沿的全面学习路径。通过结合理论幻灯片、实践Jupyter笔记本和丰富的图像资源,你可以深入理解机器学习的核心概念和算法实现。无论你是初学者还是希望进阶的学习者,本课程都能满足你的需求,帮助你在机器学习领域打下坚实的基础。
官方文档:README.md 课程幻灯片:Slides/ Jupyter笔记本:Jupyter_Notebooks/ 练习资源:Previous_Semesters/2024/Exercises/
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考





