课程来源:https://www.coursera.org/learn/generative-ai-with-llms/
by DeepLearning.AI & Amazon Web Services
关于本课程
在《生成式人工智能与大语言模型(LLMs)》课程中,你将学习生成式人工智能的工作原理基础,以及如何将其应用于实际场景。
课程收获
- 深度理解生成式人工智能,阐述基于大语言模型的生成式人工智能典型生命周期的关键步骤,涵盖从数据收集、模型选择到性能评估与部署。
- 详细解读支撑大语言模型的 Transformer 架构、训练方式,以及微调如何让大语言模型适配各类特定用例。
- 运用经验缩放定律,结合数据集规模、计算预算和推理需求,优化模型目标函数。
- 应用前沿的训练、调优、推理、工具及部署方法,在项目特定约束下最大化模型性能。
- 聆听行业研究者和从业者的经验分享,探讨生成式人工智能为企业带来的挑战与机遇。
掌握大语言模型工作原理、训练及部署最佳实践的开发者,能为公司做出明智决策,更快构建可用原型。本课程助力学习者培养如何最优利用这项前沿技术的实践直觉。
课程要求
本课程为中级水平,需具备一定 Python 编程经验,熟悉机器学习基础概念,如监督学习、无监督学习、损失函数,以及将数据划分为训练集、验证集和测试集等。若已修读 DeepLearning.AI 的《机器学习专项课程》或《深度学习专项课程》,则适合学习本课程,深入探索生成式人工智能基础。
介绍
欢迎参加这门关于使用大语言模型的生成式人工智能课程。大语言模型(LLMs)是一项令人兴奋的技术,尽管备受热议,但很多人仍低估其作为开发者工具的强大之处。过去需数月构建的机器学习和人工智能应用,现在几天或几周就能完成。
本课程将深入探讨大语言模型技术的运作方式,涵盖模型训练、指令调整、微调以及生成式人工智能项目生命周期框架等技术细节。
生成式人工智能,尤其是大语言模型,属于通用技术,类似深度学习和电力,可应用于经济领域的众多场景。如同15年前兴起的深度学习,未来需大家共同确定应用场景并构建特定应用程序。由于该技术新颖,懂应用的人才稀缺,许多公司正争抢聘用此类人才。若你有意愿,本课程将助你提升竞争力,获取相关工作机会。
我很高兴与AWS团队的优秀讲师共同授课,包括安特耶·巴特(Antje Barth)、迈克·钱伯斯(Mike Chambers)、谢尔比·艾根布罗德(Shelbee Eigenbrode),以及负责实验部分的克里斯·弗雷格利(Chris Fregly)。安特耶和迈克是生成式人工智能开发者倡导者,谢尔比和克里斯是生成式人工智能解决方案架构师,他们均有丰富经验,帮助众多公司构建创意应用程序。
本课程内容开发得到了亚马逊、AWS、Hugging Face的行业专家、应用科学家以及全球顶尖大学的支持。
课程详情
- 课程目标受众:人工智能爱好者、工程师或数据科学家。
- 课程先决条件:熟悉Python编程,掌握基本数据科学和机器学习概念,有Python或TensorFlow经验更佳。
- 课程内容:详细探索生成式人工智能项目生命周期各步骤,从问题界定、模型选择到优化部署与集成应用,深入讲解相关技术,确保学员有深入理解。
每周学习内容
- 第一周:研究Transformer架构,探索模型训练,了解计算资源需求,学习上下文学习技术,掌握提示工程引导模型输出及调整生成参数优化输出。
- 第二周:探索通过指令微调使预训练模型适应特定任务和数据集的方法。
- 第三周:学习使语言模型输出符合人类价值观,提高实用性,减少危害和毒性。
实践实验
- 第一个实践实验:针对对话摘要任务,构建并比较不同提示和输入,探索推理参数和采样策略改进生成模型响应。
- 第二个实践实验:对Hugging Face的大语言模型进行微调,尝试完全微调和参数高效微调(PEFT),了解PEFT提升工作流程效率的方法。
- 第三个实践实验:体验基于人类反馈的强化学习(RLHF),构建奖励模型分类器标记模型响应毒性。
希望大家享受课程,运用所学构建精彩应用程序。接下来进入下一个视频,探讨如何使用大语言模型构建应用程序。