HuggingLLM(ChatGPT原理与应用开发)

随着ChatGPT的爆火,其背后其实蕴含着一个基本事实:AI能力得到了极大突破——大模型的能力有目共睹,未来只会变得更强。这世界唯一不变的就是变,适应变化、拥抱变化、喜欢变化,天行健君子以自强不息。我们相信未来会有越来越多的大模型出现,AI正在逐渐平民化,将来每个人都可以利用大模型轻松地做出自己的AI产品。

所以,我们把项目起名为HuggingLLM,我们相信我们正在经历一个伟大的时代,我们相信这是一个值得每个人全身心拥抱的时代,我们更加相信这个世界必将会因此而变得更加美好。

关于项目

项目地址GitHubEbook

项目简介:介绍 ChatGPT 原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。

立项理由:ChatGPT改变了NLP行业,甚至正在改变整个产业。我们想借这个项目将ChatGPT介绍给更多的人,尤其是对此感兴趣、想利用相关技术做一些新产品或应用的学习者,尤其是非本专业人员。希望新的技术突破能够更多地改善我们所处的世界。

项目受众

  • 项目适合以下人员:
    • 对ChatGPT感兴趣。
    • 希望在实际中运用该技术创造提供新的服务或解决已有问题。
    • 有一定编程基础。
  • 不适合以下需求人员:
    • 研究其底层算法细节,比如PPO怎么实现的,能不能换成NLPO或ILQL,效果如何等。
    • 自己从头到尾研发一个 ChatGPT。
    • 对其他技术细节感兴趣。

另外,要说明的是,本项目并不是特别针对算法或NLP工程师等业内从业人员设计的,当然,你也可以通过本项目获得一定受益。

项目亮点

  • 聚焦于如何使用ChatGPT相关API(可使用国内大模型API)创造新的功能和应用。
  • 对相关任务有详细的背景和系统设计介绍。
  • 提供示例代码和实现流程。

国内大模型API使用介绍

《GLM》

  1. 安装智谱GLM的SDK
pip install zhipuai
  1. 调用GLM API的示例
# GLM
from zhipuai import ZhipuAI

client = ZhipuAI(api_key="") # 请填写您自己的APIKey

messages = [{"role": "system", "content": "你是一个乐于解答各种问题的助手,你的任务是为用户提供专业、准确、有见地的建议。"},
            {"role": "user", "content": "请你介绍一下Datawhale。"},]

response = client.chat.completions.create(
    model="glm-4",  # 请选择参考官方文档,填写需要调用的模型名称
    messages=messages, # 将结果设置为“消息”格式
    stream=True,  # 流式输出
)

full_content = ''  # 合并输出
for chunk in response:
    full_content += chunk.choices[0].delta.content
print('回答:\n' + full_content)
回答:
Datawhale是一个专注于人工智能领域的开源学习社区。它汇聚了一群热爱人工智能技术的人才,旨在降低人工智能的学习门槛,推动技术的普及和应用。Datawhale通过开源项目、线上课程、实践挑战等形式,为AI爱好者和从业者提供学习资源、交流平台和成长机会。

从提供的参考信息来看,Datawhale有着丰富的内容资源和活跃的社区氛围。例如,他们推出了包括“蝴蝶书”在内的多本与人工智能相关的书籍,这些书籍内容实战性强,旨在帮助读者掌握ChatGPT等先进技术的原理和应用开发。此外,Datawhale还举办了宣传大使的招募活动,鼓励更多人参与到AI技术的推广和开源学习活动中来。

Datawhale社区倡导开源共生的理念,不仅为成员提供荣誉证书、精美文创等物质激励,还搭建了开放的交流社群,为成员之间的信息交流和技术探讨提供平台。同时,社区还助力成员的职业发展,提供简历指导和内推渠道等支持。

总体来说,Datawhale是一个集学习、交流、实战和技术推广于一体的AI社区,对于希望在人工智能领域内提升自己能力、扩展视野的人来说,是一个非常有价值的资源和平台。

《Qwen》

  1. 安装千问Qwen的SDK
pip install dashscope
  1. 调用Qwen API的示例
# qwen
from http import HTTPStatus
import dashscope

DASHSCOPE_API_KEY="" # 请填写您自己的APIKey

messages = [{'role': 'system', 'content': 'You are a helpful assistant.'},
            {'role': 'user', 'content': '请你介绍一下Datawhale。'}]

responses = dashscope.Generation.call(
    dashscope.Generation.Models.qwen_max, # 请选择参考官方文档,填写需要调用的模型名称
    api_key=DASHSCOPE_API_KEY, 
    messages=messages,
    result_format='message',  # 将结果设置为“消息”格式
    stream=True, #流式输出
    incremental_output=True  
)


full_content = ''  # 合并输出
for response in responses:
    if response.status_code == HTTPStatus.OK:
        full_content += response.output.choices[0]['message']['content']
        # print(response)
    else:
        print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
            response.request_id, response.status_code,
            response.code, response.message
        ))
print('回答:\n' + full_content)
回答:
Datawhale是一个专注于数据科学与人工智能领域的开源组织,由一群来自国内外顶级高校和知名企业的志愿者们共同发起。该组织以“学习、分享、成长”为理念,通过组织和运营各类高质量的公益学习活动,如学习小组、实战项目、在线讲座等,致力于培养和提升广大学习者在数据科学领域的知识技能和实战经验。

Datawhale积极推广开源文化,鼓励成员参与并贡献开源项目,已成功孵化了多个优秀的开源项目,在GitHub上积累了大量的社区关注度和Star数。此外,Datawhale还与各大高校、企业以及社区开展广泛合作,为在校学生、开发者及行业人士提供丰富的学习资源和实践平台,助力他们在数据科学领域快速成长和发展。

总之,Datawhale是一个充满活力、富有社会责任感的开源学习社区,无论你是数据科学的小白还是资深从业者,都能在这里找到适合自己的学习路径和交流空间。

内容大纲

本教程内容彼此之间相对独立,大家可以针对任一感兴趣内容阅读或上手,也可从头到尾学习。

以下内容为原始稿,书稿见:https://datawhalechina.github.io/hugging-llm/

如何学习

📢说明:项目的 docs 目录是书稿电子版(但不是最终版,编辑可能做了一点点修改);content 是 Jupyter Notebook 的初始版本和迭代版本。实践可以选择 content,阅读可以选择 docs

学习指南

要学习本教程内容(主要是四个使用指南),需具备以下条件:

  • 能够正常使用OpenAI的API,能够调用模型:gpt-3.5-turbo。或国内大模型API、开源大模型也可。
  • 可以没有算法经验,但应具备一定的编程基础或实际项目经历。
  • 学习期间有足够的时间保证,《使用指南》每个章节的学习时长为2-3天,除《文本推理》外,其他均需要6-8个小时。

学习完成后,需要提交一个大作业,整个学习期间就一个任务,要求如下:

  • 以其中任一方向为例:描述应用和设计流程,实现应用相关功能,完成一个应用或Demo程序。
  • 方向包括所有内容,比如:一个新闻推荐阅读器、一个多轮的客服机器人、Doc问答机器人、模型输出内容检测器等等,鼓励大家偏应用方向。

历次组队学习中成员完成的项目汇总(部分):

  • https://datawhaler.feishu.cn/base/EdswbrhNvaIEJdsLJ0bcVYt1n2c?table=tbluxatFhjfyXShH&view=vewQJKA0Gi

学习说明

请学习者务必注意以下几点:

  • 学习本教程并不能让你成为算法工程师,如果能激发起你的兴趣,我们非常欢迎你参与学习DataWhale更多算法类开源教程。
  • 在学习了教程中的一些知识和任务后,千万不要认为这些东西实际上就是看到那么简单。一方面实际操作起来还是会有很多问题,另一方面每个知识其实有非常多的细节,这在本教程中是无法涉及的。请持续学习、并始终对知识保持敬畏。
  • 本教程主要是负责引导入门的,鼓励大家在了解了相关知识后,根据实际情况或自己意愿大胆实践。实践出真知,脑子想、嘴说和亲自干是完全不一样的。
  • 由于创作团队水平和精力有限,难免会有疏漏,请不吝指正。

最后,祝愿大家都能学有所得,期望大家未来能做出举世瞩目的产品和应用。

 我们该怎样系统的去转行学习大模型 ?

很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值