时间还过得真是快,去年年底报名的时候非常的纠结,主要原因是想在AI方面有所提升,但是又觉得微调的学习门槛过高,线性代数这些玩意儿想想都头大,矩阵的算式看着就发晕,不过最后还是一咬牙,把用AI赚到的钱交了学AI的学费。
前两周学习理论,还好,可以盯着huggingface来学习,不清楚的概念直接上去查,也算是搞明白了为啥huggingface现在这么的火,它提供了一系列用于自然语言处理(NLP)、计算机视觉和音频处理的工具和库。它最著名的产品是开源的Transformers库,这是一个广泛使用的自然语言处理工具库,包含了大量预训练模型,如BERT、GPT-2等,用于各种NLP任务,如文本分类、生成文本、问答系统等。就是机器学习领域的“GitHub”。有很多数据集和各种开源模型,而且有很多现成的库比如说 Dataset库可以非常方便的管理各种数据集。
不过也遇到了很多的困难,huggingface在国内不能直接访问,如何下载数据集和相应的模型就成为了一个难题,另外如何通过conda来管理不同的python环境,这些都是以前没有接触过的场景问题,一句话实操8个小时,有7个小时是在解决科学上网的问题,系统环境的问题等等。
在不断深入的学习中也逐渐的认识到应用的AI的几个层面,利用prompts提升效率,通过langchain+rag来实现agent的能力,通过微调来实现垂直领域的知识强化,通过预训练来捏出一个大语言模型。以上几个层面,普通人最多也就能在微调领域试试水了,一块16GB的T4显卡,通过INT4级别的量化也可以微调一些7B左右的模型,在一些垂直领域使用,但这也只是从起步的成本说起,额外的成本比如