- 博客(7)
- 收藏
- 关注
原创 调用大模型api返回输出结果--LLM
首先我们要明白api是什么东西,这里我们可以去看一下百度上官方的解释,当然,其实不看也行,我们只要能用即可。api其实就是一个封装的函数,比如你可以直接去gpt网站用,也可以利用api写代码用,其实就是一把钥匙而已。本文主要基于智谱开放平台的开源文档来向大家进行介绍,国内的毕竟还是比较容易弄一些,也不需要做别的什么操作,只需要去智谱清言官网注册账号即可。注册账号会赠送100万个tokens,足够我们进行调用api使用大模型的练习了。
2024-01-29 16:54:17
2508
原创 Numpy学习之reshape函数的使用
首先reshape函数的操作对象只能是数组或者矩阵(其实都一样),目的是去改变操作对象的形式。reshape(a,b)函数有两个参数a,b,表示修改为a行b列。# reshape(a,b)转为a行b列,操作对象必须是数组或者矩阵,a为-1或者b为-1表示自动处理。# reshape用法。
2023-12-17 00:15:09
142
1
原创 文本分析与社会网络分析 实验三 关键词提取(TF-idf,TextRank)
er本次实验主要了解两种不同的关键词提取方式:TF-idf和TextRank。一、TF-IDF全称是 Term Frequency - inverse document frequency。第一部分,就是词频(Term Frequency),即某个词语出现的频率。某个词语出现的次数多,也就说明这个词语重要性可能会很高。但是,这只是可能性,并不绝对。 逆文档频率(inverse document frequency)首先计算某个词在各文档中出现的频率。假设一共有10篇文档,其中某个词A在其中10篇
2022-04-06 16:42:12
1442
1
原创 大数据分析实验二:金融中的时间序列数据处理
一、金融数据的获取与处理导入包,通过pandas_datareader模块来从yahoo获取金融数据信息,应该是网站的问题,显示超时,获取不到数据,所以本文数据可以直接从文末尾的百度网盘中提取。import datetimeimport pandas as pdimport pandas_datareader.data as webimport numpy as npimport mathfrom statsmodels.formula.api import olsimport matp
2022-03-28 17:09:15
4112
原创 文本分析与社会网络分析实验二 jieba分词
jieba分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG), 再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词第一次
2022-03-23 00:04:54
549
原创 大数据分析实战实验1:J股票红利预测实验
J股票红利分析实验目的:掌握时间序列数据的建立掌握时间序列数据的影响因素掌握时间序列分析模型的建立方法实验内容:数据时j股票从1997-2017的20年来个季度红利数据,找出时序数据的构成因素,并分别通过指数平滑法和自回归ARIMA模型方法,建立时序数据的预测模型,并预测下两年的红利。实验知识点:时序数据的构成因素指数平滑法ARIMA模型实验环境:anacondajupyter实验过程:加载包import pandas as pdimport
2022-02-24 11:00:30
1503
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人