LlamaIndex中的使用模式:预测LLM和嵌入标记计数
在LlamaIndex中,为了测量LLM和嵌入的标记计数,你需要执行以下步骤:
设置MockLLM和MockEmbedding对象
首先,你需要设置MockLLM和MockEmbedding对象,这些对象将用于模拟LLM和嵌入调用,以便预测标记使用情况。
from llama_index.core.llms import MockLLM
from llama_index.core import MockEmbedding
llm = MockLLM(max_tokens=256)
embed_model = MockEmbedding(embed_dim=1536)
设置TokenCountingCallback处理程序
接下来,你需要设置TokenCountingCallback处理程序,该处理程序将使用tiktoken库来计算标记数。
import tiktoken
from llama_index.core.callbacks

最低0.47元/天 解锁文章
2589

被折叠的 条评论
为什么被折叠?



