Nano Banada token(令牌)简介
Nano Banada 和其他生成式AI模型一样,使用一种称为”token”的粒度处理输入和输出。估且我们把1token称为1个词元吧。
那么1token 是多少内容?
词元可以是单个字符(例如字母”a”),也可以是1个单词(例如: “dog”)。长字词会被拆分为多个词元。Nano Banada 有一个所有token(令牌)的集合称为词汇(也就是词库)。将提示文本折分为token(令牌)的过程称为分词。PS:就是把一句话或一段话拆成Nano Banada词库里的单个词。。。
那么1token 就是1个词呗。也不对,官方文档说:一个 token 相当于大约 4 个字符。 100 个 token 相当于大约 60-80 个英文单词。
统计Nano Banada token
要统计Nano Banada的token 需要调有API。参考之前的文章:Nano Banana(Gemini) 免费api key获取方法 获取到API Key后安装 Google GenAI SDK,这里我们以Python为例,官方还有 JavaScript、Go、Java版本的SDK。
Python需要3.9及更高版本通过 pip 命令进行安装。
pip install -q -U google-genai
安装好SDK,我们就可以在调用API生成图片的时候统计token了
from google import genai
client = genai.Client()
prompt = "Robot holding a red skateboard."
# Count tokens using the new client method.
total_tokens = client.models.count_tokens(
model="gemini-2.0-flash", contents=prompt
)
print("total_tokens: ", total_tokens)
# ( e.g., total_tokens: 10 )
response = client.models.generate_images(
model="gemini-2.0-flash", contents=prompt
)
# The usage_metadata provides detailed token counts.
print(response.usage_metadata)
# ( e.g., prompt_token_count: **, candidates_token_count: **, total_token_count: ** )
以上代码,我们先调用了 count_tokens()估算了输入给Nano Banada的token量,然后我们又调用了 generate_images生成图片,最后通过response.usage_metadata 获取到 Nano Banada输出的token量。
5550

被折叠的 条评论
为什么被折叠?



