pandasai + qwen(OpenAI-Compatible)

import pandas as pd
import pandasai as pai
from pandasai import SmartDataframe
from pandasai_litellm import LiteLLM

llm = LiteLLM(
    api_key="sk-", 
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", 
    // OpenAI-Compatible Endpoints | liteLLM: https://docs.litellm.ai/docs/providers/openai_compatible#usage---completion
    // LiteLLm的规范是必须加上 "openai/"的前缀才能用。
    model="openai/qwen-max-latest"
)

pai.config.set({"llm": llm})

df = pd.read_csv("data/supermarket_sales.csv")

smart_df = SmartDataframe(df, config={"llm": llm})

response = smart_df.chat("How are the sales in each city? Show me the pictures. ")

print(response)

import pandasai as pai
from pandasai_litellm import LiteLLM

llm = LiteLLM(
    api_key="sk-", 
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", 
    model="openai/qwen-max-latest"
)

pai.config.set({"llm": llm})

file = pai.read_csv("data/supermarket_sales.csv")

# Create a dataset
pai.create(
    # 数据集的名称
    path="company/supermarket-sales",
    # 数据集的描述
    description="supermarket sales data",
    # 数据集的文件
    df = file,
)

# Load the dataset
supermarket_sales_data = pai.load("company/supermarket-sales")

# Query the data
response = supermarket_sales_data.chat("How are the sales in each city? Show me the pictures")

print(response)

### Qwen-VL-72B 和 Qwen-VL-Max 的特性比较 #### 参数规模与模型架构 Qwen-VL-72B 是一款拥有 720亿参数的大规模多模态预训练模型,专为处理复杂的视觉和语言联合任务而设计[^1]。相比之下,Qwen-VL-Max 虽然具体参数量未公开,但从名称推测其可能代表了一个更为优化或改进版本,在某些特定场景下具备更优性能。 #### 处理能力对比 对于建模方面的挑战——即面对差异很大的视觉任务(包括不同类型输入的任务、不同粒度的任务以及格式各异的输出),Qwen-VL-72B 凭借庞大的参数量能够更好地捕捉复杂模式并适应多种类型的输入数据。然而,Qwen-VL-Max 可能在效率上有所提升,通过算法上的创新减少计算资源消耗的同时保持甚至提高准确性。 #### 数据需求分析 考虑到标注成本差异大且粒度和语义各异的数据集特点,Qwen-VL-72B 需要依赖大量高质量标记样本进行有效学习;而对于收集图像成本高且数量有限的情况,则显示出一定局限性。相反,Qwen-VL-Max 或者引入了新的机制来缓解这些问题,比如增强自监督学习的能力或是利用迁移学习技术从其他领域获取有用信息补充当前任务所需的知识。 ```python # Python伪代码展示如何加载这两个模型 from transformers import AutoModelForVisionToText, AutoTokenizer def load_model(model_name): tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForVisionToText.from_pretrained(model_name) return model, tokenizer qwen_vl_72b_model, qwen_vl_72b_tokenizer = load_model('qwen-vl-72b') qwen_vl_max_model, qwen_vl_max_tokenizer = load_model('qwen-vl-max') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值