开箱即惊艳!文心一言 4.5 开源模型的易用性与真实场景应用测评

前言

ERNIE-4.5在GitCode社区发布了,发布地址是:http://gitCode社区ERNIE4.5模型列表

是一个专门的栏目,有整个的ERNIE4.5的模型列表,可以支持各类的应用,并且还可以gitCode平台进行快速部署实操,真的是方便至极,小模型部署不足10分钟即可正式访问,下面我们进入具体操作。

目录

前言

测试模型说明

完整测试视频 

一、易用性——超快速部署ERNIE-4.5-0.3B-Paddle

ERNIE-4.5-0.3B-Paddle服务启动

基础访问测试

连续请求测试

大规模token提问

运势计算

整体请求代码

二、ERNIE-4.5-21B-A3B-Base-Paddle

21B文本测试过程

大规模token提问

三、ERNIE-4.5-VL-28B-A3B-PT

实际测试

测试总结


测试模型说明

整体对三个模型进行了测试,这里是整体的架设过程的基础数据,可供参考。

模型型号显卡型号部署时间token效率
ERNIE-4.5-0.3B-PaddleA800实测6分半10次访问均291.4/秒
ERNIE-4.5-21B-A3B-Base-PaddleA800实测17分钟10次访问均36.72/秒
ERNIE-4.5-VL-28B-A3B-PTA100实测21分钟未测评

所测基础模型参数:

ERNIE-4.5-0.3BERNIE-4.5-21B-A3B-BaseERNIE-4.5-VL-28B-A3B
关键字关键字关键字
模态文本模态文本模态文本 & 视觉
训练阶段后训练训练阶段预训练训练阶段后训练
参数量0.36B参数量(总 / 激活)21B / 3B参数(总 / 激活)28B / 3B
层数18层数28层数28
头数 (Q/KV)16/2头数(Q/KV)20/4头数(Q/KV)20/4
上下文长度131072文本专家(总 / 激活)64 / 6文本专家(总 / 激活)64 / 6
视觉专家(总 / 激活)64 / 6视觉专家(总 / 激活)64 / 6
共享专家2共享专家2
上下文长度131072上下文长度131072

完整测试视频 

文心4.5开源模型易用性评测:0.3至28B模型

一、易用性——超快速部署ERNIE-4.5-0.3B-Paddle

ERNIE-4.5-0.3B 是一个文本密集型后训练模型。

模型地址:GitCode - 全球开发者的开源社区,开源代码托管平台

A100快,但是A800也够用。

获取的Python命令,如果运行不了就是环境的问题,需要预先安装写环境的依赖,依赖在下方我留下了:

python -m fastdeploy.entrypoints.openai.api_server \
       --model baidu/ERNIE-4.5-0.3B-Paddle \
       --port 8180 \
       --metrics-port 8181 \
       --engine-worker-queue-port 8182 \
       --max-model-len 32768 \
       --max-num-seqs 32

依赖下载提示,这个需要依据具体的服务器型号来看啊,在这里有说明:https://github.com/PaddlePaddle/FastDeploy

python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

apt install libgomp1

需要下载一会,这里就等会吧,可以看到网速还算挺快,网速慢就没法愉快的玩耍了哦。

ERNIE-4.5-0.3B-Paddle服务启动

这里我们只需要等待完毕既可以看到对应的服务启动。

可以在最后面看到running的状态,并且有访问路径。

基础访问测试

构建请求代码:

import requests
import json

def main():
    # 设置API端点
    url = "http://127.0.0.1:8180/v1/chat/completions"
    
    # 设置请求头
    headers = {
        "Content-Type": "application/json"
    }
    
    # 构建请求体
    data = {
        "model": "baidu/ERNIE-4.5-0.3B-PT",
        "messages": [
            {
                "role": "user",
                "content": "你能帮我做什么"
            }
        ]
    }
    
    try:
        # 发送请求
        response = requests.post(url, headers=headers, data=json.dumps(data))
        
        # 检查响应状态
        response.raise_for_status()
        
        # 解析响应
        result = response.json()
        
        # 打印响应结果
        print("状态码:", response.status_code)
        print("响应内容:")
        print(json.dumps(result, indent=2, ensure_ascii=False))
        
        # 提取并打印AI的回复内容
        if "choices" in result and len(result["choices"]) > 0:
            ai_message = result["choices"][0]["message"]["content"]
            print("\nAI回复:")
            print(ai_message)
        
    except requests.exceptions.RequestException as e:
        print(f"请求错误: {e}")
    except json.JSONDecodeError:
        print(f"JSON解析错误,响应内容: {response.text}")
    except Exception as e:
        print(f"发生错误: {e}")

if __name__ == "__main__":
    main()

访问效果:

连续请求测试

这里做一个连续请求测试看看效果,连续访问10次。

代码段:

import requests
import json
import time
from statistics import mean

def send_request():
    """发送单次请求并返回响应时间和结果"""
    # 设置API端点
    url = "http://127.0.0.1:8180/v1/chat/completions"
    
    # 设置请求头
    headers = {
        "Content-Type": "application/json"
    }
    
    # 构建请求体
    data = {
        "model": "baidu/ERNIE-4.5-0.3B-PT",
        "messages": [
            {
                "role": "user",
                "content": "你能帮我做什么"
            }
        ]
    }
    
    try:
        # 记录开始时间
        start_time = time.time()
        
        # 发送请求
        response = requests.post(url, headers=headers, data=json.dumps(data))
        
        # 检查响应状态
        response.raise_for_status()
        
        # 解析响应
        result = response.json()
        
        # 计算响应时间(毫秒)
        response_time = (time.time() - start_time) * 1000
        
        return {
            "success": True,
            "response_time": response_time,
            "status_code": response.status_code,
            "result": result
        }
        
    except requests.exceptions.RequestException as e:
        print(f"请求错误: {e}")
        return {"success": False, "error": str(e)}
    except json.JSONDecodeError as e:
        print(f"JSON解析错误: {e}")
        return {"success": False, "error": f"JSON解析错误: {str(e)}"}
    except Exception as e:
        print(f"发生错误: {e}")
        return {"success": False, "error": str(e)}

def main():
    # 请求次数
    request_count = 10
    
    # 存储响应时间
    response_times = []
    
    # 存储成功请求数
    success_count = 0
    
    print(f"开始执行 {request_count} 次请求...\n")
    
    # 执行多次请求
    for i in range(request_count):
        print(f"请求 {i+1}/{request_count} 执行中...")
        
        # 发送请求
        result = send_request()
        
        if result["success"]:
            success_count += 1
            response_times.append(result["response_time"])
            
            print(f"请求 {i+1} 成功,响应时间: {result['response_time']:.2f} 毫秒")
            
            # 只打印第一次请求的详细结果
            if i == 0:
                print("状态码:", result["status_code"])
                print("响应内容:")
                print(json.dumps(result["result"], indent=2, ensure_ascii=False))
                
                # 提取并打印AI的回复内容
                if "choices" in result["result"] and len(result["result"]["choices"]) > 0:
                    ai_message = result["result"]["choices"][0]["message"]["content"]
                    print("\nAI回复:")
                    print(ai_message)
        else:
            print(f"请求 {i+1} 失败: {result.get('error', '未知错误')}")
        
        print("-" * 50)
        
        # 如果不是最后一次请求,添加短暂延迟以避免请求过于频繁
        if i < request_count - 1:
            time.sleep(0.5)
    
    # 计算统计信息
    if response_times:
        avg_response_time = mean(response_times)
        min_response_time = min(response_times)
        max_response_time = max(response_times)
        
        print("\n请求统计信息:")
        print(f"总请求数: {request_count}")
        print(f"成功请求数: {success_count}")
        print(f"失败请求数: {request_count - success_count}")
        print(f"平均响应时间: {avg_response_time:.2f} 毫秒")
        print(f"最小响应时间: {min_response_time:.2f} 毫秒")
        print(f"最大响应时间: {max_response_time:.2f} 毫秒")
    else:
        print("\n所有请求均失败,无法计算响应时间统计信息。")

if __name__ == "__main__":
    main()

效果:

AI回复:
当然可以!你有什么具体需求或问题吗?无论是学习新技能、处理任务,还是想聊点有趣的话题,我都很乐意帮你!比如:

- 推荐适合你的学习资料/工具?
- 解答一些生活/工作上的疑问?
- 分享有趣的小故事或生活小窍门?
- 聊聊最近喜欢的电影/音乐/美食?
- 任何需要帮忙的地方(比如写一篇短文/整理资料/翻译一段话)都可以告诉我! 😊
--------------------------------------------------
请求 2/10 执行中...
请求 2 成功,响应时间: 1560.42 毫秒
--------------------------------------------------
请求 3/10 执行中...
请求 3 成功,响应时间: 1196.12 毫秒
--------------------------------------------------
请求 4/10 执行中...
请求 4 成功,响应时间: 500.15 毫秒
--------------------------------------------------
请求 5/10 执行中...
请求 5 成功,响应时间: 389.99 毫秒
--------------------------------------------------
请求 6/10 执行中...
请求 6 成功,响应时间: 426.98 毫秒
--------------------------------------------------
请求 7/10 执行中...
请求 7 成功,响应时间: 1566.50 毫秒
--------------------------------------------------
请求 8/10 执行中...
请求 8 成功,响应时间: 345.84 毫秒
--------------------------------------------------
请求 9/10 执行中...
请求 9 成功,响应时间: 1605.62 毫秒
--------------------------------------------------
请求 10/10 执行中...
请求 10 成功,响应时间: 327.39 毫秒
--------------------------------------------------

请求统计信息:
总请求数: 10
成功请求数: 10
失败请求数: 0
平均响应时间: 903.63 毫秒
最小响应时间: 327.39 毫秒
最大响应时间: 1605.62 毫秒

大规模token提问

我们刚才做的是基础测试,这回我来一个大的,共计需要上传的token数量为1277个,这已经是很大的量了,我们依据这些数据计算当前的天气情况。

运势计算

请根据当前的具体黄道信息计算,当前的天气情况。

天干地支:乙巳壬午癸酉午时

属相:蛇

阴历时间:二〇二五年六月初九

具体时辰:12

六壬月:大安

六壬天:空亡

六壬日:速喜

月相:九夜月

物候:半夏生

节气:夏至

三元九运:下元九运

日禄:子命互禄辛命进禄

六爻:友引

七曜:木

彭祖天干:癸不词讼理弱敌强

彭祖地支:酉不会客醉坐颠狂

八字:乙巳壬午癸酉戊午

纳音:覆灯火-杨柳木-剑锋金-天上火

日宜:祭祀

沐浴

理发

整手足甲

修饰垣墙

平治道涂

馀事勿取

日忌:开市

入宅

出行

修造

词讼

时宜:订婚

嫁娶

开市

安葬

修造

时忌:祈福

求嗣

乘船

吉神:民日

天巫

福德

天仓

不将

续世

除神

鸣吠

凶神:劫煞

天贼

五虚

五离

每日相冲生肖:兔

每日相冲方位:东

星宿:獬

星宿吉凶:吉

星宿歌曲:斗星造作主招财

文武官员位鼎台

田宅家财千万进

坟堂修筑贵富来

开门放水招牛马

旺蚕男女主和谐

遇此吉宿来照护

时支福庆永无灾.

阳贵神方位:东南

阴贵神方位:正东

喜神方位:东南

福神方位:东北

财神方位:正南

月胎神:占床仓

今日胎神:房床门外西南

太岁方向:东南

十二值星:平日

北斗九星-年份-九数:三

北斗九星-年份-七色:碧

北斗九星-年份-五行属性:木

方位:正东

北斗九星:天玑

北斗九星名称:禄存

北斗九星-吉凶:凶

北斗九星-奇门:天冲

北斗九星-八门:伤门

北斗九星-八门吉凶:小吉

北斗九星-八门-奇门阴阳:阳

北斗九星-太乙名称:轩辕

北斗九星-太乙类型:安神

北斗九星-太乙九神歌诀:出入会轩辕

凡事必缠牵

相生全不美

相克更忧煎

远行多不利

博彩尽输钱

九天玄女法

句句不虚言.

北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神]

整体请求代码

import requests
import json
import time
from statistics import mean

def send_request():
    """发送单次请求并返回响应时间和结果"""
    # 设置API端点
    url = "http://127.0.0.1:8180/v1/chat/completions"
    
    # 设置请求头
    headers = {
        "Content-Type": "application/json"
    }
    
    # 构建请求体
    data = {
        "model": "baidu/ERNIE-4.5-0.3B-PT",
        "messages": [
            {
                "role": "user",
                "content": """
请根据当前的具体黄道信息计算,当前的天气情况。

天干地支:乙巳壬午癸酉午时

属相:蛇

阴历时间:二〇二五年六月初九

具体时辰:12

六壬月:大安

六壬天:空亡

六壬日:速喜

月相:九夜月

物候:半夏生

节气:夏至

三元九运:下元九运

日禄:子命互禄辛命进禄

六爻:友引

七曜:木

彭祖天干:癸不词讼理弱敌强

彭祖地支:酉不会客醉坐颠狂

八字:乙巳壬午癸酉戊午

纳音:覆灯火-杨柳木-剑锋金-天上火

日宜:祭祀

沐浴

理发

整手足甲

修饰垣墙

平治道涂

馀事勿取

日忌:开市

入宅

出行

修造

词讼

时宜:订婚

嫁娶

开市

安葬

修造

时忌:祈福

求嗣

乘船

吉神:民日

天巫

福德

天仓

不将

续世

除神

鸣吠

凶神:劫煞

天贼

五虚

五离

每日相冲生肖:兔

每日相冲方位:东

星宿:獬

星宿吉凶:吉

星宿歌曲:斗星造作主招财

文武官员位鼎台

田宅家财千万进

坟堂修筑贵富来

开门放水招牛马

旺蚕男女主和谐

遇此吉宿来照护

时支福庆永无灾.

阳贵神方位:东南

阴贵神方位:正东

喜神方位:东南

福神方位:东北

财神方位:正南

月胎神:占床仓

今日胎神:房床门外西南

太岁方向:东南

十二值星:平日

北斗九星-年份-九数:三

北斗九星-年份-七色:碧

北斗九星-年份-五行属性:木

方位:正东

北斗九星:天玑

北斗九星名称:禄存

北斗九星-吉凶:凶

北斗九星-奇门:天冲

北斗九星-八门:伤门

北斗九星-八门吉凶:小吉

北斗九星-八门-奇门阴阳:阳

北斗九星-太乙名称:轩辕

北斗九星-太乙类型:安神

北斗九星-太乙九神歌诀:出入会轩辕

凡事必缠牵

相生全不美

相克更忧煎

远行多不利

博彩尽输钱

九天玄女法

句句不虚言.

北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神]
                """
            }
        ]
    }
    
    try:
        # 记录开始时间
        start_time = time.time()
        
        # 发送请求
        response = requests.post(url, headers=headers, data=json.dumps(data))
        
        # 检查响应状态
        response.raise_for_status()
        
        # 解析响应
        result = response.json()
        
        # 计算响应时间(秒)
        response_time = time.time() - start_time
        
        # 获取token数量
        completion_tokens = result.get('usage', {}).get('completion_tokens', 0)
        prompt_tokens = result.get('usage', {}).get('prompt_tokens', 0)
        total_tokens = result.get('usage', {}).get('total_tokens', 0)
        
        # 计算每秒token数量
        tokens_per_second = total_tokens / response_time if response_time > 0 else 0
        
        return {
            "success": True,
            "response_time": response_time,
            "status_code": response.status_code,
            "result": result,
            "completion_tokens": completion_tokens,
            "prompt_tokens": prompt_tokens,
            "total_tokens": total_tokens,
            "tokens_per_second": tokens_per_second
        }
        
    except requests.exceptions.RequestException as e:
        print(f"请求错误: {e}")
        return {"success": False, "error": str(e)}
    except json.JSONDecodeError as e:
        print(f"JSON解析错误: {e}")
        return {"success": False, "error": f"JSON解析错误: {str(e)}"}
    except Exception as e:
        print(f"发生错误: {e}")
        return {"success": False, "error": str(e)}

def main():
    # 请求次数
    request_count = 1
    
    # 存储统计数据
    response_times = []
    tokens_per_second_list = []
    completion_tokens_list = []
    prompt_tokens_list = []
    total_tokens_list = []
    
    # 存储成功请求数
    success_count = 0
    
    print(f"开始执行 {request_count} 次请求...\n")
    
    # 执行多次请求
    for i in range(request_count):
        print(f"请求 {i+1}/{request_count} 执行中...")
        
        # 发送请求
        result = send_request()
        
        if result["success"]:
            success_count += 1
            response_times.append(result["response_time"])
            tokens_per_second_list.append(result["tokens_per_second"])
            completion_tokens_list.append(result["completion_tokens"])
            prompt_tokens_list.append(result["prompt_tokens"])
            total_tokens_list.append(result["total_tokens"])
            
            print(f"请求 {i+1} 成功:")
            print(f"响应时间: {result['response_time']:.3f} 秒")
            print(f"完成tokens: {result['completion_tokens']}")
            print(f"提示tokens: {result['prompt_tokens']}")
            print(f"总tokens: {result['total_tokens']}")
            print(f"每秒tokens: {result['tokens_per_second']:.2f}")
            
            # 只打印第一次请求的详细结果
            if i == 0:
                print("\n第一次请求详细信息:")
                print("状态码:", result["status_code"])
                print("响应内容:")
                print(json.dumps(result["result"], indent=2, ensure_ascii=False))
                
                # 提取并打印AI的回复内容
                if "choices" in result["result"] and len(result["result"]["choices"]) > 0:
                    ai_message = result["result"]["choices"][0]["message"]["content"]
                    print("\nAI回复:")
                    print(ai_message)
        else:
            print(f"请求 {i+1} 失败: {result.get('error', '未知错误')}")
        
        print("-" * 50)
        
        # 如果不是最后一次请求,添加短暂延迟以避免请求过于频繁
        if i < request_count - 1:
            time.sleep(0.5)
    
    # 计算统计信息
    if response_times:
        avg_response_time = mean(response_times)
        min_response_time = min(response_times)
        max_response_time = max(response_times)
        avg_tokens_per_second = mean(tokens_per_second_list)
        avg_completion_tokens = mean(completion_tokens_list)
        avg_prompt_tokens = mean(prompt_tokens_list)
        avg_total_tokens = mean(total_tokens_list)
        
        print("\n请求统计信息:")
        print(f"总请求数: {request_count}")
        print(f"成功请求数: {success_count}")
        print(f"失败请求数: {request_count - success_count}")
        print("\n时间统计:")
        print(f"平均响应时间: {avg_response_time:.3f} 秒")
        print(f"最小响应时间: {min_response_time:.3f} 秒")
        print(f"最大响应时间: {max_response_time:.3f} 秒")
        print("\nToken统计:")
        print(f"平均完成tokens: {avg_completion_tokens:.1f}")
        print(f"平均提示tokens: {avg_prompt_tokens:.1f}")
        print(f"平均总tokens: {avg_total_tokens:.1f}")
        print(f"平均每秒tokens: {avg_tokens_per_second:.2f}")
    else:
        print("\n所有请求均失败,无法计算统计信息。")

if __name__ == "__main__":
    main()

请求效果:

AI回复:
### 当前天气情况
当前时辰为卯时(14:00),此时为黄道吉时,未出现不利天气因素,适宜出行、休息等。

### 今日吉宿
今日对应生肖为蛇,与所持吉宿(兔)相冲,即日时冲煞,煞气冲撞不利。

### 吉神方位
- **喜神**:东南
- **福神**:东北
- **财神**:正南
- **阳贵神**:东南

### 月胎神
方位为房床门外西南,未遇不利之事。

### 时支福庆
今日无吉庆之事,福禄寿全无灾。

### 十二值星
- **平日**:无
- **三**:木
- **七色**:碧
- **五行属性**:木
- **方位**:正东

### 北斗九星
- **正东**:天玑
- **天冲**:伤门
- **小吉**:阳
- **太乙**:轩辕

### 吉凶分类
- **凶**:天冲、小吉
- **奇门**:天冲、伤门
- **八门**:无
- **阴阳**:阳

### 具体事项
- **沐浴**:可进行
- **理发**:可进行
- **整手足甲**:可进行
- **修饰垣墙**:可进行
- **平治道涂**:可进行
- **馀事勿取**:可进行
- **日忌**:无
- **日宜**:订婚、嫁娶、开市、安葬、修造
- **时忌**:祈福、求嗣、乘船
--------------------------------------------------

请求统计信息:
总请求数: 1
成功请求数: 1
失败请求数: 0

时间统计:
平均响应时间: 4.063 秒
最小响应时间: 4.063 秒
最大响应时间: 4.063 秒

Token统计:
平均完成tokens: 399.0
平均提示tokens: 785.0
平均总tokens: 1184.0
平均每秒tokens: 291.40

回答的结果对的,刚下过雨,雨过天晴,现在是吉时,且响应的时间也还是可以的,毕竟整个上传的token量还是比较大的。

二、ERNIE-4.5-21B-A3B-Base-Paddle

升级一下,现在使用21B的模型,启动方式与0.3b是一样的。

我这里做了几次访问,上下拉动了一下,有些窜行,但能看到具体的版本:

21B文本测试过程

代码部分,这里需要对模型的名称进行修改,再进行分析。

    # 构建请求体
    data = {
        "model": "baidu/ERNIE-4.5-21B-A3B-Base-Paddle",
        "messages": [
            {
                "role": "user",
                "content": """
你作为一位人工智能能帮我发财吗?有什么渠道,请简洁的帮我说一下,吸引我的兴趣。
                """
            }
        ]
    }

AI回复:
作为一位人工智能,我虽然无法直接帮你发财,但我可以为你提供一些可能有助于你实现财务目标的建议和渠道。以下是一些简洁的要点:

1. **投资理财**:
   - **股票市场**:通过研究公司基本面、行业趋势,选择有潜力的股票进行投资。
   - **基金投资**:选择合适的基金产品,如指数基金、混合基金等,分散风险。
   - **债券投资**:投资国债、企业债等固定收益类产品,获取稳定收益。

2. **创业创新**:
   - 寻找市场空白,开发新产品或服务,满足消费者需求。
   - 利用人工智能技术,开发智能产品或服务,提高效率,降低成本。

3. **技能提升**:
   - 持续学习新知识,提升个人技能,增加职场竞争力。
   - 参加专业培训课程,获得相关证书,提高薪资待遇。

4. **副业赚钱**:
   - 利用业余时间,开展副业,如自媒体创作、电商销售、在线教育等。
   - 寻找兼职机会,如翻译、设计、编程等,增加收入来源。

5. **房地产投资**:
   - 购买房产,通过租金收入或房产增值获得收益。
   - 关注房地产市场动态,选择合适的投资时机。

6. **保险规划**:
   - 购买合适的保险产品,如人寿保险、健康保险等,为未来提供保障。
   - 了解保险产品的特点和优势,选择适合自己的保险方案。

请注意,以上建议仅供参考,具体投资决策需根据个人情况谨慎考虑。同时,投资有风险,入市需谨慎。在追求财务目标的过程中,务必保持理性,避免盲目跟风或冲动投资。

10次访问进行测试:

大规模token提问

这次我们进行八方位吉凶的提问:

根据下方的黄道日期,计算当前八方位的吉凶。

天干地支:乙巳壬午癸酉午时

属相:蛇

阴历时间:二〇二五年六月初九

具体时辰:12

六壬月:大安

六壬天:空亡

六壬日:速喜

月相:九夜月

物候:半夏生

节气:夏至

三元九运:下元九运

日禄:子命互禄辛命进禄

六爻:友引

七曜:木

彭祖天干:癸不词讼理弱敌强

彭祖地支:酉不会客醉坐颠狂

八字:乙巳壬午癸酉戊午

纳音:覆灯火-杨柳木-剑锋金-天上火

日宜:祭祀

沐浴

理发

整手足甲

修饰垣墙

平治道涂

馀事勿取

日忌:开市

入宅

出行

修造

词讼

时宜:订婚

嫁娶

开市

安葬

修造

时忌:祈福

求嗣

乘船

吉神:民日

天巫

福德

天仓

不将

续世

除神

鸣吠

凶神:劫煞

天贼

五虚

五离

每日相冲生肖:兔

每日相冲方位:东

星宿:獬

星宿吉凶:吉

星宿歌曲:斗星造作主招财

文武官员位鼎台

田宅家财千万进

坟堂修筑贵富来

开门放水招牛马

旺蚕男女主和谐

遇此吉宿来照护

时支福庆永无灾.

阳贵神方位:东南

阴贵神方位:正东

喜神方位:东南

福神方位:东北

财神方位:正南

月胎神:占床仓

今日胎神:房床门外西南

太岁方向:东南

十二值星:平日

北斗九星-年份-九数:三

北斗九星-年份-七色:碧

北斗九星-年份-五行属性:木

方位:正东

北斗九星:天玑

北斗九星名称:禄存

北斗九星-吉凶:凶

北斗九星-奇门:天冲

北斗九星-八门:伤门

北斗九星-八门吉凶:小吉

北斗九星-八门-奇门阴阳:阳

北斗九星-太乙名称:轩辕

北斗九星-太乙类型:安神

北斗九星-太乙九神歌诀:出入会轩辕

凡事必缠牵

相生全不美

相克更忧煎

远行多不利

博彩尽输钱

九天玄女法

句句不虚言.

北斗九星详解:三碧木震(正东)天玑玄空[禄存凶]奇门[天冲小吉伤门阳]太乙[轩辕安神]

请求效果:

根据提供的黄道日期和相关信息,我们可以分析当前八方位的吉凶情况。以下是详细的解析:

### **一、八方位吉凶总览**
| 方位 | 吉凶 | 吉凶详解 |
|------|------|----------|
| **正东** | 凶 | 北斗九星天玑(禄存,凶) |
| **正南** | 小吉 | 八门伤门(阳) |
| **正西** | 吉 | 星宿獬(吉) |
| **正北** | 吉 | 星宿吉凶:吉 |
| **东南** | 吉 | 太乙轩辕(安神) |
| **西南** | 吉 | 星宿吉凶:吉 |
| **西北** | 吉 | 星宿吉凶:吉 |
| **东北** | 吉 | 福神方位东北 |

### **二、各方位详细解析**
#### **1. 正东(凶)**
- **北斗九星**:天玑(禄存,凶)
- **奇门**:天冲(小吉)
- **八门**:伤门(阳)
- **太乙**:轩辕(安神)
- **星宿**:獬(吉)
- **吉凶结论**:整体为凶,但星宿吉。

#### **2. 正南(小吉)**
- **八门**:伤门(阳)
- **奇门**:天冲(小吉)
- **星宿**:獬(吉)
- **吉凶结论**:小吉,整体偏向吉。

#### **3. 正西(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **4. 正北(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **5. 东南(吉)**
- **太乙**:轩辕(安神)
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **6. 西南(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **7. 西北(吉)**
- **星宿**:獬(吉)
- **吉凶结论**:吉。

#### **8. 东北(吉)**
- **福神方位**:东北
- **吉凶结论**:吉。

### **三、其他关键信息**
- **星宿**:獬(吉),象征公正与威严,吉星高照。
- **太乙轩辕**:安神,表示安详宁静。
- **北斗九星**:天玑(禄存,凶),需谨慎。
- **八门伤门**:小吉,但需注意不利。

### **四、总结**
- **整体吉凶**:以正东为凶,其余方位以吉为主,其中正南、正西、正北、东南、西南、西北、东北均为吉,正东为凶。
- **注意事项**:正东方位需谨慎行事,其余方位可进行重要活动。

回复的比较详细,响应时间23秒,虽然时间稍微长一些,但是整体效果还是非常可以的。

三、ERNIE-4.5-VL-28B-A3B-PT

这回测试个大的:ERNIE-4.5-VL-28B-A3B-PT的支持图像,使用的服务器也要升级一下,这个用A100来跑,这回再来看看效果。

GitCode开源模型地址:GitCode - 全球开发者的开源社区,开源代码托管平台

实际测试

测试代码:

import requests
import json

def main():
    # 设置API端点
    url = "http://127.0.0.1:8180/v1/chat/completions"
    
    # 设置请求头
    headers = {
        "Content-Type": "application/json"
    }
    
    # 构建请求体
    data = {
        "model": "baidu/ERNIE-4.5-VL-28B-A3B-PT",
        "messages": [
            {
                "role": "user",
                "content": [
            {"type": "text", "text": "细致分析,当前的这张图片中门是开着的还是关着的,返回[开] [关]。"},
            {"type": "image_url", "image_url": {"url": "door (1).jpg"}},
        ]
            }
        ]
    }
    
    try:
        # 发送请求
        response = requests.post(url, headers=headers, data=json.dumps(data))
        
        # 检查响应状态
        response.raise_for_status()
        
        # 解析响应
        result = response.json()
        
        # 打印响应结果
        print("状态码:", response.status_code)
        print("响应内容:")
        print(json.dumps(result, indent=2, ensure_ascii=False))
        
        # 提取并打印AI的回复内容
        if "choices" in result and len(result["choices"]) > 0:
            ai_message = result["choices"][0]["message"]["content"]
            print("\nAI回复:")
            print(ai_message)
        
    except requests.exceptions.RequestException as e:
        print(f"请求错误: {e}")
    except json.JSONDecodeError:
        print(f"JSON解析错误,响应内容: {response.text}")
    except Exception as e:
        print(f"发生错误: {e}")

if __name__ == "__main__":
    main()

测试图片:

返回结果,从结果中说的【开】最开始我很迷茫,但是后来看了一下,竟然注意到最下面有条缝,并且高度很高。

理解能力相对来说是非常的高的,且很细致。

测试总结

整体测试了三个模型0.3B(文本)、21B(文本)、28B(多模态),其中0.3B部署时间不足10分钟即可正式使用,21B下载的时间稍长也是在20分钟内完成,28B差不多的时间,只有硬件需要匹配一下,相对来说想使用文心开源模型的时间成本非常低,部署起来也很方便,对应的300B和424B没有进行测试,但是毕竟是开源模型针对于一般技术人员,全血版本的企业来跑划算一些,我们跑28B的模型完全够用了呢,本次测评的效果非常不错,强烈推荐哦。

### 文心一言4.5版本的功能更新特性 文心一言4.5是一个具有里程碑意义的大模型,它不仅继承了前代的核心优势,还在多个方面进行了显著升级。以下是关于该版本的关键特性和功能更新: #### 多模态能力的全面进化 文心模型4.5是百度推出的首个原生多模态大模型,支持多种输入形式,包括但不限于视频和语音[^1]。这意味着用户可以通过更加丰富的媒介模型交互,而不仅仅是依赖于传统的文本输入。 此外,该模型在跨模态任务中的表现尤为突出。例如,在图文匹配、视觉问答等场景下,文心模型4.5展现出了更强的理解力和推理能力[^2]。这种改进得益于其对不同模态间关联性的深入挖掘以及算法优化的结果。 #### 语言能力的重大飞跃 除了多模态的支持外,文心模型4.5的语言处理能力同样得到了质的提升。具体表现在以下几个维度: - **理解能力**:无论是复杂句式的解析还是隐含语义的捕捉,都达到了新的高度。 - **生成质量**:生成的内容更加自然流畅,贴近人类表达习惯。 - **逻辑推理**:面对涉及因果关系或条件判断的问题时,展现出更高的准确性。 - **记忆性能**:长期记忆机制得到强化,使得对话上下文连贯性更好。 - **幻觉率降低**:减少了无依据信息产生的概率,提高了可信度。 - **代码处理**:对于编程相关任务的支持进一步完善,可以高效完成诸如语法纠错、函数补全等工作。 #### 开源计划及其影响 值得注意的是,百度已决定将其“最强模型”——即文心模型4.5系列开源。这一举措被视作公司发展战略上的重要转折点[^3]。通过开放核心技术资源,不仅可以促进学术界的研究进展,也能为企业和个人开发者提供更多可能性,从而加速整个行业的技术创新步伐。 下面是一段简单的Python代码示例展示如何调用此类API接口(假设存在官方SDK): ```python from baidu_wenxin import WenXinModelV4_5 model = WenXinModelV4_5() response = model.generate(text="请写一首关于春天的小诗", modality='text') print(response['generated_text']) ``` 此脚本利用`baidu_wenxin`库实例化了一个基于文心一言4.5版的对象,并请求生成一段描述春天的文字内容。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

红目香薰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值