PyQt5与llama-cpp-python初始化过程中的底层冲突

我最近在写一个python应用的时候遇到了一个报错:

2025-05-12 11:36:59 - ERROR - [__main__:minimal_pyqt_llama_test.py:32] - Llama model load FAILED: exception: access violation reading 0x0000000000000000
Traceback (most recent call last):
  File "D:\PythonProjects\GameAssistant\minimal_pyqt_llama_test.py", line 28, in attempt_load_llama
    llm = Llama(model_path=model_path, n_ctx=n_ctx, verbose=verbose, n_gpu_layers=n_gpu_layers)
  File "D:\PythonProjects\GameAssistant\game_assistant_env\lib\site-packages\llama_cpp\llama.py", line 204, in __init__
    llama_cpp.llama_backend_init()
OSError: exception: access violation reading 0x0000000000000000

一开始,我认为是我的文件地址写错了,于是我反复对比D:/models/Phi-3-mini-4k-instruct-q4.gguf却发现确实没有问题,那就很费解了,为什么会出现这种情况,于是我反复测试反复测试,在经过长达2天的测试后,我决定先看看底层之间是否有冲突,于是我编写了两个测试文件分别是:

# test_llm_load.py

from llama_cpp import Llama

import logging

logging.basicConfig(level=logging.DEBUG)

logger = logging.getLogger(__name__)

model_path = "D:/models/Phi-3-mini-4k-instruct-q4.gguf"

try:

    logger.info(f"Attempting to load model from: {model_path}")

    llm = Llama(

        model_path=model_path,

        n_ctx=512,      

        n_gpu_layers=0, 

        verbose=True    

    )

    logger.info("Model loaded successfully!")

except Exception as e:

    logger.error(f"Error loading or using Llama model: {e}", exc_info=True)

and

# minimal_pyqt_llama_test.py

import sys

import logging

from PyQt5.QtWidgets import QApplication, QWidget, QVBoxLayout, QPushButton, QTextEdit

# --- 日志配置 ---

logging.basicConfig(

    level=logging.DEBUG,

    format='%(asctime)s - %(levelname)s - [%(n

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值