Web3.providers.HttpProvider is not a constructor报错

博客讲述网上代码报错‘Web3.providers.HttpProvider is not a constructor’,经排查是Web3版本为4.3.0所致,只需修改一步即可解决问题,还给出了完整代码及结果图。

这个是网上给出的代码,但是一直报错

var localhost = "http://127.0.0.1:7545"
var Web3 = require("web3")
var web3 = new Web3(new Web3.providers.HttpProvider(localhost))
web3.eth.getAccounts(function (error, result) {
    console.log("账户列表地址:");
    console.log(result);
});

Web3.providers.HttpProvider is not a constructor
在这里插入图片描述
自己也花了很多时间,其实就是版本的原因!我的web版本是4.3.0。只需要修改一步就可以了。

var Web3 = require("web3")

改为

const {Web3} = require("web3");

完整代码如下图所示

const localhost = "http://127.0.0.1:8545";
const {Web3} = require("web3");
const web3 = new Web3(new Web3.providers.HttpProvider(localhost));

web3.eth.getAccounts().then(function (result) {
    console.log("账户列表地址:");
    console.log(result);
}).catch(function (error) {
    console.error(error);
});

结果如图
在这里插入图片描述

### 解决 ONNX Runtime 加载模型时出现的 NoSuchFile 错误及 CUDA Execution Provider 不可用的问题 #### 1. 解决 `NoSuchFile` 错误 当使用 ONNX Runtime 的 `InferenceSession` 方法加载模型时,如果指定的路径无效或文件不存在,会抛出 `NoSuchFile` 错误。以下是解决此问题的具体方法: - **确认模型文件路径**:确保提供的路径是正确的,并且模型文件确实存在于该路径下。可以使用以下代码验证文件是否存在[^1]。 ```python import os model_path = "test_model.onnx" # 替换为实际的模型路径 if not os.path.exists(model_path): print(f"Error: The file '{model_path}' does not exist.") else: print(f"The file '{model_path}' exists.") ``` - **检查文件权限**:即使文件存在,也可能由于权限问题导致无法加载。确保当前用户对模型文件具有读取权限。可以通过以下命令检查文件权限: ```bash ls -l test_model.onnx ``` 如果权限不足,可以尝试使用以下命令修改权限: ```bash chmod +r test_model.onnx ``` - **验证模型文件完整性**:有时,模型文件可能损坏或不完整,导致加载失败。可以尝试使用以下工具验证模型文件的有效性: ```python import onnx # 验证模型文件是否有效 onnx_model = onnx.load("test_model.onnx") onnx.checker.check_model(onnx_model) print("Model is valid.") ``` - **使用绝对路径**:相对路径可能导致路径解析问题,尤其是在跨平台或复杂目录结构中。建议使用绝对路径来避免此类问题: ```python import os model_path = os.path.abspath("test_model.onnx") # 替换为实际的模型路径 session = onnxruntime.InferenceSession(model_path) ``` #### 2. 排查 CUDA Execution Provider 不可用的问题 如果在使用 ONNX Runtime 时发现 CUDA Execution Provider 不可用,可能是以下原因之一: - **未安装支持 CUDA 的 ONNX Runtime 版本**:默认的 ONNX Runtime 包可能不包含 CUDA 支持。需要安装支持 GPU 的版本,例如 `onnxruntime-gpu`[^2]。 ```bash pip install onnxruntime-gpu ``` - **CUDA 和 cuDNN 环境配置错误**:确保系统已正确安装 CUDA 和 cuDNN,并且其版本与 ONNX Runtime 兼容。可以通过以下命令验证 CUDA 是否可用: ```python import onnxruntime available_providers = onnxruntime.get_available_providers() if 'CUDAExecutionProvider' in available_providers: print("CUDAExecutionProvider is available.") else: print("CUDAExecutionProvider is NOT available.") ``` - **GPU 设备不可用**:确保系统中有可用的 NVIDIA GPU,并且驱动程序已正确安装。可以通过以下命令检查 GPU 是否被识别: ```bash nvidia-smi ``` - **显存不足**:如果 GPU 显存不足,可能导致 CUDA Execution Provider 无法正常工作。可以通过以下代码设置显存限制: ```python import onnxruntime as ort providers = ['CUDAExecutionProvider', 'CPUExecutionProvider'] provider_options = [{'device_id': 0, 'arena_extend_strategy': 'kNextPowerOfTwo'}] session = ort.InferenceSession("test_model.onnx", providers=providers, provider_options=provider_options) ``` #### 示例代码 以下是一个完整的示例,展示如何加载 ONNX 模型并启用 CUDA Execution Provider: ```python import os import onnx import onnxruntime as ort # 验证文件是否存在 model_path = "test_model.onnx" # 替换为实际的模型路径 if not os.path.exists(model_path): print(f"Error: The file '{model_path}' does not exist.") exit(1) # 验证模型是否有效 try: onnx_model = onnx.load(model_path) onnx.checker.check_model(onnx_model) print("Model is valid.") except Exception as e: print(f"Error validating model: {e}") exit(1) # 检查可用的执行提供程序 available_providers = ort.get_available_providers() if 'CUDAExecutionProvider' in available_providers: print("CUDAExecutionProvider is available.") providers = ['CUDAExecutionProvider', 'CPUExecutionProvider'] else: print("CUDAExecutionProvider is NOT available. Falling back to CPU.") providers = ['CPUExecutionProvider'] # 加载模型 try: session = ort.InferenceSession(model_path, providers=providers) print("Model loaded successfully.") except Exception as e: print(f"Error loading model: {e}") ```
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值