vue3+vite assets动态引入图片的方式

文章讲述了Vite框架中关于资源文件(如图片)在默认配置下,如何正确处理开发环境和打包后的不同引用方式。重点介绍了使用import.meta.url和newURL来动态获取并处理静态资源URL的方法,以及注意事项,如SSR不支持的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

vite 官方默认的配置,如果资源文件在assets文件夹打包后会把图片名加上 hash值,但是直接通过 :src="imgSrc"方式引入并不会在打包的时候解析,导致开发环境可以正常引入,打包后却不能显示的问题

一、静态文件放public下

很多小伙伴会将图片放到assets文件夹,例如:src/assets/images/,我们在文件夹里面放入一张图片名称叫做:arrow.png 所以文件里面就是这样子 src/assets/images/arrow.png

<img :src="require('@/assets/images/arrow.png')" />

尝试过require动态引入, 发现报错:require is not defind,这是因为 require 是属于 Webpack 的方法\

二、(适用于处理单个链接的资源文件)

import arrow from '@/assets/images/arrow.png' <img :src="arrow" />

三、(适用于处理多个链接的资源文件)

Vite官方文档处理图片链接icon-default.png?t=N7T8https://cn.vitejs.dev/guide/assets#new-url-url-import-meta-url

new URL(url, import.meta.url)

import.meta.url 是一个 ESM 的原生功能,会暴露当前模块的 URL。将它与原生的 URL 构造器 组合使用,在一个 JavaScript 模块中,通过相对路径我们就能得到一个被完整解析的静态资源 URL:

js

const imgUrl = new URL('./img.png', import.meta.url).href

document.getElementById('hero-img').src = imgUrl

这在现代浏览器中能够原生使用 - 实际上,Vite 并不需要在开发阶段处理这些代码!

这个模式同样还可以通过字符串模板支持动态 URL:

function getImageUrl(name) {
  return new URL(`./dir/${name}.png`, import.meta.url).href
}

在生产构建时,Vite 才会进行必要的转换保证 URL 在打包和资源哈希后仍指向正确的地址。然而,这个 URL 字符串必须是静态的,这样才好分析。否则代码将被原样保留、因而在 build.target 不支持 import.meta.url 时会导致运行时错误。

js

// Vite 不会转换这个
const imgUrl = new URL(imagePath, import.meta.url).href
注意:无法在 SSR 中使用
如果你正在以服务端渲染模式使用 Vite 则此模式不支持,因为 import.meta.url 在浏览器和 Node.js 中有不同的语义。服务端的产物也无法预先确定客户端主机 URL。

具体的使用方法:

首先在utils 里面创建一个自己的方法:getUrls.ts

//getUrl.ts
// 获取assets静态资源
export const getAssetsFile = (urlName: string) => {
  console.info("====", urlName);
  console.info("url", import.meta.url);
  console.info("url2", new URL(`../../assets/${urlName}`, import.meta.url));
  return new URL(`./assets/${urlName}`, import.meta.url).href;
};

然后看一眼文件夹的路径

具体使用: 

 import { getAssetsFile } from "@/utils/imageUrl/getUrl";

然后链接路径进行替换就好。

下面是一个基于卷积神经网络的疲劳驾驶识别检测的Python代码,包括数据集的生成模型的训练测试: ``` import cv2 import os import numpy as np from sklearn.model_selection import train_test_split from keras.models import Sequential from keras.layers import Dense, Dropout, Flatten from keras.layers.convolutional import Conv2D, MaxPooling2D from keras.utils import to_categorical # 生成数据集 def load_dataset(dataset_path, img_size): # 读取数据集 images = [] labels = [] for foldername in os.listdir(dataset_path): label = int(foldername) folderpath = os.path.join(dataset_path, foldername) for filename in os.listdir(folderpath): imagepath = os.path.join(folderpath, filename) image = cv2.imread(imagepath) image = cv2.resize(image, (img_size, img_size)) images.append(image) labels.append(label) images = np.array(images, dtype=np.float32) / 255.0 labels = np.array(labels, dtype=np.int32) return images, labels # 划分数据集 def split_dataset(images, labels, test_size): x_train, x_test, y_train, y_test = train_test_split(images, labels, test_size=test_size, random_state=42) y_train = to_categorical(y_train) y_test = to_categorical(y_test) return x_train, x_test, y_train, y_test # 定义模型 def create_model(img_size, num_classes): model = Sequential() model.add(Conv2D(32, (3, 3), input_shape=(img_size, img_size, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Conv2D(64, (3, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) return model # 训练模型 def train_model(x_train, y_train, x_test, y_test, batch_size, epochs): model = create_model(x_train.shape[1], y_train.shape[1]) model.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=epochs, batch_size=batch_size) return model # 测试模型 def test_model(model, images, labels): loss, acc = model.evaluate(images, labels, verbose=0) return acc # 主函数 if __name__ == '__main__': dataset_path = 'dataset' img_size = 32 test_size = 0.2 batch_size = 32 epochs = 10 num_classes = 2 images, labels = load_dataset(dataset_path, img_size) x_train, x_test, y_train, y_test = split_dataset(images, labels, test_size) model = train_model(x_train, y_train, x_test, y_test, batch_size, epochs) acc = test_model(model, x_test, y_test) print('Test accuracy:', acc) ``` 在这个代码中,我们首先使用`load_dataset`函数读取数据集,然后使用`split_dataset`函数划分数据集,接着使用`create_model`函数定义模型,使用`train_model`函数训练模型,最后使用`test_model`函数测试模型。其中,`num_classes`表示数据集中的类别数,本例中为2(疲劳非疲劳),可以根据实际情况进行修改。 需要注意的是,在运行代码之前,需要先准备好数据集,将疲劳非疲劳的图像分别放在两个不同的文件夹中,并将这两个文件夹放在一个名为`dataset`的文件夹下。 希望对你有所帮助!
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值