VMWare下安装64位虚拟机提示无法执行64位操作?有可能是360的原因

本文讲述了作者在尝试在VMware上安装Linux64位虚拟机时,由于360安全卫士的硬件虚拟化防护引擎导致虚拟机无法正常安装的经历。通过解释开启硬件虚拟化防护引擎后VMware和VirtualBox等虚拟机软件会弹窗的原因,提供了解决方法,并强调了在使用其他硬件虚拟化软件时,关闭360安全卫士硬件防护引擎的重要性。

今天要控诉一下360安全中心!!!

事情是这样的。

由于实验室需要,我在VMWare上要安装linux 64位虚拟机,结果总是出现下面的情况,先是出现下图提示,说二进制转换与此平台的长模式不兼容。

心想此处只是警告,于是点了确定,结果又出现下图,说我无法执行64位操作,然后列出了四种解决办法。


然后我想也许是我的Intel VT-x是处于禁用状态把,果断重启,狂按F2键进入Bios,看了一下,顿时感觉不妙呀!!!我的明明是enabled的状态呀。

然后我就上网上查呀查呀,一致的说法都是硬件虚拟化没有开启,需要到Bios中开启。就因为这个重启了无数次,还是没有搞好,就搁置了。

没想到呀,今天一个偶然的机会,我先把360安全卫士打开了(以前用过一段时间,后来设置成开机不自动启动了),然后我就又想打开虚拟机试试,结果360安全卫士就弹出了如下提示呀


我瞬间顿时完全明白了呀!!!

于是点了临时关闭,结果虚拟机顺利安装启动呀!顺得不能再顺了!!!

其实想想360卫士搞核晶防护引擎无可厚非,但是我就是不明白我明明把360安全卫士退出了,而且重启了N遍了,它就不能主动把核晶防护引擎给关闭吗?

最后总结一些整个坑的原因:

    开启硬件虚拟化防护引擎后,VMware和VirtualBox等虚拟机软件会弹窗?这是正常的,因为硬件虚拟化防护引擎与虚拟机软件都使用了硬件虚拟化技术,而大部分软件只能单独使用硬件虚拟化技术,无法同时使用。如果需要使用这些虚拟机,只能关闭360安全卫士的硬件虚拟化防护引擎后再使用。

永久关闭360安全卫士核晶防护引擎的方法:卫士主界面左侧上点击“安全防护中心”,点击右上角的“V”标识手动关闭开关,弹窗选择“永久关闭”即可。

希望用360的亲们再用其他硬件虚拟化的软件时不要再进入我遇到的这个坑!这也是我写这篇博文的初衷。


### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值