前端跨域请求

请求的完整地址

=> http://localhost:80/xxx.html
=> 一个请求需要和两个路径相关
  > 一个打开页面的路径
  > 一个请求地址的路径

同源策略

 => 同源策略是浏览器给的网络安全防御方案
 => 当 请求地址 和 接收地址 的传输协议, 端口号, 域名 有任意一个不一样,就是触发了浏览器的同源策略
  => 我们将触发了同源策略的请求叫做 跨域请求
  => 因为触发了同源策略, 浏览器不允许你获取这个服务器的数据

跨域请求的常见解决方案

1. jsonp

      + 利用 src 属性不受同源策略的影响
      + 利用了 script 标签会把所有请求回来的内容当做 js 代码来执行
      + 要求服务端返回一段字符串 '函数名(数据)'
      + 需要服务器改动代码
      + 只支持 GET 请求
      + 发送的不是 xhr 请求
<script>
  const ul = document.querySelector('ul')
  const inp = document.querySelector('input')
  inp.addEventListener('input', function () {
      // 2. 拿到文本框输入的内容
      // trim() 去除首位空格
      const value = this.value.trim()
      if (!value) return
      // 3. 准备发送请求
      // 动态创建 script 标签
      const script = document.createElement('script')
      // 准备一个请求地址
      // wd 这个参数要换成我文本框里面输入的内容
      const url = `https://www.baidu.com/sugrec?pre=1&p=3&ie=utf-8&json=1&prod=pc&from=pc_web&sugsid=1446,32857,33124,33061,32973,33099,33101,32962,22159&wd=${value}&req=2&csor=1&cb=bindHtml&_=1605768936993`
      script.src = url
      // 把 script 标签插入到页面里面
      document.body.appendChild(script)
      // 当 script 标签插入到页面里面的时候, 等到响应回来
      // 就会调用 bindHtml 的方法
      // 我需要提前准备
      // 函数写在全局, 还是写在这个事件里面 ?
      // 全局: 必须写在全局
      // 因为你相当于在页面里面多加了一个 script 标签
      // script 标签里面的内容就是 bindHtml(xxx)
      // 使用 script 标签的目的是为了把请求发送出去
      // 当 script 标签插入到页面里面的挥手, 请求已经发送出去了
      // 此时, script 标签已经没有用了
      script.remove()
    })
</script>

2. cors

      + 由 服务端 开启 跨域资源共享
      + 由服务器告诉浏览器, 我允许哪些域名请求我的内容
      + 浏览器就不会拦截你的请求了
      + 前端无法控制能不能跨域 只能由后端开启
Access-Control-Allow-Origin: *  //该字段表明可供那个源跨域
Access-Control-Allow-Methods: GET, POST, PUT   // 该字段表明服务端支持的请求方法
Access-Control-Allow-Headers: X-Custom-Header     

3. 代理

      + 使用正向代理的方式, 以代理服务器帮我们请求目标服务器的数据
      + 目前使用的是 nginx 服务器进行代理
      + 需要书写代理配置在 nginx.conf 文件
        lcoation = /xx {
          proxy_pass 目标地址;
        }
      + 请求的时候, 需要请求代理标识符
 代理跨域
        + 利用正向代理达到跨域的目的
        + apache 服务器可以代理
          => 代理 http 请求是免费的
          => 代理 https 是需要证书
        + nginx 服务器可以代理
          => 代理是免费的
        + 代理配置(不管用什么,找到配置文件)
          => 打开配置文件
          => nginx-conf
          => 找到 http {} 内部的 server
          => 找到 server {} 的 结束括号
          => 在结束括号的上一行书写代理配置
代理标识符
location = /lvs { proxy_pass http://127.0.0.1:80/proxy.php;}   /代理标识符 {目标地址}
          => 保存退出, 重启服务器
          => 当你发送请求的时候, 你的请求地址写的是 代理标识符
            -> nginx 服务器就会发现, 会帮你把这个请求转发给你的 目标地址
### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MaxLoongLvs

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值