使用JS获取Ajax传输的map键值对

本文介绍了一个使用未封装Ajax实现的聊天室项目,详细讲解了如何将消息和用户对象存储在Map集合中,并通过jsonObject格式输出。文章还探讨了从前端页面获取这些数据的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#Ajax
这个聊天室项目是用未封装的ajax拿来练手的,把消息对象集合List<'message>和用户对象List<'user>集合封装在同一个Map集合中
将Ajax返回来的值赋值给jsonString
因为jsonObject输出的格式为{“键”:[“键”:值]}
就是存储格式Map{“username”,List<Object};

获取的话需要循环用获取所有值,
语法:jsonObject.键名[i]; //这里的键名是Map的键名。


发送消息时存储进消息集合,并且用存进Message对象中 方便后来取 上面的message.uname 就是这样的来的
在这里插入图片描述

在这里插入图片描述
这里是取了历史聊天数据之后再一并存入map集合中 然后json传到前台页面,前台获取就是上面的图片。

### 视觉语言模型 (VLM) 大模型简介 视觉语言模型(Visual Language Model, VLM)是一类结合了计算机视觉和自然语言处理能力的多模态模型。这类模型能够理解并生成与图像、视频等相关联的文字描述,从而实现跨模态的任务支持。 #### 架构概述 VLM 的核心架构设计通常依赖于两种主要组件:**视觉编码器**和**语言解码器**。 - **视觉编码器**负责提取输入图像或视频中的特征信息。常见的视觉编码器包括基于 Transformer 的结构以及卷积神经网络(CNN),例如 ResNet 或 ViT(Vision Transformers)。在某些情况下,会采用自监督学习方法来预训练视觉编码器,比如 DINO 模型所使用的 Teacher-Student 架构[^3]。 - **语言解码器**则用于生成针对视觉内容的语言表达。这部分常由强大的 NLP 模型构成,如 BERT、GPT 及其变体。两者通过特定机制融合在一起,形成一个多模态交互框架。 具体到实现细节上,在一些开源项目里可以看到如何利用 PyTorch 将图片分割成若干小块后再映射至固定长度向量空间的例子[^4]: ```python import torch.nn as nn class PatchEmbedding(nn.Module): def __init__(self, img_size=224, patch_size=16, embed_dim=512): super().__init__() self.proj = nn.Conv2d(3, embed_dim, kernel_size=patch_size, stride=patch_size) def forward(self, x): x = self.proj(x).flatten(2).transpose(1, 2) return x ``` #### 应用场景分析 得益于其出色的多模态处理性能,VLM 被广泛应用于多个领域: - **视频字幕生成**: 给定一段未标注过的视频片段,VLM 能够自动为其配上合适的文字说明. - **语义搜索引擎优化**: 用户上传一张照片或者简单描述需求之后,系统借助 VLM 提供更加精准的结果匹配服务.[^2] 尽管如此,值得注意的是并非所有的优秀作品都会第一时间出现在 Vision Arena 或者 Open VLM Leaderboard 上面;如果希望探索更多可能性的话,Hugging Face Model Hub 等平台或许是一个不错的选择途径之一.[^1]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值