OpenAI于9月25日发布了最新的GPT-4V模型,为ChatGPT引入了语音和图像功能,为用户提供更多元化的使用方式。这次更新将为用户带来更便捷、直观的交互体验,用户可以直接拍照上传并针对照片内容提出问题。OpenAI的最终目标是构建安全、有益的人工智能通用智能(AGI),因此公司将逐步推出语音和图像功能,并随着时间的推移不断改进和完善。
本文以GPT-4V为例,探讨了人工智能在教育领域的应用。经过微软评测人员的测试,我们发现GPT-4V在科学和数学方面的掌握程度较高,并且能够进行多模态常识推理和数学推理。此外,通过微软的评测,我们还发现GPT-4V具备了在上下文中进行少示例学习的新能力,即通过在推理时前置一些与输入查询具有相同格式的上下文示例,GPT-4V可以在不更新参数的情况下生成所需的输出。结合GPT-4V在科学知识领域的积累以及强大的逻辑推理、上下文学习能力,最新的LMM在教育领域有着良好的应用前景。
(GPT-4V 回答地理问题案例 )
(GPT-4V 回答物理问题案例)