48、在云端部署Ubuntu

在云端部署Ubuntu

1. 云存储与相关服务简介
  • 对象存储 :对象存储是一种新型存储方式,与添加到服务器、格式化并挂载的磁盘(虚拟或物理)不同。以S3为例,虽然可以将其挂载到服务器,但它没有文件系统(如ext4或STON),也不理解权限。它只是一个名称 - 对象对,用于存储文件,每个文件都有一个名称。使用S3时,需要创建“存储桶”,每个存储桶可存储文件,且存储桶名称必须唯一。S3在为客户端提供可下载文件或存储备份文件时非常有用。
  • 弹性Kubernetes服务(EKS) :AWS有自己的Kubernetes解决方案EKS 。如果想继续使用Kubernetes并让容器在托管服务中运行,而不是管理自己的集群,EKS是一个值得考虑的选择,它将Kubernetes与AWS平台的灵活性相结合。
  • 安全组 :默认情况下,公共互联网对许多AWS资源的访问是禁用的。安全组用于确定哪些可以访问AWS内的资源,可以按IP地址和端口允许或禁止访问。对于EC2实例,默认允许出站访问,但入站的每个端口都被阻止。可以创建一个安全组,允许特定IP访问实例,从而提高安全性。
2. 创建AWS账户

在创建EC2实例并部署Ubuntu之前,需要先创建一个AWS账户。使用云服务会产生费用,虽然新账户有免费组件,但需自行跟踪账单。一般原则是选择最便宜的选项,如果有免费实例类型,优先选择。使用完毕后,要删除所有创建的资源,避免产生不必要的费用。若不打算在生产环境中使用该账户,可直接删除账户。

3. 注册AWS账
内容概要:本文档围绕六自由度机械臂的ANN人工神经网络设计展开,涵盖正向与逆向运动学求解、正向动力学控制,并采用拉格朗日-欧拉法推导逆向动力学方程,所有内容均通过Matlab代码实现。同时结合RRT路径规划与B样条优化技术,提升机械臂运动轨迹的合理性与平滑性。文中还涉及多种先进算法与仿真技术的应用,如状态估计中的UKF、AUKF、EKF等滤波方法,以及PINN、INN、CNN-LSTM等神经网络模型在工程问题中的建模与求解,展示了Matlab在机器人控制、智能算法与系统仿真中的强大能力。; 适合人群:具备一定Ma六自由度机械臂ANN人工神经网络设计:正向逆向运动学求解、正向动力学控制、拉格朗日-欧拉法推导逆向动力学方程(Matlab代码实现)tlab编程基础,从事机器人控制、自动化、智能制造、人工智能等相关领域的科研人员及研究生;熟悉运动学、动力学建模或对神经网络在控制系统中应用感兴趣的工程技术人员。; 使用场景及目标:①实现六自由度机械臂的精确运动学与动力学建模;②利用人工神经网络解决传统解析方法难以处理的非线性控制问题;③结合路径规划与轨迹优化提升机械臂作业效率;④掌握基于Matlab的状态估计、数据融合与智能算法仿真方法; 阅读建议:建议结合提供的Matlab代码进行实践操作,重点理解运动学建模与神经网络控制的设计流程,关注算法实现细节与仿真结果分析,同时参考文中提及的多种优化与估计方法拓展研究思路。
YOLOv5 ONNX 在云端部署可以按照以下步骤进行: ### 1. 准备工作 - **导出 YOLOv5 模型为 ONNX 格式** 使用 YOLOv5 官方代码库,将训练好的 YOLOv5 PyTorch 模型导出为 ONNX 格式。示例命令如下: ```bash python export.py --weights yolov5s.pt --include onnx ``` 此命令将 `yolov5s.pt` 模型导出为 ONNX 格式。 - **选择云端平台** 常见的云端平台有阿里云、腾讯云、华为云等。这里以阿里云为例进行说明。 ### 2. 创建云服务器实例 在阿里云控制台创建一个合适的云服务器 ECS 实例,选择合适的操作系统(如 Ubuntu 18.04)和配置。创建完成后,通过 SSH 连接到服务器。 ### 3. 安装依赖环境 在云服务器上安装必要的依赖库,包括 Python、OpenCV、ONNX Runtime 等。 ```bash # 更新系统 sudo apt update sudo apt upgrade -y # 安装 Python 和 pip sudo apt install python3 python3-pip -y # 安装 ONNX Runtime pip3 install onnxruntime # 安装 OpenCV pip3 install opencv-python ``` ### 4. 上传 ONNX 模型到云服务器 可以使用 `scp` 命令将本地的 ONNX 模型文件上传到云服务器。 ```bash scp yolov5s.onnx user@your_server_ip:/path/to/destination ``` ### 5. 编写推理代码 在云服务器上编写 Python 代码进行 ONNX 模型的推理。以下是一个简单的示例: ```python import cv2 import numpy as np import onnxruntime as ort # 加载 ONNX 模型 ort_session = ort.InferenceSession('yolov5s.onnx') # 读取图像 image = cv2.imread('test.jpg') image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) image = cv2.resize(image, (640, 640)) image = image.transpose(2, 0, 1) image = np.expand_dims(image, axis=0) image = image.astype(np.float32) / 255.0 # 进行推理 outputs = ort_session.run(None, {'images': image}) # 处理输出结果 # 这里省略了结果处理的具体代码,可以根据 YOLOv5 的输出格式进行解析 ``` ### 6. 部署为服务 可以使用 Flask 等框架将推理代码封装为一个 Web 服务,方便外部调用。 ```python from flask import Flask, request, jsonify import cv2 import numpy as np import onnxruntime as ort app = Flask(__name__) # 加载 ONNX 模型 ort_session = ort.InferenceSession('yolov5s.onnx') @app.route('/detect', methods=['POST']) def detect(): file = request.files['image'] img = cv2.imdecode(np.frombuffer(file.read(), np.uint8), cv2.IMREAD_COLOR) img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) img = cv2.resize(img, (640, 640)) img = img.transpose(2, 0, 1) img = np.expand_dims(img, axis=0) img = img.astype(np.float32) / 255.0 outputs = ort_session.run(None, {'images': img}) # 处理输出结果 # 这里省略了结果处理的具体代码,可以根据 YOLOv5 的输出格式进行解析 result = {'message': 'Detection completed'} return jsonify(result) if __name__ == '__main__': app.run(host='0.0.0.0', port=5000) ``` 启动服务: ```bash python app.py ``` ### 7. 配置负载均衡和安全组 为了提高服务的可用性和安全性,可以配置阿里云的负载均衡和安全组,确保服务可以稳定地对外提供服务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值