
AWS云企业实践技术分享
文章平均质量分 96
整理分享企业AWS云实践案例与指南,包括但不限于计算、存储、网络、数据库、人工智能、大数据、容器化等。通过实战案例和项目分享,学习如何使用AWS云服务来构建和部署应用程序,如何管理和监控云资源,以及如何优化云成本和性能。采用理论与实践相结合的教学方式,掌握提高AWS云的应用能力。
小涵
博客:https://blog.mylearning.top/
我的QQ:3049720393
欢迎交流!
展开
-
AWS Langfuse AI用Bedrock模型使用完全教程
Langfuse,是用于监控和调试LLM应用程序的集成工具。有免费的自部署版和可用的SaaS型Cloud版。本次动手实践将使用简单的Cloud版。个人使用的话可以免费开始。原创 2025-04-04 15:11:56 · 0 阅读 · 0 评论 -
一篇完全掌握AWS网络技术
AWS的网络配置需要与本地环境不同的思考方式。理解基本配置后,可以构建安全且高效的云环境。原创 2025-04-04 14:26:17 · 2 阅读 · 0 评论 -
如何安全地访问AWS
除了IAM用户之外,还可以在IIC本身创建用户账户。这个IIC用户可以设置IIC的“权限集”来代替IAM策略,从而授予对Organization内其他AWS账户的访问权限。可以将这个IIC用户用作在同一个Organization下的各AWS账户中执行Assume Role的切换源账户。原创 2025-04-04 14:10:17 · 2 阅读 · 0 评论 -
【AWS】分享5个使用AWS服务时总结的经验教训
在我们自己的数据中心,基于会话的内存管理是一个很好的方法,因为单个硬件实例故障是罕见的。这在帮助我们选择AWS方面至关重要,但在思考我们的架构方面并不像我们预期的那样有帮助原创 2025-04-04 13:08:13 · 2 阅读 · 0 评论 -
【容器】设备上没有剩余空间的错误排查处理
设备上没有剩余空间是一个相对知名的错误,可以发生在运行基于Linux的程序的环境中。如果存储位置已满,就会发生这种情况,错误表明该位置不再有空间来写入/存储更多数据。这本身并不是Azure容器应用特有的,但由于两个核心原因,这里可能会出现这个问题:镜像大小容器向容器文件系统写入大量文件(例如缓存、大文件、大量文件等)。重要的是写入本地文件系统,挂载的Azure文件卷。使用Azure文件持久化的卷将数据存储在文件共享中。写入本地容器文件系统的数据存储在主机上存储层的共享位置。原创 2025-04-01 18:38:01 · 163 阅读 · 0 评论 -
【Infra】理解代理、反向代理和负载均衡器
无论你是开发者还是仅仅对互联网的内部运作感到好奇,我们都会将这些复杂的概念分解成易于理解的部分。通过有效利用这些工具,你可以确保最佳性能,保护你的数据,并提供无缝的用户体验。他们只与你的助理沟通。它位于你餐厅内部就餐区(你的服务器)前方,并管理来自客户端(用户)的传入请求。代理服务器作为你的私人网络(你的笔记本电脑)和公共互联网之间的中间人。接待员引导你到正确的餐桌,确保你舒适地坐下。在这个场景中,你是浏览互联网的笔记本电脑,而你的个人助理就是一个。你选择的具体工具将取决于你的需求和基础设施。原创 2025-03-25 20:56:03 · 115 阅读 · 0 评论 -
【AWS】使用CloudFront S3 Lambda打造丝滑低延迟Web体验
在这篇博客中,我们探讨了使用CloudFront函数的动态路由。在这篇博客中,我们将探讨如何使用CloudFront的行为和功能来使Web应用程序无缝连接。创建CloudFront分发后,我们必须通过向存储桶添加策略来授予Cloudfront对存储桶的访问权限。注意:我们使用了一个在Route 53中注册的域,并创建了一个CNAME记录指向CloudFront的分发。在上面的图片中,我们可以看到CloudFront分发的所有设置。让我们将策略添加到存储桶中,以下是相同的步骤。原创 2025-03-25 19:05:43 · 240 阅读 · 0 评论 -
【微服务】基于Lambda ESM的预留模式调整Kafka ESM吞吐量的实战
当您使用事件驱动架构(Event-Driven Architectures,EDAs)构建现代应用程序时,事件生产者发布事件,然后由事件源连接器(如ESM)处理,并路由到无服务器计算消费者,如Lambda函数。Apache Kafka是一个流行的开源平台,用于构建使用Lambda函数作为消费者的实时流数据处理应用程序。AWS Lambda的完全托管MSK ESM或自管理的Kafka ESM从Kafka作为事件源读取事件,执行过滤和批处理等操作,并调用Lambda函数。原创 2025-03-19 13:04:48 · 280 阅读 · 0 评论 -
【AI】AWS SageMaker AI上部署托管DeepSeek系列模型及成本评估
Amazon SageMaker AI提供了一种托管方式来部署TGI优化的模型,与Hugging Face的推理堆栈深度集成,实现可扩展且成本效益高的LLM部署。在这篇博客中,您了解了DeepSeek模型的当前版本,以及如何使用Hugging Face TGI容器简化DeepSeek-R1蒸馏模型(或任何其他LLM)在Amazon SageMaker AI上的部署,您还学习了如何直接从Hugging Face Hub进行快速实验,以及从私有S3存储桶部署模型,以提供增强的安全性和模型部署性能。原创 2025-03-18 15:53:27 · 306 阅读 · 0 评论 -
【AI】在AWS AI芯片服务上部署运行Qwen 2.5模型
Qwen 2.5 精调的纯文本模型针对多语言对话用例进行了优化,并且性能超过了前一代的 Qwen 模型,以及许多基于行业通用基准的公开聊天模型。在其核心,Qwen 2.5 是一个使用优化后的变压器架构的自动回归语言模型。Qwen2.5 系列可以支持超过29种语言,并增强了角色扮演能力和聊天机器人的条件设置。在这篇文章中,讲述如何开始使用和。原创 2025-03-18 11:55:10 · 172 阅读 · 0 评论