云服务中的服务间延迟与任务调度
1. 服务间延迟的影响
在同一项目中,一个服务向另一个服务发出的请求总是会经过 GFE 服务器,这会带来一定的延迟。经过测试,最小延迟大约在 7 到 9 毫秒之间。这一限制在设计系统时需要考虑进去。
1.1 实际案例
曾经在开发一个电商产品列表页面时,需要调用两个远程服务,一个返回产品数据,另一个返回价格。但价格服务不支持批量调用,于是只能逐个为每个产品添加价格信息后将页面上线。起初一切正常,但后来收到了页面偶尔加载缓慢的投诉。原因是所有调用都是顺序执行的,忽略了每次调用给页面加载带来的延迟。后来天真地将代码更新为并行向价格服务发送所有请求,虽然短期内解决了页面加载缓慢的问题,但每次页面加载都会给价格服务带来流量高峰,导致价格服务不堪重负。
1.2 经验教训
不要假设延迟为零,在服务集成时应尽量采用粗粒度而非细粒度的集成方式。
2. 演示应用:本地运行与服务部署
2.1 嵌入式只读 SQL 数据库
该演示展示了一种适用于能在 Cloud Run 实例内存中存储的数据集的模式。产品 API 使用嵌入式 SQLite 数据库,它是基于文件的关系型数据库,适合不经常更改的数据集,因为数据更改需要将新的容器镜像推送到 Cloud Run。SQLite 实现了大部分 SQL 标准,是向 Cloud SQL 上的 PostgreSQL 迁移的理想前奏。
2.2 本地运行步骤
- 从 GitHub 克隆仓库。
- 在终端中打开目录,运行以下命令构建并启动两个服务:
超级会员免费看
订阅专栏 解锁全文
5560

被折叠的 条评论
为什么被折叠?



