大型强子对撞机计算服务:从集群到网格
1. 早期规划
1.1 最初的考量
1996 年,设计和建造大型强子对撞机(LHC)加速器的项目获批时,数据分析所需的计算服务并未纳入财务规划。原因主要有两点:一是当时实验尚处于设计阶段,难以准确估算其计算需求;二是当时计算技术发展迅猛,性能逐年大幅提升,成本显著降低。例如,1995 年 11 月英特尔推出的奔腾 Pro 芯片,是首款具备合理科学(浮点)性能的个人电脑芯片,高能物理领域正忙于探索如何有效利用它开展大规模计算服务。当时人们认为,性价比会持续大幅提升,待加速器就绪时,各大物理实验室的年度计算服务运营预算足以承担数据分析任务。然而,考虑到 LHC 的数据速率和事件复杂性,这种想法过于乐观。
1.2 计算需求与资源整合思考
LHC 的计算需求巨大,单个计算中心无法满足。在随后的两年里,研究人员持续估算计算需求,并猜测在 LHC 准备就绪前计算技术和成本的发展趋势。虽然当时已有 10 年历史的基本架构具有足够的灵活性,能够适应 LHC 的容量和性能要求,且可通过利用大众市场组件控制成本,但很明显,最初四个实验所需的整体计算能力远超欧洲核子研究组织(CERN)的资金支持,即便按照最乐观的技术和成本发展情景来估算。
另一方面,参与实验的大多数实验室和大学都能使用国家或地区的计算设施。因此,一个自然的问题是:能否将这些设施与 CERN 整合,提供单一的 LHC 计算服务?
当时,包括 CERN 在内的主要加速器实验室承担了本地实验数据分析所需的大部分计算和存储能力,只有一些对计算机服务要求较低的任务(如模拟数据生成和原始数据重新处理)有时会在其他地方进行。这些任务可组织为“生
大型强子对撞机计算服务:从集群到网格
超级会员免费看
订阅专栏 解锁全文
29

被折叠的 条评论
为什么被折叠?



