凯撒密码、GDP格式化输出、99乘法表

本文提供了几个简单的编程示例,包括恺撒密码的实现、格式化打印国家GDP数据、以及99乘法表的生成。通过这些例子,读者可以了解基本的编程技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、恺撒密码的编码

s=input('请输入明文:')
print('输出密码:',end='')
for i in s:
print(chr(ord(i)+3),end='')

 

2、国家名称 GDP总量(人民币亿元)
中国 ¥765873.4375
澳大利亚 ¥ 78312.4375
(国家名称左对齐,数字右对齐,千分位,2位小数)

print('国家名称 GDP总量(人民币亿元')
print('{0:' '<10}${1:,.2f}'.format('中国',765873.4375))
print('{0:' '<10}${1:,.2f}'.format('澳大利亚',78312.4375))

 

.format

print('输出:{0:-^20}'.format('python'))
print('输出:{0:,.3f}'.format(31415.92678))
print('十进制:{0:d}' '十六进制:{0:x}'.format(1314))

3、打出99乘法表

for x in range(1,10):
for y in range(1,x+1):
print('{}*{}={:2}'.format(y,x,x*y),end=' ')
print(' ')

 

转载于:https://www.cnblogs.com/silu666-666/p/7550265.html

内容概要:本文档详细介绍了一个基于多任务学习(MTL)结合Transformer编码器的多变量时间序列预测项目。该项目旨在解决多变量时间序列预测中的复杂性、长序列依赖、任务间干扰等问题,通过融合多任务学习与Transformer架构,构建了一套高效且可扩展的预测系统。项目覆盖了从环境准备、数据预处理、模型构建与训练、性能评估到GUI界面设计的完整流程,并提供了详细的代码实现。模型采用多头自注意力机制有效捕捉变量间及时间维度上的复杂依赖,通过多任务共享层和任务特异性层实现任务间知识共享与个性化特征提取。此外,项目还引入了动态任务权重调整、轻量化设计、数据预处理优化等关键技术,确保模型在实际应用中的高效性和准确性。 适合人群:具备一定编程基础,特别是对深度学习和时间序列分析有一定了解的研发人员和技术爱好者。 使用场景及目标:① 提升多变量时间序列预测的准确率;② 实现高效的时间序列特征提取;③ 促进多任务学习在时间序列领域的应用推广;④ 提供可扩展的模型架构设计,适应不同应用场景的需求;⑤ 降低模型训练与推断的计算资源需求;⑥ 促进复杂系统的智能决策能力,如智能制造、能源管理、金融分析、气象预报等领域的精准预测支持。 其他说明:项目不仅提供了完整的代码实现和详细的文档说明,还设计了用户友好的GUI界面,方便用户进行数据加载、参数设置、模型训练及结果可视化等操作。未来改进方向
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值