确定性函数(Deterministic)

本文介绍了确定性函数的概念及用途,包括在基于函数的索引、物化视图中的应用及性能优化。同时讨论了确定性与非确定性函数的区别,并通过实例说明非确定性函数错误声明为确定性函数的问题。

确定性函数用关键词Deterministic标识,表示函数的返回值完全由输入参数决定。

确定性函数有以下用处:

1.可以在基于函数的索引中使用该函数;

2.可以在物化视图中调用;

3.Oracle11g开始会对其参数及其返回结果进行缓存处理以提升性能。

但是,是不是一个确定性函数是需要用户来负责的,就是说对函数进行编译的时候不会检查出这个函数是否是确定性的。来看个例子:


这个函数返回当前输入时间+1天,只要输入时间是确定的,返回结果也是确定的,因此是一个确定性函数。


用这个函数做索引是完全没有问题。再看另外一个函数:


这个函数会去ALL_OBJECTS表里取一个最大LAST_DDL_TIME值出来,由于ALL_OBJECTS视图是动态变化的,因此同一个输入参数不可能每次都得到一样的结果,这个函数显然是不确定性的,但是编译没有报错!


不仅没有报错,而且还可以做函数索引,也能查出数据。但是,50条数据建索引耗费9秒时间不是很正常。


检查执行计划,确实是用到了这个索引,然而实际上这个索引是毫无意义的,因为索引值会发生变化



总结一下:一个非确定性函数也可以声明成确定性函数,但是没有实用价值。

### PyTorch中的确定性上采样和下采样 为了确保在PyTorch中实现可重复的结果,在使用上下采样函数时,设置随机种子是必要的。这可以通过`torch.manual_seed()`来完成[^1]。 当涉及到具体的层如用于上采样的`nn.Upsample`或用于下采样的池化层(例如最大池化`nn.MaxPool2d`),这些操作本身通常是确定性的——即对于相同的输入总是给出相同的结果。然而,某些情况下可能会遇到非确定行为,比如在多线程或多GPU环境中运行模型时。因此,除了设定全局随机种子外,还需要配置环境变量以强制执行确定性计算模式: ```python import os os.environ['CUBLAS_WORKSPACE_CONFIG'] = ":4096:8" import torch torch.use_deterministic_algorithms(True) ``` 上述代码片段通过调整CUDA库的工作空间大小并启用PyTorch的确定算法选项来增强程序的行为一致性。 下面是一个简单的例子展示如何创建一个带有确定性上采样功能的小型神经网络模块: ```python class DeterministicUpsampler(torch.nn.Module): def __init__(self, scale_factor=2): super(DeterministicUpsampler, self).__init__() self.upsample_layer = torch.nn.Upsample(scale_factor=scale_factor) def forward(self, x): return self.upsample_layer(x) if __name__ == "__main__": import numpy as np # 设置随机数种子以获得一致结果 seed_value = 42 torch.manual_seed(seed_value) model = DeterministicUpsampler() input_tensor = torch.randn((1, 3, 64, 64)) output_tensor = model(input_tensor) print(output_tensor.shape) ``` 同样地,可以定义类似的类来进行下采样处理,只需替换相应的层即可。需要注意的是,虽然大多数标准卷积和池化操作都是确定性的,但在分布式训练或其他复杂场景下仍需谨慎对待可能存在的不确定性因素。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值