统一的初始化方式

本文介绍了C++11引入的统一初始化方式——列表初始化,通过示例展示其在基本数据类型、数组、POD类型、堆数组、函数返回值等场景的应用。同时,解释了列表初始化在聚合体和非聚合体类型中的不同行为,并讨论了聚合类型的定义。
在C++98/03中,对象有多种初始化方式,如列表初始化、拷贝初始化、直接初始化、值初始化、默认初始化......
在C++11中有了统一的初始化方式:列表初始化,即用一组花括号括起来的初始值初始化对象(甚至是为对象赋新值时)
使用方式:
	int a1 = { 0 };
	int a2 { 0 };



注:当列表初始化用于基本数据类型变量时,如果初始值存在丢失信息的风险,编译器将会报错
	long double ld = 3.1415926536;
	int a{ld }, b = {ld};			//error
	int c(ld), d = ld;				//丢失信息但是正确
	


举例:
普通数组:
	int arr1[3] = { 1, 2, 3 };
	int arr2[3] { 1, 2, 3 };
	


POD类型:
//POD可以参考这篇博客:https://www.cppfans.org/1431.html
struct A
{
	int x;
	struct B
	{
		int i;
		int j;
	}b;	
}a { 1, { 2, 3 } };		//或 a = { 1, { 2, 3 } };




基础数据类型:
	int a1 = { 0 };
	int a2 { 0 };



堆数组:
	int* arr3 = new int[3] { 1, 2, 3 };

  

用于函数返回值:
struct Foo  
{  
     Foo(int, double){}; 
};  
  
Foo fun()
{  
     return { 123, 321.0 };  //相当于return Foo(123, 321.0);
}  





对默些自定义类型使用列表初始化时可能有两种结果:
聚合体:
struct A  
{  
     int x;  
     int y;  
} a = { 123, 321 };  	//a.x = 123, a.y = 321



非聚合体:
struct B  
{  
     int x;  
     int y;  
     B(int, int) : x(0), y(0) {}  
} b = { 123, 321 };    //b.x = 0, b.y = 0  


这里阐述一下聚合类型的定义:
1、类型是一个普通数组。
2、类型是一个 (1)无用户自定义构造函数(2)无私有或保护的非静态成员变量 (3)无基类 (4)无虚函数 (5)无类内初始值(C++11)的类类型


造成上面不同结果的原因:使用列表初始化时,对于聚合类型,相当于使用初始化列表对其中每个元素分别赋值,对于非聚合类型,相当于使用初始化列表调用类对应的构造函数(使用之前应该一个合适的构造函数)




对于聚合类型的定义并非递归的,当一个类的非静态成员变量是非聚合类时,这个类可能是聚合类
struct ST
{
	int x;
	double y;
private:
		int z;
};
ST s { 1, 2.5, 3 };			//error


struct Foo
{
	ST st;					
	int x;
	double y;
};
Foo foo { {}, 1, 2.5 };		//ok

这里ST是非聚合类型,但是Foo是聚合类型




参考:
C++ Primer
深入应用C++ 11





在深度学习中,"偏置统一初始化"通常是指在神经网络模型中初始化偏置项的一种策略,它与权重(weights)的初始化不同。偏置项(bias)是在激活函数之前添加到输入信号中的,用于调整模型对输入的敏感度。 **标准做**: 一般来说,偏置项的初始值会被设置为零,这是因为在很多情况下,模型开始时不需要有特定的偏好方向。然而,这可能导致训练过程中的梯度消失或爆炸问题。因此,一些研究者提出了使用非零初始值的方来加速收敛。 **统一初始化**: 一种常见的偏置统一初始化是使用一个小的常数(如0.01),这样可以避免由于某些偏置过大导致的模型过拟合。例如,在`He initialization`中,对于全连接层的偏置项,也会采用类似的方式,即给每个节点一个非常小但不为零的偏置,公式通常是 `b = 0` 或 `b = small_constant`。 ```python # 假设small_constant = 0.01 bias_initializer = tf.keras.initializers.Constant(value=0.01) ``` **其他策略**: 还有些工作推荐使用更复杂的初始化方式,比如在卷积神经网络(CNN)中,偏置项可能会根据层的特性进行不同的初始化,比如在ReLU激活后的偏置可以选择正数,以保证至少有一个正值输出。 在实践中,选择哪种初始化取决于具体的模型架构和实验需求。在实际代码中,你可以通过库如TensorFlow或PyTorch的内置初始化函数来实现这一操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值