必须返回对象时,别妄想返回其reference

本文探讨了C++中运算符重载时常见的陷阱,特别是返回引用而非对象的情况。详细解析了为何不应返回指向局部对象的引用或指针,并通过实例说明了不当做法可能导致的未定义行为和内存泄漏等问题。

此条款核心的宗旨就是在需要返回一个对象的时候不要试图返回他的引用。尽管你可能会在成本之间纠结,但是最终的正确才是你要的结果。

下面用operator*来举例子说名这个问题。因为大家都直到oerator返回的是对象绝不是引用

1.有如下代码

class Rational
{
private:
	int a, b;
public:
	friend const Rational operator*(const Rational& s1, const Rational& s2);
};
这个版本的operator*以传值的方式返回其计算结果,现在来讨论一下用传值付出一系列代价好,还是使用reference好,因为使用引用就不用付出那么多的代价。

这里先终点强调一句话:所谓的引用只是一个名称,代表某个已经存在的对象,任何时候看到一个reference声明式,你都应该立刻问自己,他的另外一个名称是什么?因为他一定是某物的另外一个名称。

加入operator返回了一个引用

friend const Rational& operator*(const Rational& s1, const Rational& s2);
这就意味着一定存在一个对象保存的是两个对象的计算结果,在operator*调用之前提前存在几乎是不可能的事情,所以就需要我们自己在函数中创造一个这样的对象了,

friend const Rational& operator*(const Rational& s1, const Rational& s2)
	{
		Rational result(s1.a*s2.a + s1.b*s2.b);
		return result;
	}
就像上面这样的写法,注意这是及其不可取的,首先我们返回引用就是为了避免有多余的代价产生,然而这里会产生我们一直在避免的多余的代价(构造函数的调用),这还不是最严重的问题,更严重的是,这个函数返回一个引用指向一个局部对象,这个局部对象在函数退出前一定会被销毁,所以这个函数返回的引用指向的是一个被销毁的对象,只要调用着对这个返回值做一点点的运用,立马坠入“无定义行为”的恶地。没错事实就是这样的,记住任何一个引用返回一个局部对象,都将一败涂地。

(当然函数返回一个指向一个局部对象效果也是一样的)


既然上面的这个返回引用的方式行不通那我们试试看new一个对象出来返回去

friend const Rational& operator*(const Rational& s1, const Rational& s2)
	{
		Rational *result=new Rational(s1.a*s2.a + s1.b*s2.b);
		return *result;
	}
这也是一个糟糕的做法因为,指望谁来delete这个对象呢?而且这也会产生多余的代价(构造函数的调用),加入调用者愿意帮你delete,那么看下面这个代码

Rational w, x, y, z;
w = x*y*z;
如果以这种方式调用的话,调用着想帮你delete也无能为力,因为一个语句调用了两次new,他如何delete内层的那个delete呢?所以说这必然会造成内存泄露。


既然new出来的也不行,这个时候或许你会想到用局部static对象返回去

friend const Rational& operator*(const Rational& s1, const Rational& s2)
	{
		static Rational result;
		result = s1*s2;
		return result;
	}
其实这个也不行,假如我们这么调用

Rational a, b, c, d;
if ((a*b) == (c*d))
{
	//执行某个任何;
}
else
{
	...
}
这估计永远也不会进入到else里面吧,因为if里面永远都是true,置于为什是true这里就不用我多解释了吧


。。。还有。。。你就别想了。。不存在的!


所以当必须返回一个对象的时候就不要怕有多余的麻烦产生,果断的选择返回对象。

还有就是1.不要返回一个指针或者引用指向局部对象

                2.不要返回引用指向new出来的对象

                3.返回指针或者引用指向局部static对象,因为这样存在多个对象的话,很容易出问题

<think>好的,用户想了解关于大模型在IT领域的妄想,也就是大规模机器学习模型的幻想或不合理期望。首先,我需要明确“妄想”在这里指的是什么。通常,大模型被寄予厚望,但可能存在一些不切实际的期望或误解。 接下来,我得回忆相关的资料和已有的知识。比如,参考引用[1]中提到大脑作为身体控制系统的进化,这可能和大模型的训练机制有类比,但需要谨慎处理。引用[2]中的赫布学习理论说明学习过程中统计的重要性,或许和大模型的数据依赖有关。引用[3]提到的中国市场分工问题,可能间接反映在模型开发和应用中的不合理预期。 用户的问题可能涉及以下几个方面: 1. 技术能力上的夸大,比如认为大模型可以完全理解人类语言或具备真正智能。 2. 应用场景的误解,如认为大模型无需调整即可解决所有问题。 3. 资源消耗的低估,比如忽视训练大模型所需的计算成本和环境负担。 4. 伦理和安全问题,可能存在的忽视或过度信任。 需要逐一分析这些方面,结合现有引用中的观点,特别是引用[1]中提到的“推理空间约束”和“身体调节”可能暗示大模型在处理现实复杂性的局限。引用[2]的学习机制可能说明模型对数据统计的依赖,而非真正的理解。 然后,生成相关问题需要考虑用户可能的进一步疑问,比如技术瓶颈、实际应用限制、伦理问题等。确保问题覆盖用户潜在的兴趣点,并引导深入探讨。 最后,检查回答是否符合系统级指令,使用正确的中文和LaTeX格式,确保引用标注自然,问题相关且具有启发性。</think>关于大规模机器学习模型的“妄想”(即不切实际的期望),主要体现在以下几个方面: ### 一、技术能力夸大 1. **全能智能幻想**:误认为大模型具有真正的理解能力,例如将$y=Wx+b$这类数学表达式等同于人类认知过程,而实际上模型只是统计模式的拟合[^1] 2. **通用性谬误**:假设单个模型能解决所有领域问题,忽视$$ \min_{\theta} \mathcal{L}(\theta) = \mathbb{E}_{(x,y)\sim D}[-\log p_\theta(y|x)] $$这类目标函数本身的领域局限性 ### 二、应用场景误解 3. **即插即用妄想**:认为预训练模型无需微调即可直接部署,忽略领域适配的$$ \Delta \theta = \arg\min_{\delta} \mathcal{L}(\theta+\delta) $$优化需求[^2] 4. **人机等同错觉**:将语言模型的文本生成能力等同于人类创作,忽视其缺乏真实认知锚点 ### 三、资源认知偏差 5. **算力线性增长谬误**:误以为模型效果随参数规模线性提升,而实际存在$$ \text{Perf}(N) \sim \alpha N^\beta $$的边际效应递减规律 6. **环境成本忽视**:低估训练GPT-3级别模型产生的$$ CO_2 \geq 500t $$碳排放当量 ### 四、安全伦理盲区 7. **偏见消除幻想**:认为通过简单数据过滤就能消除模型偏见,但统计学习本质决定$$ P(y|x) \propto \exp(f_\theta(x,y)) $$会继承训练数据分布 8. **可控性高估**:过度相信提示工程的约束能力,忽视模型可能绕过$$ \max_{x} \log p_\theta(y|x) $$的语义约束
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值