思考与行动——执行力下降的原因

首先推荐一下自己看的几篇文章:

1、布里丹的驴子

其中第一篇文章给我最震撼的一句话就是:思考与行动的关系,有些人善于思考而拙于行动,犹犹豫豫而最终一事无成。

2、布里丹毛驴效应


根本原因:追求完美,害怕失去或者失败

既想要得到鱼,有想要熊掌,看似追求完美,实际上是害怕失去其中一种,自己的贪心作怪(捕火鸡的故事),以至于贻误良机,在可行与不可行、可能与不可能、正确与谬误之间选择了后者,是最大的不完美。

其实犹豫的目的就是想要做出一个绝对理性的选择,想要得到一个完美的结局,但是现实的情况是如果说让人达到绝对的理性,去获得他想要的东西,那么他就会去想方设法使自己的利益最大化。但是这样的想法能够达到吗?

绝对理性的不可能:

可以参考海盗分金子的问题,最终对于第一个海盗来说,他可以获得最优化的结果。我们来这样分析这个问题的难度,首先对于咱们这些解决这个问题的现实的人来说,这是一个比较难的思维题目,估计很多人在题设的条件下依然想不明白其中的道理,这是难度之一;其次,问题给出了非常明显的前提条件,每个海盗都是绝顶聪明的、绝对理性的,因为他们都以自己的利益最大化为自己的目标,那么问题就变得简单了,因为这样就变得有章可循,就像我们知道别人想要什么,那么就会根据既有的条件很容易分析他们将来的行动一样。即使有些问题不是那么看了后让人感觉清晰明了,但是我们可以建立一个模型,就像数学建模一样,利用数学规划的知识求得全局最优解。但是现实情况是我们很难得到如同题设的条件,因为人们不可能是绝对理性的动物(如果真的那样了,那么人就变成了计算机,只能计算和逻辑推理,而不是拥有丰富的情感)。既然这样,感性的东西最多能够做到定性分析,定量实在太难了。所以说,对于一件事情,靠现在人们的逻辑推理能力,还未能够把每一个人对此事的感情因素、理性因素以及各种事物的影响因素统一到一个模型里面,然后得到一个最优的解。

所以说绝对理性是不可能的。

完美的不可能:

什么才能称作上完美?有时候我们真的达到了绝对的理性,并且周围的事物被融入一个模型,然后得到了一个最优解。这个结果让一些人欣喜若狂,但是它又总不是能够满足所有人的。因为不是所有的人都承认这样一个非常理性的结果的。若果说人的欲望是无穷的,并且有个人把满足欲望当做完美的体现,那么就更不可能达到完美了。完美,是一个感性的认知。用一个理性的结果去满足感性的认知,却不一定总是那么如人意(即便是物质决定意识,但人的意识范围总是有限的)。

结论:

    我们总是想要得到一个完美的结果,所以陷入了求得完美的绝对理性思考中,以至于阻塞于这样的过程中,因为做到绝对理性太难了。所以,我们的行动便总不可能。

总结上面的两条:我们只需要以有限的理性求得满意的结果就行了。

至于有限的理性和满意的结果……

 

———我不求什么事情都可以利益最大化,只求自己不犯错。

### AI大模型基本理论概念 AI大模型指的是具备复杂结构和大量参数的人工智能模型,这类模型旨在通过模拟人类的学习、思考、决策以及行为来完成特定的任务。根据不同的应用场景和技术实现方式,AI大模型可以进一步细分为种类型[^1]。 #### 基于规则的模型 此类模型依赖预先定义好的逻辑规则来进行推理判断,常见的代表有决策树、随机森林及贝叶斯网络等。它们适用于那些领域知识较为清晰明确的情况,在医疗诊断、金融风险评估等方面有着广泛的应用场景。 #### 强化学习模型 该类模型强调环境互动中的试错机制,即通过不断尝试不同动作并观察其带来的后果(奖励/惩罚),逐步优化自身的行动策略。典型算法包括Q-Learning 和 Monte Carlo Tree Search (MCTS),可用于解决诸如游戏博弈、机器人导航等问题。此外,还涉及到了策略迭代、价值迭代以及动态规划等种求解方法。 #### 神经网络深度学习模型 神经网络模仿生物神经系统的工作原理构建而成,由个层次化的节点组成,每个节点负责执行简单的运算操作。借助反向传播算法(BP) 及梯度下降法(Gradient Descent), 训练过程中能够自动调整权重参数以最小化预测误差。当层数增形成深层架构时便构成了所谓的“深度学习”,它特别擅长处理复杂的非线性映射关系,如图像识别、自然语言理解等领域均取得了显著成果。 对于更高级别的应用需求而言,存在一类特殊的深度学习框架——大语言模型(Large Language Models, LLMs)[^2]。LLMs拥有极其庞大的参数规模,并经过海量语料库训练后获得了强大的文本生成能力和上下文感知力。这使得LLMs不仅能够在聊天机器人、机器翻译方面表现出色,同时也为其他NLP任务提供了强有力的支持工具。 ### 模型微调的重要性 值得注意的是,在实际部署之前往往还需要针对具体业务场景对通用的大模型实施个性化定制工作—这就是所谓“模型微调”。通过对量目标域样本数据集上的再训练过程,可以使原本泛化的模型更好地适应新环境中特有的分布特征,进而提升整体表现效果的同时也加快收敛速度[^3]。 ```python # 这里提供一段简单展示如何加载预训练BERT模型并对其进行微调的例子: from transformers import BertForSequenceClassification, Trainer, TrainingArguments model = BertForSequenceClassification.from_pretrained('bert-base-uncased') training_args = TrainingArguments( output_dir='./results', num_train_epochs=3, per_device_train_batch_size=8, ) trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, eval_dataset=val_dataset, ) trainer.train() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值