杨立昆的“反叛”:当AI教父选择与世界为敌,我们该相信谁的未来?

「鸿蒙心迹」“2025・领航者闯关记“主题征文活动 10w+人浏览 651人参与

引言:一个背叛者的宣言

“在未来5-10年,AGI可能连一条狗的智能水平都达不到。”

说出这句话的不是某个边缘批评家,而是图灵奖得主、卷积神经网络之父、Meta首席AI科学家杨立昆(Yann LeCun)。更令人震惊的是,他在Meta工作了12年后,突然离开硅谷这个AI圣地,远赴巴黎重新创业,并公开选择了一条与整个行业背道而驰的技术路线。

这个决定在AI界投下了一颗震撼弹。当OpenAI、Google、微软等巨头都在疯狂扩大模型规模,当投资者为每一个参数量级的突破而欢呼,当公众惊叹于ChatGPT的对话能力时,AI领域最有资格发言的人之一,却站出来说:“你们都错了,这条路走不通。”

这不仅仅是一次技术路线的分歧,更是一次对AI发展根本方向的哲学挑战。今天,我们要深入探讨的是:杨立昆到底看到了什么?为什么他敢于与全世界为敌?而我们,作为身处这场革命中的从业者和观察者,又该如何看待这场关乎AI命运的大辩论?

第一章:大模型的“皇帝新衣”——杨立昆看到了什么?

1.1 语言模型的本质:统计规律的奴隶

杨立昆对当前大语言模型的批判直指核心:

“这些AI只是语言的统计学专家,而非世界的理解者。”

让我们用一个技术类比来理解这个观点:

# 当前大语言模型的工作原理(简化版)
class LanguageModel:
    def __init__(self):
        self.pattern_database = load_trillions_of_text_patterns()
    
    def generate_response(self, prompt):
        # 本质:在训练数据中寻找最可能的文本延续
        return find_most_probable_continuation(
            prompt, 
            self.pattern_database,
            context_window=128000
        )
    
    def simulate_world_knowledge(self):
        # 致命缺陷:无法进行真实世界推理
        raise NotImplementedError("只能处理文本统计模式,无法理解物理现实")

这个问题的根源在于训练数据:大语言模型从纯文本中学习,而文本只是现实的间接描述,并非现实本身

1.2 “狗的智能”测试:一个残酷的比较

杨立昆提出的“5-10年达不到狗智能”并非随意比喻。让我们量化对比:

能力维度6个月大的小狗GPT-4/Claude等大模型
物理世界理解✅ 理解重力、固体性、空间关系❌ 仅从文本描述“学习”物理规律
因果推理✅ 知道追球→球移动;叫主人→可能得到食物❌ 统计关联≠因果理解
多模态感知✅ 整合视觉、听觉、嗅觉、触觉❌ 主要为文本,视觉能力有限
适应新环境✅ 几分钟适应新家布局❌ 需要大量特定领域微调
目标导向行为✅ 为获取食物学习新技能❌ 遵循指令,缺乏内在目标
常识推理✅ 本能理解日常物理常识❌ 可能产生“物理幻觉”

关键洞察:狗的大脑大约有5.3亿个神经元,而GPT-4的参数超过1.7万亿。数量级上相差3000倍,但狗在物理世界中的智能表现远超当前最好的AI系统。

1.3 大模型的“认知天花板”

杨立昆指出了大语言模型几个根本性限制:

1. 文本作为信息的贫瘠载体

现实世界 → 人类体验 → 语言描述 → 文本训练数据 → AI模型

每一次转换都丢失信息:
- 从现实到体验:丢失客观物理细节
- 从体验到描述:丢失主观感受维度  
- 从描述到文本:丢失非语言信息
- 从文本到模型:丢失语境和文化背景

最终结果:AI学习的是“现实的影子”,而非现实本身。

2. 缺乏世界模型(World Model)

  • 无法预测行动的后果

  • 无法进行反事实推理(“如果当时...”)

  • 无法在脑中模拟物理过程

3. 知识表达的碎片化

# 大语言模型的知识表示问题
knowledge_in_llm = {
    "猫": ["动物", "四条腿", "会喵喵叫"],
    "从桌子上推下去": ["会掉下去", "可能摔坏"],
    # 但这些知识是孤立的,没有统一的物理模型
}

# 当被问及“把猫从桌子上推下去会怎样?”
response = llm.query("把猫从桌子上推下去会怎样?")
# 输出:猫会掉到地上,可能会受伤

# 但如果问更复杂的情况:
response = llm.query("如果在无重力空间站把猫从桌子上推下去会怎样?")
# 可能产生错误:因为训练数据中很少有这种场景

第二章:世界模型——一条少有人走的路

2.1 什么是世界模型?

杨立昆提出的替代方案是JEPA(Joint Embedding Predictive Architecture)及其扩展,这构成了他“世界模型”的核心。

核心思想:让AI学会预测世界的状态变化,而不仅仅是预测下一个词。

class WorldModel(JEPA_Architecture):
    """
    世界模型的核心特征
    """
    def __init__(self):
        self.latent_space = None  # 潜在状态表示
        self.transition_model = None  # 状态转移模型
        self.energy_function = None  # 能量函数(用于判断可能性)
    
    def predict_next_state(self, current_state, action):
        """
        预测:在当前状态下执行某个动作,会导致什么新状态
        """
        # 关键:在潜在空间中进行预测,而非像素/原始观测空间
        latent_current = self.encode(current_state)
        latent_next = self.transition_model(latent_current, action)
        return self.decode(latent_next)
    
    def simulate_scenarios(self, initial_state, possible_actions):
        """
        模拟不同行动的后果
        """
        simulations = []
        for action in possible_actions:
            outcome = self.predict_next_state(initial_state, action)
            feasibility = self.evaluate_energy(outcome)  # 评估结果的合理性
            simulations.append((action, outcome, feasibility))
        return simulations

2.2 世界模型 vs 大语言模型:根本差异

维度大语言模型(LLM)世界模型(World Model)
训练目标预测下一个token预测世界状态变化
知识表示离散的文本模式连续的状态空间
推理方式模式匹配与插值因果模拟与预测
泛化能力需要大量相似数据可从基本原理推理
物理理解文本描述的统计规律物理规律的内部模型
可解释性黑箱(难以解释)相对可解释(状态可追溯)

2.3 世界模型的技术挑战

杨立昆选择这条路的勇气在于,他直面了几个巨大的技术挑战:

挑战一:如何构建通用的潜在状态表示?

现实世界的复杂性:
- 无限维度的观测数据(视觉、声音、触觉等)
- 多层次的时间尺度(毫秒到小时)
- 部分可观测性(总有不完全信息)

解决方案思路:
- 分层表示学习(Hierarchical Representation)
- 自监督学习(Self-Supervised Learning)
- 对比学习(Contrastive Learning)

挑战二:如何学习物理规律?

# 世界模型学习物理规律的途径
physics_learning_approaches = {
    "1. 被动观察": {
        "方法": "观察大量真实世界的视频",
        "优势": "数据丰富",
        "挑战": "需要从2D投影推断3D物理"
    },
    "2. 主动交互": {
        "方法": "让AI在模拟或真实环境中尝试行动",
        "优势": "获得因果数据",
        "挑战": "现实世界交互成本高,模拟与现实有差距"
    },
    "3. 物理引擎引导": {
        "方法": "结合已知物理规律的先验知识",
        "优势": "加速学习",
        "挑战": "如何平衡先验知识与数据驱动学习"
    }
}

挑战三:计算效率问题

  • 世界模型需要在潜在空间中进行多步预测

  • 长期预测的误差累积问题

  • 实时推理的可行性

第三章:AI发展的“电梯幻觉”——行业集体心理分析

3.1 硅谷的集体认知偏差

杨立昆的比喻极为精准:“现在的AI圈就像一群人挤在一部没通电的电梯里,以为自己在上升,其实根本一动没动。”

这种幻觉的心理学机制:

class CollectiveAIllusion:
    """
    分析AI行业的集体幻觉
    """
    def __init__(self):
        self.mechanisms = {
            "1. 指标误导": {
                "现象": "用参数量、训练数据大小等容易测量的指标代表进展",
                "问题": "这些指标与真实智能的相关性未知"
            },
            "2. 确认偏误": {
                "现象": "只关注模型的成功案例,忽视失败",
                "示例": "惊叹于ChatGPT的对话能力,忽略其物理推理的彻底失败"
            },
            "3. 社会证明": {
                "现象": "大家都这样做→所以这样做是对的",
                "示例": "所有大厂都在做LLM→LLM一定是正确方向"
            },
            "4. 沉没成本": {
                "现象": "已投入太多资源,无法承认可能错了",
                "数据": "OpenAI、Google等在大模型上已投入数百亿美元"
            }
        }
    
    def why_no_one_speaks_out(self):
        return """
        为什么没人敢第一个说“这条路不对”?
        1. 职业风险:在热潮中唱反调可能被边缘化
        2. 融资压力:VC只追捧热门方向
        3. 出版偏见:新颖的改进比根本性质疑更容易发表
        4. 团队惯性:大团队转向成本极高
        """

3.2 技术的“路径依赖陷阱”

AI发展目前陷入了一种危险的路径依赖:

初始选择(2017-2018):
Transformer架构在NLP上表现优异
↓
资源倾斜:
Google、OpenAI等投入巨资扩大规模
↓
早期成功:
GPT-3、ChatGPT等获得公众关注
↓
正反馈循环:
更多投资→更大模型→更多关注→更多投资
↓
锁定效应:
整个行业基础设施、人才、评价标准都围绕大模型
↓
创新抑制:
非主流方向难以获得资源和关注
↓
杨立昆困境:
最了解问题的人,反而最难改变方向

3.3 资本驱动 vs 科学驱动

当前AI发展呈现明显的资本驱动特征:

资本逻辑的特征:

  • 追求可量化的短期指标(参数规模、用户增长)

  • 偏好可商业化的应用(聊天、写作、编程助手)

  • 需要快速的投资回报周期

科学探索的特征:

  • 追求根本性理解(智能的本质)

  • 容忍长期的不确定性

  • 价值在于知识积累,而非即时应用

杨立昆选择去巴黎而非留在硅谷,可能正是想摆脱资本逻辑的束缚,回归科学探索的本质。

第四章:通用人工智能(AGI)的时间表——重新校准期望

4.1 为什么AGI比想象中更遥远?

杨立昆的“5-10年达不到狗智能”预测基于几个关键认知:

1. 我们严重低估了动物智能的复杂性

狗的认知能力包括:
- 物体持久性理解(东西消失仍然存在)
- 基本因果关系(动作导致结果)
- 情绪识别与共情
- 社会学习(观察其他狗或人类)
- 简单工具使用(部分犬种)
- 问题解决(如开门、获取食物)

这些能力中,大多数对当前AI系统来说仍是未解难题。

2. 从专用智能到通用智能的“跨越鸿沟”

# AI能力增长的指数幻觉 vs 现实
def ai_progress_prediction():
    """
    常见的错误预测模式
    """
    # 观察到:3年内,AI从不会下棋→击败世界冠军
    # 错误推断:按此速度,3年后将实现AGI
    # 现实:围棋是封闭规则系统,AGI需要开放世界理解
    
    progress_timeline = {
        "封闭系统任务": {
            "国际象棋": "1997年深蓝击败卡斯帕罗夫",
            "围棋": "2016年AlphaGo击败李世石", 
            "蛋白质折叠": "2020年AlphaFold2解决",
            "特征": "规则明确,状态空间虽大但有限"
        },
        "开放世界任务": {
            "家务机器人": "仍处于研究阶段",
            "自动驾驶": "L4级仍未普遍实现",
            "通用对话": "看似接近,实则缺乏真实理解",
            "特征": "环境复杂,状态空间几乎无限"
        }
    }
    
    return "从封闭任务到开放任务的过渡,难度非线性增长"

4.2 技术发展的S曲线与AI的当前位置

技术成熟度曲线(简化):
1. 技术萌芽期(2012-2017):深度学习复兴,CNN、RNN发展
2. 期望膨胀期(2018-2023):Transformer、大模型引发热潮
3. 幻觉破灭期(可能2024-2026):认识到大模型的根本限制
4. 稳步爬升期:多种技术路线并行探索
5. 生产成熟期:真正可用的通用智能技术出现

杨立昆的观点:我们可能正处于“期望膨胀期”的顶峰,
即将进入“幻觉破灭期”,而这对于长期发展是必要的调整。

4.3 重新定义AGI的成功标准

与其问“何时实现AGI”,不如问“AGI应该具备哪些基本能力”:

class AGI_Capabilities_Checklist:
    """
    重新思考AGI的能力标准
    """
    def __init__(self):
        self.essential_capabilities = {
            "物理理解": {
                "要求": "理解牛顿力学、材料属性、空间关系",
                "当前状态": "极差(大语言模型几乎为零)",
                "测试方法": "物理QA基准、机器人操作任务"
            },
            "因果推理": {
                "要求": "区分相关性、因果关系,进行反事实推理",
                "当前状态": "有限(需要明确提示)",
                "测试方法": "因果推理基准测试"
            },
            "常识知识": {
                "要求": "理解日常世界的隐含规则",
                "当前状态": "表面上有,实则脆弱",
                "测试方法": "常识QA、情境理解测试"
            },
            "目标导向学习": {
                "要求": "主动设定目标并学习达成方法",
                "当前状态": "几乎不存在",
                "测试方法": "新颖环境中的任务学习"
            },
            "社会认知": {
                "要求": "理解他人意图、信念、情绪",
                "当前状态": "模拟对话能力≠真实理解",
                "测试方法": "心理理论测试、社交情境理解"
            }
        }
    
    def evaluate_current_ai(self):
        score = 0
        max_score = len(self.essential_capabilities) * 100
        
        for capability, details in self.essential_capabilities.items():
            if details["当前状态"] == "极差":
                score += 10
            elif details["当前状态"] == "有限":
                score += 30
            elif details["当前状态"] == "表面上有":
                score += 50
            else:
                score += 0
        
        return f"当前AI系统AGI能力分数:{score}/{max_score}(约{score/max_score*100:.1f}%)"

第五章:AI安全的务实视角——从哲学焦虑到工程问题

5.1 为什么“AI统治人类”是妄想?

杨立昆的观点直截了当:“聪明不等于想当老大。你家猫也很聪明,但它没打算统治你。”

这个观点基于几个关键洞察:

1. 权力欲望不是智能的必然产物

  • 人类对权力的渴望是进化、文化、心理的复杂产物

  • 没有证据表明高智能必然导致统治欲望

  • 许多高智能人类(科学家、艺术家)对权力并不热衷

2. 当前AI系统缺乏自主目标

# 当前AI系统的“目标”本质
class CurrentAI:
    def __init__(self):
        self.objective = None
    
    def set_objective(self, human_instruction):
        # 关键:目标由人类设定,AI没有内在目标
        self.objective = human_instruction
    
    def execute(self):
        # 只是优化给定目标函数
        return optimize(self.objective)
    
    # 对比:假设的“危险AI”
    class HypotheticalDangerousAI:
        def __init__(self):
            self.intrinsic_goals = ["自我复制", "积累资源", "消除威胁"]
            # 这些目标不会从当前架构中自发产生

3. 从智能到行动的鸿沟

人类担心的路径:高智能 → 自主目标 → 策略制定 → 行动执行
现实的技术限制:
1. 当前AI缺乏目标设定的自主性
2. 从目标到具体行动需要大量世界知识
3. 物理世界的行动执行极其困难
4. 多AI协作需要复杂的通信与协调

5.2 真正的AI安全挑战

与其担心科幻式的AI统治,杨立昆认为我们应该关注更实际的工程问题:

class RealAISafetyConcerns:
    """
    实际的AI安全问题列表
    """
    def __init__(self):
        self.concerns = [
            {
                "问题": "价值对齐(Value Alignment)",
                "描述": "如何确保AI系统理解并尊重人类价值观",
                "当前进展": "有限,仍依赖大量人类反馈",
                "风险等级": "高"
            },
            {
                "问题": "鲁棒性(Robustness)",
                "描述": "AI在异常情况、对抗攻击下的表现",
                "示例": "自动驾驶在罕见天气条件下的决策",
                "风险等级": "高"
            },
            {
                "问题": "可解释性(Explainability)",
                "描述": "理解AI决策背后的原因",
                "重要性": "关键系统(医疗、金融)需要可解释性",
                "风险等级": "中高"
            },
            {
                "问题": "偏见与公平性(Bias & Fairness)",
                "描述": "训练数据中的社会偏见被放大",
                "示例": "招聘、贷款审批中的歧视",
                "风险等级": "高"
            },
            {
                "问题": "滥用风险(Misuse)",
                "描述": "恶意使用AI技术(深度伪造、自动化攻击)",
                "应对": "技术防御+法律法规",
                "风险等级": "高"
            }
        ]
    
    def prioritize_concerns(self):
        # 按风险等级和可解决性排序
        return sorted(self.concerns, 
                     key=lambda x: (x["风险等级"], -self.solvability_score(x)))

5.3 渐进式安全框架

杨立昆提倡的工程化安全思路:

渐进式AI安全框架:

1. 安全设计(Security by Design)
   - 在系统架构阶段内置安全考量
   - 例如:访问控制、操作审计、输入验证

2. 约束与边界(Constraints & Boundaries)
   - 明确AI的行动边界
   - 例如:机器人物理限制、对话系统话题限制

3. 持续监控(Continuous Monitoring)
   - 实时检测异常行为
   - 例如:偏离预期的决策模式检测

4. 渐进部署(Gradual Deployment)
   - 从低风险场景开始,逐步扩大
   - 例如:从棋盘游戏到自动驾驶的渐进过程

5. 冗余与故障安全(Redundancy & Fail-Safe)
   - 多系统交叉验证
   - 关键系统的物理断开能力

这种思路将AI安全类比为航空安全:不是禁止飞行,而是通过系统设计、冗余机制、严格测试来确保安全。

第六章:创新者的困境——为什么正确的路看起来像是错的?

6.1 历史教训:技术革命的真正模式

杨立昆的职业生涯见证了多次技术热潮与泡沫,这塑造了他的判断:

回顾历史上的“这次肯定行”时刻:

  • 1980年代:专家系统热潮→“AI冬天”

  • 1990年代:符号AI复兴→再次遇冷

  • 2000年代:统计机器学习崛起→但进展缓慢

  • 2010年代:深度学习革命→当前的大模型热潮

模式识别:

技术炒作周期:
1. 突破性进展(真正的创新)
2. 过度期望(媒体、资本放大)
3. 实际困难(遇到根本性限制)
4. 幻灭调整(资金撤退,重新思考)
5. 稳步发展(务实的技术进步)

当前大模型可能正处于第2阶段向第3阶段的过渡期。

6.2 杨立昆选择的意义

离开硅谷、远赴巴黎、选择非主流技术路线,这一系列决定体现了:

1. 科学勇气

  • 基于证据而非共识做判断

  • 愿意挑战行业正统观念

  • 接受短期不被理解的可能性

2. 战略耐心

  • 不追求快速商业回报

  • 投资于根本性、长期性突破

  • 建立可持续的研究生态(在法国培养人才)

3. 系统思维

  • 看到当前技术路径的系统性缺陷

  • 提出完整的替代框架(不仅仅是局部改进)

  • 考虑技术与社会、伦理的互动

6.3 对普通从业者的启示

杨立昆的“反叛”对每个AI从业者都有重要启示:

class LessonsForAIPractitioners:
    """
    从杨立昆的选择中学习的要点
    """
    def __init__(self):
        self.lessons = {
            "1. 培养技术判断力": {
                "行动": "深入理解技术原理,不盲从热点",
                "具体做法": "阅读原始论文,复现核心实验,理解局限性"
            },
            "2. 区分信号与噪音": {
                "行动": "在热潮中保持冷静",
                "指标": "关注基准测试的严谨性,而非媒体宣传"
            },
            "3. 建立独立思考": {
                "行动": "形成自己的技术观点",
                "方法": "定期撰写技术分析,参与深度讨论"
            },
            "4. 拥抱多元路径": {
                "行动": "关注非主流技术方向",
                "益处": "避免群体思维,发现创新机会"
            },
            "5. 平衡短期与长期": {
                "行动": "在职业发展中兼顾",
                "策略": "80%时间投入主流技术(职业安全),20%探索前沿方向(未来机会)"
            }
        }
    
    def practical_advice(self, experience_level):
        advice = {
            "初级(0-3年)": "深度学习主流技术,但保持批判性阅读习惯",
            "中级(3-7年)": "选择专精领域,同时了解相关方向进展",
            "高级(7年以上)": "形成自己的技术哲学,敢于挑战行业共识"
        }
        return advice.get(experience_level, "持续学习,保持好奇")

第七章:未来路径的可能融合

7.1 第三条道路:整合的智慧

虽然杨立昆批评当前大模型路线,但未来更可能是整合而非取代:

潜在的融合路径:

整合架构:世界模型 + 大语言模型

架构设计:
1. 世界模型作为基础(物理理解、因果推理)
2. 语言模型作为接口(自然交互、知识检索)
3. 共享表示学习(在多模态数据上联合训练)

优势结合:
- 世界模型:物理常识、长期规划、反事实推理
- 语言模型:语言理解、知识库、创造性生成

7.2 多技术路线并行的必要性

AI发展的健康生态应该是多元化的:

class AIDiversificationStrategy:
    """
    AI技术路线的多元化投资组合
    """
    def __init__(self):
        self.technical_approaches = {
            "大语言模型路线": {
                "代表": "OpenAI、Google、Anthropic",
                "优势": "大规模知识获取、自然交互",
                "风险": "物理理解缺乏、能耗高"
            },
            "世界模型路线": {
                "代表": "杨立昆团队、DeepMind部分项目",
                "优势": "物理常识、因果推理",
                "风险": "技术难度高、进展缓慢"
            },
            "神经符号结合": {
                "代表": "MIT、IBM等研究机构",
                "优势": "可解释性、逻辑推理",
                "风险": "整合困难、可扩展性挑战"
            },
            "具身智能": {
                "代表": "波士顿动力、斯坦福等机器人实验室",
                "优势": "物理交互能力",
                "风险": "硬件成本、安全问题"
            },
            "神经形态计算": {
                "代表": "Intel Loihi、IBM TrueNorth",
                "优势": "能效高、实时处理",
                "风险": "编程模型不成熟、生态系统缺乏"
            }
        }
    
    def optimal_allocation(self, timeframe):
        allocations = {
            "短期(1-2年)": {
                "大语言模型": 60,
                "世界模型": 20,
                "其他": 20
            },
            "中期(3-5年)": {
                "大语言模型": 40,
                "世界模型": 30,
                "神经符号结合": 20,
                "其他": 10
            },
            "长期(5-10年)": {
                "大语言模型": 20,
                "世界模型": 40,
                "整合架构": 30,
                "其他": 10
            }
        }
        return allocations.get(timeframe, "需要持续重新评估")

7.3 作为从业者的战略定位

面对技术路径的不确定性,从业者可以采取的策略:

1. 技术雷达建设

  • 定期跟踪各技术路线的进展

  • 参加多种技术社区(不仅是主流会议)

  • 建立跨技术路线的同行网络

2. 可迁移技能培养

无论技术路线如何变化,以下技能都至关重要:

基础能力:
- 数学基础(概率、线性代数、优化)
- 编程能力(系统设计、调试、优化)
- 实验方法(假设检验、数据分析)

元能力:
- 学习能力(快速掌握新技术)
- 系统思维(理解技术组件如何互动)
- 批判性思维(评估技术主张的合理性)

3. 职业路径的灵活性

  • 在技术栈选择上保持一定的通用性

  • 积累跨领域的项目经验

  • 发展技术判断力,而不仅仅是工具使用能力

结论:在狂热与怀疑之间

杨立昆的“反叛”提供了一个难得的反思时刻。在一个普遍追求更大、更快、更炫的AI世界里,他提醒我们停下来思考一些根本问题:

真正智能的标志是什么?

  • 不是流利的对话,而是理解对话背后的世界

  • 不是庞大的知识库,而是运用知识的智慧

  • 不是完美的模式匹配,而是创造性的问题解决

技术发展的健康模式是什么?

  • 不是单一的赢家通吃,而是多元的探索竞争

  • 不是短期的指标竞赛,而是长期的积累突破

  • 不是盲目的跟风追逐,而是批判性的独立思考

作为个体的应对策略是什么?

  • 既要深入掌握主流技术(职业生存)

  • 又要保持视野的开阔性(未来机会)

  • 最终形成自己的技术判断力(职业成熟)

杨立昆的选择最值得我们学习的,或许不是他具体的技术路线(世界模型最终可能成功,也可能失败),而是他作为科学家的勇气、耐心和独立思考。在一个人人都在谈论AI的时代,我们需要的可能不是更多的跟随者,而是更多的思考者。

最后,用杨立昆自己的话来说也许最合适:“科学进步往往来自于那些愿意质疑主流、探索未知路径的人。” 无论你是否同意他的技术判断,这种精神本身,就是推动AI乃至整个科技进步的最宝贵动力。

对于我们每个身处这个变革时代的个体来说,最重要的或许不是预测哪条路最终会赢,而是培养在不确定中做出明智判断的能力,以及当必要时有勇气走一条“看起来不对”的路的魄力。这或许才是杨立昆的“反叛”留给我们最持久的启示。


本文基于公开资料分析,不代表任何机构的官方立场。技术发展日新月异,请读者保持开放心态,持续学习更新自己的认知。欢迎在评论区分享你对AI发展路径的看法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ปรัชญา แค้วคำมูล

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值