写代码水平的几个发展阶段(转)

本文概述了程序员从懵懂初学到成为行业领军人物的成长路径,包括掌握技能、深入理解技术原理、创新实践、思考行业未来及保持持续学习的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

来自大佬的总结,提醒自己!

 

原文链接

目录

懵懂

会用

会看

会写

会想

总结


懵懂

刚开始学习编程或学习一种新技术的时候,会有种雾里看花的感觉,似懂非懂,就算记住了也不会用。要突破这个阶段的方法就是“练习”,通过各种项目让自己熟练起来,做到任何一个不太难的业务需求可以快速想到解决方案并且开始动手实现。

会用

通过 google、stackoverflow、各种专业社区、各种文章等渠道,自己慢慢会发现更大的世界并对这个世界中各种技术产生了兴趣,理解一个简单的新技术不再成为自己的瓶颈,自己慢慢可以驾驭非常多的工具、组件、库、设计模式、算法、语言等,主动不断扩大自己的视野,尝试在项目中使用各种新东西,对引入一个新技术开始变得非常兴奋,最终可以做到快速的吸收并理解一个新技术的用法,也知道什么时候该用什么技术。

会看

出于某些机缘,比如遇到了一个比较难以解决的 bug,开始深入阅读某种日常用到的技术的内部原理,从而开始发现更多自己所不知道的东西,并开始对各种技术的背后实现产生兴趣,慢慢建立起一个相对完备的知识体系,对某个领域的所有的相关技术都能够如数家珍一般的讲出来,第一次开始有一种“时间不够用”的无力感,面对浩如繁星的开源/闭源代码量深深感觉到自己的渺小,越来越不愿意去轻易重造一个轮子,真正懂得怎么去评估一个开源技术的好坏。

会写

突然有一天,在钻研某种技术的时候发现一种突破性的思路,并且通过谨慎调研后发现确实有实现出来的必要,于是就将大量的时间投入在实现理想的过程中去,并且主动的用各种技术来提升自己的工作效率,最终拿出来的成果确实如预计一般站在了业界的最前沿。

会想

当自己已经站在了业界这个领域的最前沿,除了继续动手实现最核心的代码,还找到了未来三年的发展方向,并且第一次勇敢的自我否定抛弃了自己原先的想法。

总结

如果长期不写代码一定会让自己的水平下降,如果长期只做当前级别以下的事情也可能会退化。绝对不是说“会想”了就可以每天冥想、指点江山,自己不动手就很容易被后来者超越并且开始固步自封,从“会想”变成自以为是,退化到之前的阶段。

非常多的程序员停留在“会用”的阶段,满足于能够解决问题,还没能看的更深更远。在“会用”的阶段很容易产生一种无所不能的错觉,觉得已经没什么功能实现不了,开始重复造一些并不怎么好的轮子,造轮子之前甚至都没有去仔细研究过业界最先进的技术实现细节,如果一直处在这种错觉之中,基本上就很难再成长了。其实这种现象在大公司中也常出现,很多程序员仅止步于写代码的初级阶段,还是非常可惜的。

在进入“会看”之后会有一段非常长的痛苦期,这段时间里会非常感觉一个人的渺小,既没有时间去穷尽所有技术细节,也没有能力去找到前人没有尝试过的突破性创新,简直是一种煎熬。有不少业界大牛就停留在这个阶段,迷失在各种细节之中,成为一个知识丰富但缺乏创造力的人。

希望所有程序员都能笔耕不辍,向着下一个阶段进发。

### 大模型发展历程的关键阶及特征 #### 早期探索期 在大模型发展的初期,研究者们主要集中在理论基础和技术框架的构建上。这一时期的特点是对神经网络结构进行了大量的实验和改进,初步形成了现代深度学习的基础架构[^1]。 #### 快速增长期 进入快速增长期后,得益于硬件性能的进步以及互联网带来的海量数据资源,研究人员能够训练更大规模、更复杂的模型。特别是基于Transformer架构的语言模型,在此期间取得了显著进展,参数量迅速增加并伴随着性能上的大幅提升[^2]。 #### 成熟稳定期 当下的大模型正处于成熟稳定的阶。此时不仅有更多种类的应用场景被开发出来,而且针对不同任务定制化设计的大规模预训练模型也开始涌现。这些模型通过微调等方式可以在多种自然语言处理任务中取得优异成绩,同时也推动着整个AI行业向前迈进一大步。 #### 技术融合期 展望未来,随着云计算等新兴信息技术的支持,预计将会迎来一个技术深度融合的新时代。在这个过程中,除了继续扩大模型规模外,还将注重提高计算效率降低成本等方面的工作;同时也会加强与其他前沿科技如区块链、大数据之间的协作关系,共同促进智能化水平的整体跃升[^3]。 ```python # Python代码示例:展示如何加载预训练好的BERT模型用于文本分类任务 from transformers import BertTokenizer, BertForSequenceClassification tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2) text = "Example sentence to classify." inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs) logits = outputs.logits predicted_class_id = logits.argmax().item() print(predicted_class_id) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值