大学轻轻走过

一位计算机科学与技术专业的学生分享了她的编程学习经历,从初接触计算机到掌握Android开发的过程,以及面对就业压力的心态变化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

好久没有时间写自己的东西了,不知道是因为工作忙还是自己堕落了,看看之前(上学的时候)上传的资源,被大家陆续的下载学习或者是使用,甚是高兴啊!在想:什么时候可以再写出自己的东西,上传到CSDN上供大家学习使用啊!

2013年,在这个就业压力甚大的时代,我找到了与自己专业相关的工作,应该高兴一下。但是,虽说是在工作,拿着那微薄的工资,天天立志要买一套属于自己的房子,在这个房价甚高的年代,好似在天方夜谭。

2009年,我走进了大学,从一个基本从来都没有摸过计算机开始学习计算机的知识,开始在电脑上写变量,写代码,写函数,到现在,拿着开发软件的工资,对我来说好似一个笑话。刚刚买进大学的门槛,虽然一切都是那么的新鲜,但是仍然没有一丝放下学习疯玩的念头。可能这就是人的本性。即使想要在大家一起颓废的年代颓废,在自己的心里仍有要求自己努力往前迈的推动力。所以,在大一的那一年的日子里,我很是勤奋,就像在过着高中的日子。每天都是早早的休息,早早起床:背诵英语等等,对这些高中生必须做的事情,我一直都没有放松过(但是最后六级也还是没有过,但是虽然是这样,对于英语的进步都算是在大学)。


2010年,我大二了。为了学习(我的专业是计算机科学与技术)。我拿着学校给的黄票,天天往学校的网吧跑,不是以练习打字为由聊天,就是放松一下自己,看看电影什么的,(其实我这人看的电影蛮少的,因为我担心自己会像其他同学那样看起来韩剧就迷在上面,然后荒废了我所谓的学业)。由于我接触计算机的时间比较靠后(高考之后才开始接触计算机),所以有时间会在机房里打打字。记得那时候有个要好的高中同学鼓励我说:当所有人都认为你疯了的时候,你就离成功很近了。其余的时间就是天天泡在图书馆。天天拿着高数课本做高数题目,如果是做累了,就到书架上那本关于计算机的书看看,记得那时候还基本上没有学习太多的编程知识,但是我拿的却是一本关于汇编的书。现在想想,当初自己的学习真是盲目。想要学习都不知道自己应该看着什么样的书。


2011年,我大三了,那时候好像自己有了电脑。也学习了一些关于编程的知识。所以我会在自己的电脑上安装上开发环境,时不时的写点代码,做做练习。那时候自己天天都在担心自己毕业后能不能找到工作的问题。我不想像其他同学那样,大学四年之后仍然不知道自己能够做什么,可以做些什么。脑袋里充满了关于:开发很累,开发不适合女生,IT行业歧视女生等等,这些都加大了我的就业压力。记得那时候想要学习做网站的知识,所以找一个比我们高一届的同学教我,他给我讲了一些例子之会后让我自己做练习,学习了一下午之后他说:计算机的女生没有必须要写太多的代码,以后女生基本都不会做开发的,还有啊,你的开发细胞液太少了点。当时自己也没有说什么,只是这些话加大了我的压力。我更加茫然自己以后能够做些什么。但是他的这些话并没有让我停止写代码。那时候,android很火,还有写android上的应用,有很好的平台:eclipse。所以我就自己从图书馆借了很多关于android的书,自己开始学习。那时候做这些,我只是想要自己在找工作的时候有可以说的。


2012年,我大四了。进入大四的那个暑假我没有回家,我一直在学校学习自己android。大四暑假之后很多同学都在开始找工作进行实习,我的心越来越忐忑,我很恐慌。只要听说学校有什么招聘的信息,我基本都会参加。


。。。。。。


什么都不想说了,说了都是泪啊。。。。。(有空续)

### 轻量化神经网络的发展历程 轻量化神经网络的研究旨在降低计算复杂度和存储需求的同时保持较高的模型性能。这一方向的兴起主要受到移动设备和嵌入式系统的资源限制驱动。以下是其发展历程和技术进展: #### 早期探索阶段 在深度学习发展的初期,研究人员发现传统的大规模神经网络难以部署到资源受限的环境中。因此,最早的轻量化尝试集中在减少参数数量上。例如,通过低秩分解(Low-Rank Decomposition)来近似权重矩阵[^3]。 #### 结构优化阶段 随着研究深入,特定结构设计成为主流方法之一。卷积神经网络中的分组卷积(Group Convolution)以及深度可分离卷积(Depthwise Separable Convolutions)被广泛采用。这些技术显著减少了计算开销并提升了效率。典型代表有Google提出的MobileNet系列模型[^2]。 #### 剪枝与压缩技术的应用 为了进一步提升效率,“彩票假说”理论指出,在大规模随机初始化后的神经网络内部存在较小但高效的子网路。“中奖子网络”的提取可以通过迭代式的训练过程完成,这种方法不仅能够有效去除冗余连接还能维持甚至超越原模型的表现水平。 #### 新型架构创新 近年来,基于自注意力机制构建起来的新一代框架——Transformers也加入了小型化的行列。比如 MobileViT 就是一种融合了局部感知能力与全局建模优势的小尺寸变压器架构实例;它能够在保证较高精确率的前提下极大地缩减运行时间成本及内存占用情况。 ### 技术实现细节 对于开发者而言,实际操作层面涉及多个方面的工作: - **硬件适配**: 需要考虑目标平台的具体特性(如ARM处理器),利用专门指令集加速运算速度。 - **软件工具链支持**: TensorFlow Lite 和 PyTorch Mobile 提供了一系列API帮助转换标准格式为适合移动端使用的版本文件(.tflite 或 .ptl) 并提供推理引擎接口方便集成至应用程序当中去. 下面给出一段简单的Python代码用于加载预训练好的轻量级分类器并在图片数据集上执行预测功能演示: ```python import tensorflow as tf # 加载 TFLite 模型 interpreter = tf.lite.Interpreter(model_path="mobilenet_v2.tflite") interpreter.allocate_tensors() input_details = interpreter.get_input_details() output_details = interpreter.get_output_details() # 准备测试样本 (假设已准备好名为 'test_image' 的 NumPy 数组形式图像) test_image = ... # 这里省略具体读取逻辑 normalized_test_image = test_image / 255.0 # 归一化处理 # 设置输入张量 interpreter.set_tensor(input_details[0]['index'], normalized_test_image) # 执行推断 interpreter.invoke() predictions = interpreter.get_tensor(output_details[0]['index']) print(predictions.argmax()) # 输出类别索引号 ``` ### 总结 综上所述,从最初的简单降维到现在复杂的多维度联合优化策略,轻量化神经网络已经走过了相当长的一段路程,并且未来还有很大的发展空间等待我们去挖掘探索。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值