说说这大半年的感受

项目延期由频繁的需求变更引起,团队成员在项目后期通过阅读书籍和实践重构代码,改进了开发流程和代码质量。面对项目管理混乱,强调了标准化和规范的重要性,计划深化学习SSH、J2EE和EJB技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

[size=medium] 项目接近尾声,我不是主要负责人,因此后期的验收基本上没我什么事了,也就有时间来写写~~
这个项目是很简单的BS架构的管理系统,在做项目的过程中,项目延期主要是需求变更太频繁,在一期上线前得几天,都还在更新源代码,当时我就无语了。。。无语又怎么办呢,还是得服从安排撒,继续改呗,还能怎样。项目中也没用框架,如SSH、SSI之类的,是很传统的MVC模式,代码结构基本上也是一些不规范的东西,不过自己不到两年的开发经验,也让自己无话可说,但自己在这一过程中,拜读了《代码整洁之道》以及《程序员:从小工到专家》还有什么JSP规范,Java规范就不用说了(必须要熟悉的),TDD,《代码重构的艺术》,《代码大全》等一些前辈推荐的书,一路走来,也就大半年的时间,个人感觉还是提升不少。在项目后期审视代码的时候,对自己以前写的代码,运用从树上学来的代码规范,进行了重构和精简,明白了太详细的注释,并不代表你很仔细,很认真,正好相反,说明你的方法(或者函数),变量名,类名的命名有问题,不能让人清楚的知道,是作何用途。只有在用到比较复杂的算法或处理逻辑时,才写一些必要的说明。在某个论坛上,看过一篇文章,叫做《我为什么不写注释》,说的就是这个道理。当然,不同的公司,有不同的要求,这点只代表个人观点。 项目组的分工问题:我们有三个开发人员,没有用代码库,也没有版本控制,故而时有发生在做代码整合的时候,有纰漏,新修改了的BUG,在后期测试时,依然存在,这种方式导致后期浪费了很多时间。再加上监管不力,再后来的扩展开发阶段,基本上全靠个人的编程素质,测试都很少,一切为了按时交工!让我觉得,根本没啥标准或者规范可言,也许这就是不正规的后果吧,谁让自己遇到了这么一个XX。都还不是为了五斗米。
现在我唯一担心自己的就是,在这样长期下去,自己学到的项目管理流程和程序开发方式都是“天马行空”般得飘逸,没有任何标准,规范可言,什么软件工程,什么开发规范都是浮云,在实际开发管理的过程中,根本不会遵照执行的,以后要进一步提升的话,会有很大的影响的。当然,自己可以保持自己的风格和追求,你改不了,那是你自己没本事,我知道有人会这么说,可是,事实是这样。快2年了,明天活的怎么样,是由今天决定的。明年,又将到达一个新的十字路口,何去何从,还是早打算的好。
下一阶段准备强化SSH,并深入学习J2EE规范,EJB开发。[/size]
### 大模型的技术原理 大模型的核心在于其超大规模参数量以及强大的表示能力,这使得它们能够在多种任务上表现出色。这些模型通常采用深度神经网络架构,例如Transformer[^1]。通过大量的预训练数据集,大模型能够学习到丰富的特征表达,并在下游任务中展现出卓越性能。 具体来说,生成式人工智能属于一种特殊的大规模模型类别,它可以通过学习输入数据来生成全新的内容,比如文本、图像或其他形式的数据[^2]。这种技术依赖于先进的算法设计和高效的计算资源支持。 --- ### 大模型的应用场景 大模型已经广泛应用于多个领域: - **自然语言处理 (NLP)**:用于机器翻译、情感分析、问答系统等任务。这类应用场景得益于大模型对复杂语义的理解能力和上下文感知功能。 - **计算机视觉**:涉及目标检测、图像分类等领域。特别是在文档图像处理方面,利用底层视觉技术(如扫描、矫正、去阴影)提升图片质量并防止篡改行为发生。 - **元宇宙构建**:作为虚拟世界的重要组成部分之一,生成式AI可帮助创建逼真的虚拟人物形象及其互动环境,从而增强用户体验沉浸感。 --- ### 最新技术进展 当前阶段,随着硬件设施的进步与软件框架优化,大模型正朝着以下几个方向快速发展: - 更高效能表现:研究者们不断探索新型架构以减少推理时间和能耗成本的同时保持甚至提高准确性; - 跨模态融合能力加强:不仅限于单一类型的媒体资料处理,而是实现文字、声音、视频等多种感官信息之间的无缝转换; - 社会伦理考量融入开发流程之中——确保所生产的成果既具有创新价值又遵循道德规范标准。 ```python # 示例代码展示如何加载一个预训练好的BERT模型进行文本编码操作 from transformers import BertTokenizer, BertModel tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertModel.from_pretrained('bert-base-uncased') inputs = tokenizer("Hello world!", return_tensors="pt") outputs = model(**inputs) last_hidden_states = outputs.last_hidden_state print(last_hidden_states.shape) # 输出张量形状 ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值