学习周报

学习周报

本周学习了Java的包的分类与使用,主要学习了Java的long包,其中有Object类,System类,字符串类。

内部类中的普通内部类和静态内部类方法内部类 匿名内部类, 异常的定义和使用,以及异常的捕获和抛出( System.out.println(“请输入一个数字”);
Scanner sc = new Scanner(System.in);
// 对可能发生的异常 进行处理
int num = sc.nextInt();
if(num%2==0){
System.out.println(“这个数是偶数”);
}

异常关键字 以及层次关系
以及自定义的异常。

日期和日历类
在Java中用于表示日期的类 java.util.Date()
它是一个单例模式 ,通过 getInstance()获取一个日历对象, 并获取日历的任意时间,日期。
常用方法
getInstance() : 获取日历对象
get() :获取指定的单位的日历数值 (年,月,日 等等) set():设置指定单位的日历数值
add() :添加指定单位的日历数值
getTimeInMills() :获取日期的毫秒数

### 深度学习周报最新进展概述 深度学习领域的发展日新月异,最新的研究动态通常集中在模型架构优化、训练效率提升以及跨学科应用等方面。以下是关于深度学习周报中的几个核心主题及其相关内容: #### 新兴框架与工具 近年来,多个新兴的深度学习框架不断涌现并得到广泛应用。例如,PyTorch Lightning 和 Hugging Face Transformers 提供了更高效的开发体验和预训练模型支持[^1]。这些工具不仅简化了复杂模型的设计过程,还显著提升了实验迭代的速度。 #### 关键论文进展 在自然语言处理 (NLP) 领域,《Scaling Laws for Neural Language Models》探讨了大规模参数量对性能的影响规律,并揭示了随着模型规模增加所带来的收益边界效应[^2]。而在计算机视觉方面,“Vision Transformer”系列文章展示了基于纯注意力机制构建图像分类器的可能性,挑战传统卷积神经网络的地位[^3]。 #### 技术趋势分析 联邦学习成为隐私保护场景下的热点方向之一;强化学习则继续向多智能体协作及真实世界机器人控制等领域深入探索 。此外 ,自监督 学习方法通过利用未标注数据来增强表示能力,在减少人工成本的同时提高了泛化效果 [^4]. ```python import torch from transformers import AutoTokenizer, AutoModelForSequenceClassification tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased") model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased") inputs = tokenizer("Hello world!", return_tensors="pt") outputs = model(**inputs) print(outputs.logits) ``` 上述代码片段演示如何使用HuggingFace库加载BERT模型并对输入文本进行情感分类预测操作.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值