- 博客(11)
- 收藏
- 关注
原创 equals方法重写,为什么hashcode方法也要重写
重写子类的euquals方法,为什么一定要重写hashCode方法public class HashCodeUse { public static void main(String[] args) { User user1 =new User("A", "女", 10, 100); User user2 =new User("A", "女", 10, 100); System.out.println(user1 == user2); // out.
2021-12-22 17:36:17
345
1
原创 java常用API
Java API常用类库系统相关、用户输入、Object类、包装类、字符串相关、计算相关、日期相关;核心类库异常处理、集合、泛型、IO、多线程、网络编程、注解、反射机制文档注释文档注释规范1./**开始,*/结束;2.提取以public protected修饰的内容;3.提取类、接口、构造方法、成员变量、成员方法、内部类之前的注释;Javadoc命令规范javadoc 选项 java源文件/包[外链图片转存失败,源站可能有防盗链机制,建议将图..
2021-12-09 23:02:01
315
原创 内部类、枚举类的相关知识和面向接口编程的补充
面向接口编程工厂模式,命令模式package com.study.day10.part1.dao;// 工厂模式public class DaoFactory { public static UseDao getUserDao(){ return new UserDaoJdbcImpl(); }}public interface UseDao { int selectUseCount();}public class UserDaoJdbcI..
2021-12-08 11:32:29
567
原创 抽象类,接口以及策略模式的总结
抽象类public abstract class Vehicle{// 类也就变成了抽象类 public abstract void startup();// 抽象方法没有方法体!子类必须进行重写 public void speedup(){ }; public void stop(){ }; public void run(){ startup(); speedup(); stop(): }}1.抽象类中可以没有抽象方法,但包含抽象.
2021-12-08 11:31:19
806
原创 Comprehensive Privacy Analysis of Deep Learning
Comprehensive Privacy Analysis of Deep Learning(针对深度学习的白盒成员推理攻击)1. Abstract 设计白盒推理攻击对深度学习模型进行全面的隐私分析;通过完全训练好的模型的参数和模型训练过程中的参数更新来评估隐私泄露程度;针对主动和被动推理攻击,设计了集成学习和联邦学习的推理算法,并假设不同的对手的先验知识。 研究表明直接将黑盒攻击直接扩展到白盒设置是无效的,作者利用SGD随机梯度下降算法的隐私漏洞设计了新的算法来训练神经网络,良好的广义
2021-05-09 15:39:42
638
2
原创 MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples
MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples(通过对抗样本来防御黑盒的成员推理攻击)CCS 20191. Abstract 本成果主要是一个对于查询样本的预测向量的优化问题,通过噪声可以达到不改变查询样本的预测标签且对预测向量的改变有限的目的,通过一定的框架来达到优化的目的。 成员身份推理攻击的定义:攻击者的目的是推断一个数据样本是否在目标分类器的训练数据
2021-03-25 23:13:01
1348
1
原创 ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning M
ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning ModelsAbstract这篇文章对《Membership Inference Attacks Against Machine Learning Models》进行了更进一步的研究,对机器学习的成员推理攻击的的设定进行了放松,让成员推理攻击能够在更接近真实情况下进行攻击,文章提出了三种攻击者和两种防御成员推
2021-03-18 18:57:00
376
原创 Membership Inference Attacks Against Machine Learning Models论文笔记
Membership Inference Attacks Against Machine Learning Models1. Abstract:在机器学习过程中存在着隐私泄露的问题,这篇论文着重于成员推理攻击:给定一个记录(record)和一个机器学习模型的黑盒API,成员推理攻击能够区别该记录是否属于模型的训练集;成员推理攻击的主要核心思想是:通过目标模型来训练攻击者自身的攻击模型,该攻击模型(分类器)的作用在于能够识别出目标模型对于给定的数据集(数据集一部分来源于训练集,一部分训练集)的不同的预
2021-03-11 22:35:12
841
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人