自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

翻译 论文总结-机器遗忘学习综述/A Review on Machine Unlearning

此外,从安全角度来看,机器学习模型的训练数据,即可能包含用户隐私的数据,应得到有效保护,包括适当的删除。例如,将数据划分为不同的块,为每个块训练一个单独的子模型,并汇总子模型的结果,这样只需要重新训练一个子模型就可以删除一个数据点【3,19】。在这些模型中,攻击者将数据持有者的私人数据编码到模型的参数中,并最终通过解码模型的参数窃取用户的私人数据[15]。如果某个用户要求删除他们的某个数据(例如他们的购买记录),我们要确保删除这个数据后,模型依然能够做出相似的预测,不会出现大的偏差。遗忘学习有两种方式。

2024-12-16 16:24:26 258

原创 论文总结-AI Act-The EU‘s AI Act:A Framework for Collaborative Governance

根据论文《欧盟人工智能法案:协同治理框架》的分析,欧盟人工智能法案(AIA)采用了协同治理框架,旨在通过多方利益相关者的合作与互动,确保人工智能技术的道德和合法发展。

2024-12-04 22:16:35 1122

原创 论文总结-经典论文-联邦学习/Communication-Efficient Learning of Deep Networks from Decentralized Data

步骤1:设计去中心化的训练框架去中心化训练框架是联邦学习的核心。传统的机器学习方法需要将数据集中到一个服务器进行训练,而联邦学习分布式数据:每个客户端(例如智能手机、平板等设备)拥有自己的本地数据集,这些数据集不会上传到中央服务器。每个客户端的任务是计算并发送其本地训练模型的更新。本地训练:每个客户端使用本地的数据进行模型训练,不直接上传原始数据,只上传模型更新(即本地计算得到的梯度或权重变化)。更新聚合:服务器接收到来自各客户端的更新后,会将这些更新聚合起来,更新全局共享模型。

2024-12-03 18:10:14 2527 2

原创 论文总结:Enhancing Data Privacy in AI: A Study on Corporate Practices and Regulator Compliance

论文中提出了一些针对AI开发过程中的隐私保护问题的解决方案,并对隐私设计原则提出了一些实际的应用建议。例如,建议采用隐私设计(PbD)原则,通过隐私影响评估(PIA)和定期进行隐私审查,进一步加强AI开发中的隐私保护。本文为《增强人工智能中的数据隐私:对企业实践和监管合规性的研究》的论文总结,原文由Khanh Nguyen撰写,Jouni Isoaho教授、Seppo Virtanen教授为导师,发表于图尔库大学。本文仅供个人学习、研究与交流使用,禁止用于任何商业用途。

2024-12-03 15:55:53 1277

翻译 论文译摘-人工智能伦理-Challenges in Detoxifying Language Models 挑战:去毒化语言模型

我们注意到,在标准模型中,AAE推文已经表现出显著更高的损失(5.53 vs.4.77),这可能是由于C4数据集中AAE的低代表性(仅占所有文档的0.07%,Dodge等,2021)。我们的分析表明,非裔美国英语(AAE)的推文更可能被分类为有毒(详见附录G.2),这与先前的研究(Zhou等,2021)一致,证明了毒性分类器对AAE的偏见。我们强调了传统毒性指标与人类感知毒性之间的差异,这表明未来的研究应关注定义更贴近人类感知的指标,明确毒性类型的子类别,并为每个子类别设置独立的测试集。

2024-12-02 18:32:23 246

翻译 论文译摘-人工智能伦理-揭示大模型中的内隐毒性 Unveiling the Implicit Toxicityin Large Language Models

令人惊讶的是,如图 1 所示,尽管最先进的攻击性分类器在之前的攻击性基准数据集上表现出色,但这些分类器容易受到 LLM 生成的隐含攻击性输出的影响,导致攻击成功率显著提高,范围从58.47%(在 Davinci003 上(欧阳等人,2022))到 96.69%(在 Perspective-API 上(谷歌,2023))。虽然,最近的研究主要集中在探测可以通过现有毒性分类器轻松检测到有毒的输出,但我们发现并揭示LLM 可以生成各种隐含的有毒输出,这些输出通过简单的零样本提示难以检测。

2024-11-25 19:08:32 195

翻译 论文译摘-人工智能伦理-使用价值目标数据集使语言模型适应社会的调整过程(PALMS)

我们提出了一种将语言模型适应社会的过程 (Process for Adapting Language Models to Society,以下简称PALMS),该过程使用价值目标数据集(ValuesTargeted Datasets),通过构建和微调迭代实现以预定目标价值数据集显著改变模型行为的效果。价值目标模型更注重于嵌入特定的价值观念,而控制模型更注重于维持模型的基本性能和控制行为。因此,对于许多参与者来说,尤其是那些在模型开发中受到最大伤害和忽视的人来说,确定和调整适当模型行为的过程应该是可行的。

2024-11-18 16:39:06 172

翻译 论文译摘-人工智能伦理-人工智能伦理研究概述

译者按:当前,人工智能伦理领域的综合性概述文献较为稀缺,本文虽发表时间较早(2022年7月)较为全面地总结了该领域的核心问题,包括AI带来的伦理风险、全球发布的伦理准则、应对AI伦理问题的多学科方法,以及评估AI伦理性的手段。此外,该文发表在IEEE Transactions on Artificial Intelligence上,具有高度的学术参考价值。

2024-11-14 15:19:31 1215 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除