2024-11-20
哋它亢:少样本学习与数据隐私的交织
2024-11-20 ~ 2024-11-20

哋它亢:少样本学习与数据隐私的交织

什么是‘哋它亢’:一个新概念的解析

在当今数据驱动的时代,“哋它亢”这一新兴概念逐渐成为科技领域的焦点。本文旨在探讨“哋它亢”的核心含义及其对少样本学习与数据隐私交织影响的独特视角。

“哋它亢”这一词汇虽然乍听之下显得不常见,但它实际上是对一种新型技术方法的生动描述。“哋它亢”,即“少量样本增强”,是指在拥有较少训练样本的情况下,通过先进的机器学习算法和技术手段,实现模型性能的有效提升。这一体系特别适用于数据稀缺或隐私保护需求较高的场景。

少样本学习作为人工智能领域的一个重要分支,在面对数据量不足的问题时展现出强大的适应性和灵活性。“哋它亢”通过优化算法设计和策略创新,确保在获取较少的数据样本的同时,能够最大限度地保留和利用已有的知识。同时,“哋它亢”的实现也离不开对隐私保护的严格遵循。

2024-11-18
2023年瑞士苏黎世联邦理工学院等提出差分隐私审计新方法——Group and Attack
2024-11-18 ~ 2024-11-18

原标题:《Group and Attack: Auditing Differential Privacy》

发表平台:CCS ’23, November 26–30, 2023, Copenhagen, Denmark

摘要

本文介绍了一种新的差分隐私审计方法“Group and Attack”,该方法能够有效地发现差分隐私算法中的违规行为。通过将许多产生相同算法的(ε, δ)参数对归类在一起,这种方法在搜索违规行为时更加高效和精确。实验结果表明,“Group and Attack”能够在多个最先进的差分隐私算法中发现之前未知的漏洞,并且在84%的情况下优于现有的审计工具。此外,该方法还能帮助识别漏洞的根本原因,这是其他差分隐私测试工具目前无法做到的。

2023年瑞士苏黎世联邦理工学院等提出差分隐私审计新方法——Group and Attack

解决的主要问题

本文主要研究领域为差分隐私算法的审计。随着差分隐私技术在私人机器学习应用中的广泛应用,其实现中常常存在细微的漏洞,这些漏洞可能导致隐私泄露。然而,现有的差分隐私审计工具通常直接扩展自ε-差分隐私工具,通过固定ε或δ来搜索违规行为,这限制了它们高效发现(ε, δ)差分隐私违规行为的能力。本文旨在开发一种新的审计方法,以克服这一限制,提高审计效率和准确性。

2024-11-18
2023年悉尼科技大学和澳门城市大学等提出联邦学习中的隐私与公平性
2024-11-18 ~ 2024-11-18

原标题《Privacy and Fairness in Federated Learning: on the Perspective of Trade-off》

发表平台:ACM Computing Surveys

摘要

本文综述了联邦学习(FL)中的隐私与公平性问题,并探讨了两者之间的相互作用。尽管在保护隐私或确保结果公平方面已经取得了显著进展,但这两者之间的平衡仍然是一个相对较少研究的领域。文章不仅回顾了现有的解决方案,还分析了联邦学习中独特的挑战,并提出了未来的研究方向,以期实现既保护隐私又保证公平性的联邦学习系统。

2023年悉尼科技大学和澳门城市大学等提出联邦学习中的隐私与公平性

解决的主要问题

本文主要关注联邦学习领域的隐私与公平性问题。随着大数据时代的到来,如何在利用大量数据训练机器学习模型的同时保护个人隐私成为了一个重要的研究课题。此外,确保算法输出的公平性也是社会广泛关注的问题之一。本文探讨了在追求隐私保护和结果公平的过程中可能产生的冲突和权衡,指出单一考虑其中一个方面可能会对另一个方面造成不利影响,从而提出了需要同时考虑这两个方面的观点。

2024-11-18
2024年字节跳动公司等提出PSI协议的匿名性评估框架——AnonPSI
2024-11-18 ~ 2024-11-18

原标题:《AnonPSI: An Anonymity Assessment Framework for PSI 》

发表平台:Network and Distributed System Security (NDSS) Symposium 2024

摘要

本文提出了一个针对私有集合交集(PSI)协议的匿名性评估框架AnonPSI。研究发现,尽管PSI协议广泛应用于安全地计算两个数据集交集的功能,但其容易受到集合成员推理攻击(SMIA)的影响,即使是最严格的仅返回交集基数的PSI版本也不例外。文章首先指出了现有工作在衡量隐私泄露方面的不足,并提出了两种改进的攻击策略:确定性和统计性策略。同时,文章展示了如何利用辅助信息(如交集成员的负载总和PSI-SUM)增强攻击效率。通过对两个真实数据集的全面测试,证明了所提方法在提高攻击效率方面明显优于先前的研究成果。这表明单独依赖现有的PSI协议可能无法提供足够的隐私保障,建议综合运用其他隐私增强技术来进一步强化隐私保护。

2024-11-18
2023年加州大学洛杉矶分校和埃森哲公司等提出轻量级物联网设备上的隐私保护推断技术
2024-11-18 ~ 2024-11-18

原标题《Enc2:Privacy-Preserving Inference for Tiny IoTs via Encoding and Encryption》

发表平台:ACM MobiCom ‘23

摘要

本文介绍了名为Orient的新框架,该框架旨在为资源受限的小型物联网设备提供一种轻量级的隐私保护机器学习方法。通过结合编码和加密技术,Orient在保证数据隐私的同时显著降低了推断延迟,并且消除了对边缘设备进行编码的需求。实验结果显示,Orient相比现有的隐私保护方法,在执行复杂的深度学习任务如目标检测和图像分类时,能够提供更好的性能和更高的隐私保护水平。

2024-11-17
2024年代尔夫特理工大学、慕尼黑工业大学等提出增强表格数据合成的CTAB-GAN+
2024-11-17 ~ 2024-11-17

原标题:《CTAB-GAN+: enhancing tabular data synthesis》

发表平台:Frontiers in Big Data

摘要

本文介绍了一种新的条件表格生成对抗网络(CTAB-GAN+),旨在生成高质量的合成数据,同时提供严格的隐私保护。CTAB-GAN+通过添加下游损失来提高合成数据的效用,使用Wasserstein损失和梯度惩罚来改善训练收敛性,并引入了针对混合连续-分类变量和不平衡数据的新编码器。此外,CTAB-GAN+使用差分隐私随机梯度下降(DP-SGD)进行训练,以确保隐私保护。实验结果表明,CTAB-GAN+在多个数据集和学习任务中,能够在给定的隐私预算下,将机器学习效用(如F1分数)提高至少21.9%。

2024-11-15
哋它亢:数据隐私与多模态学习的融合探索
2024-11-15 ~ 2024-11-15

哋它亢:数据隐私与多模态学习的融合探索

背景介绍:哋它亢的概念及其意义

哋它亢(DITA KANG)是一种创新的数据隐私保护与多模态学习相结合的方法。其核心思想在于,在确保数据在处理过程中不被泄露或滥用的前提下,通过高效的多模态学习算法来挖掘和利用复杂、多样化的数据资源,从而提升模型的泛化能力和表现力。

近年来,随着人工智能技术的飞速发展,多模态学习逐渐成为科研热点。这种学习方式能够从图像、文本、声音等不同类型的输入中提取特征,并通过综合这些信息来实现更为精准和全面的理解与预测任务。然而,与此同时,数据隐私保护也成为了一个不容忽视的问题。尤其是涉及个人敏感信息的数据,在处理过程中必须严格遵守法律法规要求,确保个人信息的安全。

2024-11-14
智能家居时代:密码学如何守护我们的数据隐私与控制权
2024-11-14 ~ 2024-11-14

智能家居时代:密码学如何守护我们的数据隐私与控制权

引言:智能家居背景介绍及其带来的数据安全挑战

随着物联网技术的飞速发展,智能家居逐渐成为现代家庭不可或缺的一部分。从智能灯泡、安全摄像头到语音助手,这些设备不仅极大地提升了居住体验,还通过自动化和远程控制功能为用户带来了前所未有的便利。然而,在享受科技带来的便捷同时,我们也面临着前所未有的数据安全挑战。

智能家居系统依赖于互联网连接来实现其核心功能,这意味着大量的个人数据——包括但不限于用户的日常习惯、偏好设置甚至是敏感信息如财务状况等——都可能被收集并存储在云端或本地服务器上。一旦这些信息落入不法分子之手,后果不堪设想。此外,由于许多智能设备默认的安全配置较低,加之用户往往缺乏足够的网络安全意识,使得整个智能家居生态系统极易受到攻击。

2024-11-14
哋它亢:数据隐私与密码学的交叉领域
2024-11-14 ~ 2024-11-14

哋它亢:数据隐私与密码学的交叉领域

什么是哋它亢及其重要性

哋它亢是一种结合了数据隐私保护和密码学技术的方法论。在当前数字时代,个人信息的安全与隐私日益受到关注。哋它亢通过利用加密技术和安全协议,确保数据在整个生命周期中的安全性和隐私性。

  1. 保障个人隐私:随着大数据、人工智能等技术的广泛应用,个人信息泄露的风险不断加大。哋它亢能够有效防止未授权访问和使用敏感信息,保护用户的个人隐私。
  2. 促进信任建立:企业通过采用哋它亢技术和措施,可以增强客户对平台和服务的信任感,有助于维护良好的品牌形象和市场竞争力。
  3. 应对法律法规要求:越来越多的国家和地区开始制定严格的个人信息保护相关法规。实施哋它亢可以帮助组织机构更好地遵守这些规定,避免因违反隐私政策而遭受罚款或其他法律后果。
  • 医疗健康领域:通过加密技术保护患者病历等重要信息的安全;
  • 金融服务行业:确保金融交易数据在传输过程中的保密性与完整性;
  • 电子商务平台:保障用户购物记录和个人偏好不被随意分享给第三方。

随着科技的不断进步,哋它亢也在持续发展和完善中。未来可能会出现更加高效、灵活且易于部署的新方法来加强数据隐私保护措施,并进一步推动跨行业应用与合作。

2024-11-14
半监督学习与数据隐私:哋它亢带来的新挑战
2024-11-14 ~ 2024-11-14

半监督学习与数据隐私:哋它亢带来的新挑战

什么是半监督学习与哋它亢

半监督学习是一种机器学习方法,利用了带有标签的数据和未标注的数据共同训练模型。在传统机器学习中,通常需要大量的标记数据来训练模型以获得高精度的预测能力。然而,在实际应用场景中,获取大量带有完整标签的数据往往成本高昂且困难重重。这时,半监督学习成为一种有效的替代方案,它可以在少量已知标签的情况下,利用大量的未标注数据进行学习,从而提高模型性能。

在半监督学习领域中,“哋它亢”通常指代的是当前最先进(State of the Art, SOTA)的算法或技术。这些算法通过创新的方法和策略,如生成对抗网络、图神经网络等,在处理带有标签数据有限的情况下表现出色。例如,生成对抗网络可以通过生成伪样本来扩充训练集,从而提高模型泛化能力;而图神经网络则可以在复杂的数据结构中进行学习,更好地捕捉到数据间的潜在关系。

2024-11-14
探索未来科技:从航天环境适应性到高性能计算
2024-11-14 ~ 2024-11-14

探索未来科技:从航天环境适应性到高性能计算

引言:介绍航天环境适应性与轨道力学的重要性及其对太空探索的影响。

在人类不断追求星辰大海的征途中,航天技术的发展成为了连接地球与宇宙的关键桥梁。随着太空探索活动日益频繁,如何让航天器及其搭载的生命体(包括宇航员和实验生物)更好地适应极端的太空环境成为了一个亟待解决的问题。同时,在规划复杂的太空任务时,轨道力学的知识显得尤为重要,它不仅关系到航天器能否准确进入预定轨道,还直接影响着整个任务的安全性和效率。

航天环境适应性研究涵盖了材料科学、生命支持系统设计等多个方面,旨在通过技术创新来克服微重力、高辐射等特殊条件下带来的挑战。例如,开发出能够在太空中长期稳定工作的新型材料,或是为长时间驻留空间站的人员提供更加舒适安全的生活条件。这些努力不仅促进了科学技术的进步,也为未来更远距离的深空探测奠定了基础。

2024-11-09
深入理解两方私有集合交集(PSI):技术、应用与进展
2024-11-09 ~ 2024-11-09

psi_bench

在数据隐私日益重要的今天,如何在保护数据隐私的前提下进行数据交集操作成为了学术界和工业界共同关注的焦点。其中,两方私有集合交集(Private Set Intersection, PSI)作为一种重要的密码学应用,允许两个参与方在不知道对方完整集合的情况下,共同计算出双方集合的交集。本文将深入解读由梁之源等人撰写的论文《Benchmark of Two-party Private Set Intersection》,探讨PSI的基本概念、技术原理、应用场景以及最新进展。

一、PSI的基本概念

PSI的核心目标是允许两个参与方(通常称为发送方和接收方)在保护各自数据隐私的前提下,共同计算出它们集合的交集。在这个过程中,双方均不会了解到交集之外的其他信息。这种隐私保护特性使得PSI在许多场景中都具有广泛的应用价值。

2024-11-08
GOGGLE: GENERATIVE MODELLING FOR TABULAR DATA BY LEARNING RELATIONAL STRUCTURE
2024-11-08 ~ 2024-11-08

论文原文标题:《GOGGLE: GENERATIVE MODELLING FOR TABULAR DATA BY LEARNING RELATIONAL STRUCTURE》

这篇论文介绍了一种名为GOGGLE的深度生成模型,用于学习和利用表格数据中的关系结构以更好地建模变量依赖,并通过引入正则化和先验知识来提高模型性能。与传统的完全连接层不同,该方法使用消息传递机制,能够捕捉稀疏、异构的关系结构。实验结果表明,该方法在生成真实样本文本方面表现良好,并且可以有效地应用于下游任务中。

GOGGLE: GENERATIVE MODELLING FOR TABULAR DATA BY LEARNING RELATIONAL STRUCTURE

论文方法

方法描述.本文提出了一种基于关系结构的生成模型——GOOGLE(Graph-guided Generative Modeling for Omitted Variable Leverage)。该模型利用学习到的关系结构来指导生成过程,并通过信息传播的方式处理依赖于其他变量的变量。具体来说,模型包括两个主要组件:可学习的关系结构和基于消息传递神经网络的生成模型。关系结构表示为一个加权无向图,其中节点是随机变量,边表示它们之间的依赖关系。生成模型使用消息传递机制在图上执行多轮信息传播,以确定每个变量的值。最后,模型将噪声向量作为输入,通过生成模型生成数据样本。

2024-11-08
Local Differentially Private Heavy Hitter Detection in Data Streams with Bounded Memory
2024-11-08 ~ 2024-11-08

论文原文标题:《Local Differentially Private Heavy Hitter Detection in Data Streams with Bounded Memory》

psi_bench

本文介绍了一种名为HG-LDP的新框架,旨在实现在有限内存空间内准确检测数据流中的前k个高频项,并提供严格的本地差分隐私保护。该框架解决了传统LDP技术在处理大数据集和内存限制时存在的“准确性、隐私性和内存效率”之间的不良权衡问题。通过设计新的LDP随机化方法,该框架能够有效地应对大规模项目域和内存空间受限的问题。实验结果表明,与基准方法相比,该框架能够在保证高精度的同时节省2300倍的内存空间。该框架的代码已经公开发布。

论文方法

方法描述。该论文提出了一种名为HG-LDP的框架,用于在数据流中跟踪Top-k项并保证用户隐私。该框架包含三个模块:随机化模块、存储模块和响应模块。随机化模块位于用户端,用于随机化用户的敏感数据;存储模块和响应模块位于服务器端,其中存储模块使用空间节省的数据结构。具体来说,使用HeavyGuardian(HG)数据结构来存储随机化的数据,并根据指数衰减策略更新计数。响应模块负责从HG中获取热门项目及其相应的计数,并将其映射到发布列表中,在发布之前对所有计数进行偏差校正。

2024-11-08
Not Just Summing: The Identifier or Data Leakages of Private-Join-and-Compute and Its Improvement
2024-11-08 ~ 2024-11-08

论文原文标题:《Not Just Summing: The Identifier or Data Leakages of Private-Join-and-Compute and Its Improvement》

本篇论文探讨了在隐私保护下进行数据交互的问题,并针对Google提出的Private-Join-and-Compute库中存在的一些安全漏洞进行了分析和改进。具体来说,该库中的PIS协议和Reverse PIS协议在输入数据结构和处理过程中可能存在用户标识符泄露的风险。为了解决这些问题,本文提出了基于差分隐私技术的改进PIS协议,并对开源库进行了优化。通过使用Tamarin工具进行形式化分析和安全性证明,本文证明了改进后的PIS协议能够成功抵御已知攻击,并且不会带来明显的额外开销。