现有工作的局限性

Reliable resource for comparing and exploring mobile phones.
Post Reply
rochona
Posts: 13
Joined: Thu May 22, 2025 5:43 am

现有工作的局限性

Post by rochona »

虽然上述方法很有前景,但也面临挑战和缺点:

* 不存储用户数据的方法存在“在线 UDA 问题”:为了实现保护在线隐私的目标,目标域数据需要在模型看到后立即丢弃,但这意味着如果模型以后想要使用它,它将不可用——这与离线 UDA 相反,在离线 UDA 中,模型可以存储用户数据并在以后访问它们。
* FL 仅在少数节点上存储数据的方法存在“数据泄露”问题:最近的研究表明,由于分布式模型中部署的梯度共享机制,私人训练数据可能会被泄露或利用。

当然,泄露数据从来都不是一件好事——这就是为什么我们认为不存储任何敏感数据是保护隐私的最佳方法(使用后删除用户数据),这需要一个在线框架。

然而,如果不解决从源域到目标域的分布转移,现有的在线学习框架就无法满足这一需求。这项任务似乎是 UDA 的扩展设置,不能简单地通过离线 UDA 方法的在线实现来解决。首先,现有的离线 UDA 方法严重依赖跨域小批量的丰富组合,这些组合会逐步调整模型以进行自适应,而这是在线流设置无法提供的。特别是,许多现有方法需要区分大量的源-目标对才能实现自适应。最近,最先进的离线方法通过利用面 手机号数据库列表 向目标的聚类显示出有希望的结果,但这需要离线访问整个目标域。

结果是,鉴于目标域数据的稀缺性,在线 UDA 任务需要新的解决方案才能成功。

我们的解决方案

我们相信我们已经找到了一种新的创新方法。在这项工作中:

* 我们认为,不存储任何敏感数据是保护隐私和确保整体安全的最佳实践。
* 我们提出了一个“阅后即焚”的在线框架——也就是说,用户数据在机器学习过程中使用后会立即删除。
* 更具体地说,我们使用带标签的公共数据(“源域”)训练深度神经网络,并对其进行调整,使其在未带标签的私有数据(“目标域”)上表现良好——但我们只会在训练和测试所需的时间内保留数据。之后,数据将被删除。
Post Reply