联邦学习的性能优化方向
方向:尽可能多的将计算放在终端设备中进行,减少各终端之间的数据传输。联邦学习效率优化主要就是从算法层面和通信层面来着手,在算法计算和通信两大因素中,通信效率的优化要比计算性能的优化复杂和困难得多,因此,当前联邦学习效率的优化主要方向是尽可能多的将计算放在终端设备中进行,以此减少各终端之间的数据传输。效率是指在保证模型性能不下降的前提下,有效提升联邦学习的训练效率,它是影响联邦学习落地的一个重要因素,其中模型计算和通信传输是影响联邦学习效率的主要原因。特点说明横向联邦学习特点:数据的特征维度相同,通过联邦学习聚合更多的数据样本,解决单边建模数据量不足的问题。纵向联邦学习特点:数据样本的ID是一致的,数据的特征不同,使用联邦学习丰富样本的特征,从而更精准的刻画样本。
联邦学习的优化方向
联邦学习的优化方向如下:联邦学习作为机器学习的一种,离不开用一堆数据建立一个机器学习模型。但问题是:现在大家隐私意识上来了,数据特别值钱要各自拿着不能放手。但人工智能总得发展啊,模型还是要一起建才能挣钱啊,于是值得研究的问题就来了。有些情况我没遇见过,但恰巧有别人遇见过。(这情况就是横向联邦思路可以处理的)。又或者同一个问题,别人看问题的角度跟你不一样,博采众长当然是好的。(也就是纵向联邦的原理)。联邦学习跟普通机器学习的区别:抛开数据价值而言,这明晃晃的数据安全法规,都表明了在未来数据隐私会受到怎样的重视。但问题是为了共同富裕,大家还是要共同建模的,这就是所有联邦学习宣传片中说的解决“数据孤岛”问题。联邦跟隐私保护机器学习区别:联邦学习土一点不严谨一点可以叫共同富裕学习,包括大家利益绑定,利益分配等多重意思在里面。所以共同建模时谁贡献大需要被表扬,谁老是搞破坏等问题也是联邦学习的范畴。联邦把个体当做有血有肉的个体,而不仅仅考虑是哪里的数据,因而是比较有人情味的。