FedXgbNnAvg#

class FedXgbNnAvg(*args: Any, **kwargs: Any)[源代码]#

基类:FedAvg

可配置的 FedXgbNAvg 策略实施。

警告

This strategy is deprecated, but a copy of it is available in Flower Baselines: https://github.com/adap/flower/tree/main/baselines/hfedxgboost.

Methods

aggregate_evaluate(server_round, results, ...)

采用加权平均法计算评估损失总额。

aggregate_fit(server_round, results, failures)

使用加权平均法汇总拟合结果。

configure_evaluate(server_round, parameters, ...)

配置下一轮评估。

configure_fit(server_round, parameters, ...)

配置下一轮训练。

evaluate(server_round, parameters)

使用评估函数评估模型参数。

initialize_parameters(client_manager)

初始化全局模型参数。

num_evaluation_clients(num_available_clients)

使用部分可用客户进行评估。

num_fit_clients(num_available_clients)

返回样本大小和所需的可用客户数量。

aggregate_evaluate(server_round: int, results: List[Tuple[ClientProxy, EvaluateRes]], failures: List[Tuple[ClientProxy, EvaluateRes] | BaseException]) Tuple[float | None, Dict[str, bool | bytes | float | int | str]]#

采用加权平均法计算评估损失总额。

aggregate_fit(server_round: int, results: List[Tuple[ClientProxy, FitRes]], failures: List[Tuple[ClientProxy, FitRes] | BaseException]) Tuple[Any | None, Dict[str, bool | bytes | float | int | str]][源代码]#

使用加权平均法汇总拟合结果。

configure_evaluate(server_round: int, parameters: Parameters, client_manager: ClientManager) List[Tuple[ClientProxy, EvaluateIns]]#

配置下一轮评估。

configure_fit(server_round: int, parameters: Parameters, client_manager: ClientManager) List[Tuple[ClientProxy, FitIns]]#

配置下一轮训练。

evaluate(server_round: int, parameters: Any) Tuple[float, Dict[str, bool | bytes | float | int | str]] | None[源代码]#

使用评估函数评估模型参数。

initialize_parameters(client_manager: ClientManager) Parameters | None#

初始化全局模型参数。

num_evaluation_clients(num_available_clients: int) Tuple[int, int]#

使用部分可用客户进行评估。

num_fit_clients(num_available_clients: int) Tuple[int, int]#

返回样本大小和所需的可用客户数量。