A gradient boosting machine for rawlsian subgroup fairness
Jansen Silva de Brito Pereira
DISSERTAÇÃO
Inglês
T/UNICAMP P414m
[Uma máquina de gradient boosting para equidade rawlsiana de subgrupos]
Campinas, SP : [s.n.], 2025.
1 recurso online (79 p.) : il., digital, arquivo PDF.
Orientador: Marcos Medeiros Raimundo
Dissertação (mestrado) - Universidade Estadual de Campinas (UNICAMP), Instituto de Computação
Resumo: Nos últimos anos, a justiça em aprendizado de máquina emergiu como uma preocupação crítica para garantir que modelos preditivos não prejudiquem desproporcionalmente grupos marginalizados, especialmente quando a interseccionalidade de atributos sensíveis como raça e gênero intensificam...
Ver mais
Resumo: Nos últimos anos, a justiça em aprendizado de máquina emergiu como uma preocupação crítica para garantir que modelos preditivos não prejudiquem desproporcionalmente grupos marginalizados, especialmente quando a interseccionalidade de atributos sensíveis como raça e gênero intensificam disparidades. Neste trabalho, introduzimos um framework baseado em gradient boosting para a equidade Rawlsiana de subgrupos, que prioriza resultados equitativos para os subgrupos menos favorecidos. Inspirado pela teoria da justiça de Rawls, nosso método minimiza a perda de pior caso entre subgrupos por meio de um processo de otimização primal-dual. Em cada rodada de boosting, o algoritmo equilibra perdas de regressão/classificação tradicionais com uma penalidade de fairness derivada do subgrupo com maior erro. Demonstramos a flexibilidade deste framework adaptando-o a restrições de fairness em três critérios diferentes: perda equalizada, diferença de oportunidade igual (paridade da taxa de verdadeiros positivos) e diferença de paridade estatística (paridade da taxa de previsão); além disso, nosso framework pode ser adaptado para tarefas de regressão, classificação binária e multiclasse. A validação do nosso framework em diferentes configurações e conjuntos de dados, incluindo German Credit, COMPAS, ENEM (Exame Nacional do Ensino Médio) e ACSIncome, mostrou empiricamente que nossa abordagem reduz disparidades de subgrupo enquanto mantém um desempenho preditivo robusto. O algoritmo proposto, Min-Max Fair Gradient Boosting (M²FGB), equipara-se a métodos competitivos de classificação justa (FairGBM, MMPF e MinMaxFair) nos níveis de subgrupo. Além disso, nosso trabalho também fornece uma análise teórica rigorosa do nosso algoritmo proposto. Demonstramos a convergência do nosso algoritmo, juntamente com uma análise da relação entre as escolhas de taxas de aprendizado e funções de perda com a taxa de convergência. Também demonstramos propriedades de justiça desejáveis (Sem dano desnecessário e Monotonicidade de justiça) que nossa formulação min-max permite. Na análise teórica final, fornecemos limites de alta probabilidade para o erro de generalização para M²FGB. Nosso trabalho mostrou empiricamente e teoricamente que o algoritmo M²FGB é uma abordagem poderosa e flexível para abordar a justiça binária e de subgrupo
Ver menos
Abstract: In recent years, fairness in machine learning has emerged as a critical concern to ensure predictive models do not disproportionately harm marginalized groups, particularly when intersecting sensitive attributes like race and gender compound disparities. In this work, we introduce a...
Ver mais
Abstract: In recent years, fairness in machine learning has emerged as a critical concern to ensure predictive models do not disproportionately harm marginalized groups, particularly when intersecting sensitive attributes like race and gender compound disparities. In this work, we introduce a gradient-boosting framework for Rawlsian subgroup fairness, which prioritizes equitable outcomes for the least advantaged subgroups. Inspired by Rawls' theory of justice, our method minimizes the worst-case loss across subgroups through a primal-dual optimization process. At each boosting round, the algorithm balances traditional regression/classification losses with a fairness penalty derived from the most underserved subgroup. We demonstrate the flexibility of this framework by adapting it to fairness constraints on three different fairness criteria: equalized loss, equal opportunity difference (true positive rate parity), and statistical parity difference (prediction rate parity); in addition, our framework can be adapted to regression, binary, and multiclass classification tasks. The validation of our framework on different configurations and datasets, including the German Credit, COMPAS, ENEM (National High School Exam), and ACSIncome, empirically showed that our approach reduces subgroup disparity while maintaining robust predictive performance. The proposed Min-Max Fair Gradient Boosting (M²FGB) algorithm ties with competitive fair classification methods (FairGBM, MMPF, and MinMaxFair) at the subgroup levels. Additionally, our work also provides a rigorous theoretical analysis of our proposed algorithm. We demonstrate the convergence of our algorithm, along with an analysis of the relationship between the choices of learning rates and loss functions with the convergence rate. We also demonstrate desirable fairness properties (No unnecessary harm and Fairness monotonicity) that our min-max formulation allows. In the final theoretical analysis, we provide high-probability bounds on generalization error for M²FGB. Finally, our work showed empirically and theoretically that the M²FGB algorithm is a powerful and flexible approach to addressing binary and subgroup fairness
Ver menos
Requisitos do sistema: Software para leitura de arquivo em PDF
Aberto
A gradient boosting machine for rawlsian subgroup fairness
Jansen Silva de Brito Pereira
A gradient boosting machine for rawlsian subgroup fairness
Jansen Silva de Brito Pereira