fbpx
Wikipedia

Equidad (aprendizaje automático)

En aprendizaje automático, un algoritmo es justo, o tiene equidad si sus resultados son independientes de un cierto conjunto de variables que consideramos sensibles y no relacionadas con él (p.e.: género, etnia, orientación sexual, etc.).

Contexto

Las investigaciones sobre equidad en algoritmos de aprendizaje automático son bastante recientes. Sin ir más lejos la mayoría de los artículos publicados sobre este tema son de los últimos tres años.[1]​ Algunos de los hechos más destacados en este ámbito han sido los siguientes:

  • En 2018 IBM introduce AI Fairness 360, una librería de Python con diversos algoritmos para redurcir el sesgo algorítmico de un programa, aumentando así su equidad. [2]
  • Facebook afirmó en 2018 que hace uso de una herramienta, Fairness Flow, que detecta sesgos en su IA. Sin embargo, no se puede acceder al código de dicha herramienta ni se sabe si realmente corrige estos sesgos. [3]
  • En 2019, Google publica un conjunto de herramientas en Github para estudiar los efectos de la equidad a largo plazo. [4]

A pesar de que se siguen perfeccionando los algoritmos utilizados, los principales avances vienen de la concienciación por parte de algunas grandes empresas de la importancia que va a tener en la sociedad la reducción del sesgo en los algoritmos de aprendizaje automático en un futuro.

Criterios de equidad en problemas de clasificación[5]

En problemas de clasificación, un algoritmo aprende una función para predecir una característica discreta  , la variable objetivo, a partir de unas características conocidas  . Modelizamos   como una variable aleatoria que codifica algunas características contenidas o implícitamente codificadas en   que consideramos características protegidas (género, etnia, orientación sexual, etc.). Por último, denotamos por   la predicción del clasificador. Ahora pasamos a definir tres criterios principales para evaluar si un clasificador es justo, es decir, si sus predicciones no están influenciadas por algunas de las variables protegidas.

Independencia

Decimos que las variables aleatorias   satisfacen la independencia si las características protegidas  son estadísticamente independientes a la predicción  , y escribimos  .

También podemos expresar esta noción con la siguiente fórmula:

 
Esto significa que la probabilidad de ser clasificado por el algoritmo en cada uno de los grupos es la misma para dos individuos con características protegidas distintas.

Se puede dar otra noción equivalente de independencia utilizando el concepto de información mutua entre variables aleatorias, definida como

 
En esta fórmula,   es la entropía de la variable estadística. Entonces   satisface independencia si  .

Una posible relajación de la definición de independencia pasa por la introducción de una variable positiva  , y viene dada por la fórmula:

 

Por último, otra posible relajación pasa por requerir  .

Separación

Decimos que las variables aleatorias   satisfacen la separación si las características protegidas   son estadísticamente independientes a la predicción   dado el valor objetivo   , y escribimos  .

También podemos expresar esta noción con la siguiente fórmula:

 
Esto significa que la probabilidad de ser clasificado por el algoritmo en cada uno de los grupos es la misma para dos individuos con características protegidas distintas dado que ambos pertenecen al mismo grupo (tienen la misma variable objetivo).

Otra expresión equivalente, en el caso de tener una variable objetivo binaria, es la que exige que la tasa de verdaderos positivos y la tasa de falsos positivos sean iguales (y por tanto la tasa de falsos negativos y la tasa de verdaderos negativos también lo sean) para cada valor de las características protegidas:

 
 

Por último, una posible relajación de las definiciones dadas es que la diferencia entre tasas sea un número positivo menor que una cierta variable  , en lugar de igual a cero.

Suficiencia

Decimos que las variables aleatorias   satisfacen la suficiencia si las características protegidas   son estadísticamente independientes al valor objetivo   dada la predicción  , y escribimos  .

También podemos expresar esta noción con la siguiente fórmula:

 
Esto significa que la probabilidad de estar en realidad en cada uno de los grupos es la misma para dos individuos con características protegidas distintas dado que la predicción los englobe en el mismo grupo.

Relaciones entre definiciones

Por último, resumimos algunos de los principales resultados que relacionan las tres definiciones dadas arriba:

Métricas [6]

La mayoría de medidas de equidad dependen de diferentes métricas, de modo que comenzaremos por definirlas. Cuando trabajamos con un clasificador binario, tanto la clase predicha por el algoritmo como la real pueden tomar dos valores: positivo y negativo. Empecemos ahora explicando las posibles relaciones entre el resultado predicho y el real:

 
Matriz de confusión
  • Verdadero positivo (TP): Cuando el resultado predicho y el real pertenecen a la clase positiva.
  • Verdadero negativo (TN): Cuando el resultado predicho y el real pertenecen a la clase negativa.
  • Falso positivo (FP): Cuando el resultado predicho es positivo pero el real pertenece a la clase negativa.
  • Falso negativo (FN): Cuando el resultado predicho es negativo pero el real pertenece a la clase positiva.

Estas relaciones pueden ser representadas fácilmente con una matriz de confusión, una tabla que describe la precisión de un modelo de clasificación. En esta matriz, las columnas y las filas representan instancias de las clases predichas y reales, respectivamente.

Utilizando estas relaciones, podemos definir múltiples métricas que podemos usar después para medir la equidad de un algoritmo:

  • Valor predicho positivo (PPV): la fracción de casos positivos que han sido predichos correctamente de entre todas las predicciones positivas. Con frecuencia, se denomina como precisión, y representa la probabilidad de que una predicción positiva sea correcta. Viene dada por la siguiente fórmula:
 
  • Tasa de descubrimiento de falsos (FDR): la fracción de predicciones positivas que eran en realidad negativas de entre todas las predicciones positivas. Representa la probabilidad de que una predicción positiva sea errónea, y viene dada por la siguiente fórmula:
 
  • Valor predicho negativo (NPV): la fracción de casos negativos que han sido predichos correctamente de entre todas las predicciones negativas. Representa la probabilidad de que una predicción negativa sea correcta, y viene dada por la siguiente fórmula:
 
  • Tasa de omisión de falsos (FOR): la fracción de predicciones negativas que eran en realidad positivas de entre todas las predicciones negativas. Representa la probabilidad de que una predicción negativa sea errónea, y viene dada por la siguiente fórmula:
 
  • Tasa de verdaderos positivos (TPR): la fracción de casos positivos que han sido predichos correctamente de entre todos los casos positivos. Con frecuencia, se denomina como exhaustividad, y representa la probabilidad de que los sujetos positivos sean clasificados correctamente como tales. Viene dada por la fórmula:
 
  • Tasa de falsos negativos (FNR): la fracción de casos positivos que han sido predichos de forma errónea como negativos de entre todos los casos positivos. Representa la probabilidad de que los sujetos positivos sean clasificados erróneamente como negativos, y viene dada por la fórmula:
 
  • Tasa de verdaderos negativos (TNR): la fracción de casos negativos que han sido predichos correctamente de entre todos los casos negativos. Representa la probabilidad de que los sujetos negativos sean clasificados correctamente como tales, y viene dada por la fórmula:
 
  • Tasa de falsos positivos (FPR): la fracción de casos negativos que han sido predichos de forma errónea como positivos de entre todos los casos negativos. Representa la probabilidad de que los sujetos negativos sean clasificados erróneamente como positivos, y viene dada por la fórmula:
 

Otros criterios de equidad

 
Relación entre los criterios de equidad como se muestra en Barocas y otros.[5]

Los criterios siguientes se pueden entender como métricas de las tres definiciones dadas en la primera sección, o una relajación de las mismas. En la tabla [5]​ de la derecha podemos ver cómo se relacionan.

Para definir estas métricas específicamente, se dividen en tres grandes grupos como en el trabajo de Verma y otros.[6]​: definiciones basadas en el resultado predicho, en el resultado predicho y el real, y definiciones basadas en las probabilidades predichas y el resultado real.

En la siguiente sección se trabaja con un clasificador binario y la siguiente notación:   se refiere a la puntuación dada por el clasificador, la cual es la probabilidad que cierto sujeto se encuentre en la clase positiva o negativa.  representa la clasificación final predicha por el algoritmo, y su valor es comúnmente derivado de   , por ejemplo será positivo cuando   esté por encima de cierto valor.  representa el resultado real, es decir, la clasificación real del sujeto y, finalmente,   denota las variables protegidas del sujeto.

Definiciones basadas en el resultado predicho

Las definiciones en estas secciones se centran en el resultado predicho   para varias distribuciones de sujetos. Son las nociones más simples e intuitivas de equidad.

  • Group fairness, también llamado statistical parity, demographic parity, acceptance rate y benchmarking. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen la misma probabilidad de ser asignados a la clase positiva. Es decir, si se satisface la siguiente fórmula:
 
  • Conditional statistical parity. Consiste básicamente en la definición anterior, pero restringida solo a un subconjunto de los atributos. En notación matemática:
 

Definiciones basadas en el resultado predicho y el real

Estas definiciones no sólo consideran el resultado predicho   pero también lo comparan con el resultado real  .

  • Predictive parity, también llamado outcome test. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo PPV. Es decir, si se satisface la siguiente fórmula:
 
Matemáticamente, si un clasificador tiene el mismo PPV para ambos grupos, también tiene el mismo FDR, satisfaciendo la fórmula:
 
  • False positive error rate balance, también llamado predictive equality. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo FPR. Es decir, si se satisface la siguiente fórmula:
 
Matemáticamente, si un clasificador tiene el mismo FPR para ambos grupos, también tiene el mismo TNR, satisfaciendo la fórmula:
 
  • False negative error rate balance, también llamado equal opportunity. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo FNR. Es decir, si se satisface la siguiente fórmula:
 
Matemáticamente, si un clasificador tiene el mismo FNR para ambos grupos, también tiene el mismo TPR, satisfaciendo la fórmula:
 
  • Equalized odds, también llamado conditional procedure accuracy equality and disparate mistreatment. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo TPR y el mismo FPR, satisfaciendo la fórmula:
 
  • Conditional use accuracy equality. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo PPV y el mismo NPV, satisfaciendo la fórmula:
 
  • Overall accuracy equality. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen la misma precisión de predicción, es decir, la probabilidad de predecir correctamente a qué clase pertenece un sujeto. Es decir, si se satisface la siguiente fórmula:
 
  • Treatment equality. Un clasificador satisface esta definición si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo ratio de FN y FP, satisfaciendo la fórmula:
 

Definiciones basadas en las probabilidades predichas y el resultado real

Estas definiciones se basan en el resultado real   y en la probabilidad predicha (la puntuación)  .

  • Test-fairness, también conocido como calibration o matching conditional frequencies. Un clasificador satisface esta definición si individuos con la misma puntuación   tienen la misma probabilidad de ser clasificados en la clase positiva independientemente de si pertenecen a los grupos protegidos o no:
 
  • Well-calibration. Es una extensión de la definición anterior. Añade que, cuando individuos dentro o fuera de los grupos protegidos tienen la misma puntuación   deben tener la misma probabilidad de ser clasificados en la clase positiva, y esta probabilidad debe ser igual a   :
 
  • Balance for positive class. Un clasificador satisface esta definición si los individuos que constituyen la clase positiva pertenecientes tanto los grupos protegidos como de los no protegidos tienen la misma media de puntuación  . Esto quiere decir que la esperanza de la puntuación para los grupos protegidos y los no protegidos con clase real positiva   es la misma, satisfaciendo la fórmula:
 
  • Balance for negative class. Un clasificador satisface esta definición si los individuos que constituyen la clase negativa pertenecientes tanto los grupos protegidos como de los no protegidos tienen la misma media de puntuación  . Esto quiere decir que la esperanza de la puntuación para los grupos protegidos y los no protegidos con clase real negativa   es la misma, satisfaciendo la fórmula:
 

Algoritmos

Se puede aplicar la equidad al aprendizaje automático desde tres perspectivas: pre-procesando los datos utilizados en el algoritmo, optimizando los objetivos durante el entrenamiento o procesando las respuestas tras la ejecución del algoritmo.

Preprocesamiento

Normalmente, el clasificador no es el único problema, el conjunto de datos también está sesgado. La discriminación de un conjunto de datos   con respecto al grupo   se puede definir como sigue:

 

Esto es, una aproximación de la diferencia entre las probabilidades de pertenecer a la clase positiva dado que el sujeto tiene una característica protegida distinta de a   e igual a  .

Los algoritmos que corrigen el sesgo mediante preprocesamiento intentan eliminar información sobre ciertos atributos de los datos que pueden provocar un comportamiento injusto de la IA, al mismo tiempo que tratan de alterar estos datos lo menos posible. Eliminar del conjunto de datos una variable protegida no es suficiente, ya que otras variables pueden estar correlacionadas con ella.

Una posible forma de hacerlo consiste en asociar cada individuo del conjunto de datos a una representación intermedia en la que sea imposible determinar si pertenece o no a un grupo protegido, a la vez que se mantiene el resto de la información tanto como sea posible. Después, se ajusta la nueva representación del conjunto de datos para buscando el máximo acierto del algoritmo.

De este modo, los individuos se vinculan a una nueva representación en la que la probabilidad de que un miembro de un grupo protegido sea asociado a cierto valor de la nueva representación es la misma que la de un individuo no protegido. Así, es la nueva representación la que se utiliza para obtener la predicción para el individuo en vez de los datos originales. Como la representación intermedia se ha construido dando la misma probabilidad a cada individuo independientemente de si pertenecen al grupo protegido o no, esto queda oculto para el clasificador.

Se puede encontrar un ejemplo en Zemel y otros [7]​ en el que se utiliza una variable aleatoria multinomial como representación intermedia. En el proceso, se preserva toda la información excepto la que pueda conducir a decisiones sesgadas a la vez que se busca una predicción lo más correcta que sea posible.

Por un lado, este procedimiento tiene la ventaja de que los datos preprocesados se pueden utilizar para cualquier tarea de aprendizaje automático. Además, no hay que modificar el código del clasificador, ya que la corrección se aplica a los datos que se van a introducir en él. Por otro lado, los otros métodos obtienen mejores resultados tanto en acierto como en equidad. [8]

Reweighing [9]

La técnica del reweighing, en español reasignación de pesos, es un ejemplo de algoritmo de preprocesamiento. La idea consiste en asignar un peso a cada punto del conjunto de datos de tal manera que la discriminación ponderada es 0 respecto al grupo de interés.

Si el conjunto de datos   fuera no sesgado, la variable protegida   y la variable objetivo   serían estadísticamente independientes y la probabilidad de la distribución conjunta sería el producto de las probabilidades de la siguiente manera:

 

Sin embargo, en la vida real el conjunto de datos suele estar sesgado y las variables no son estadísticamente independientes por lo que la probabilidad observada es:

 

Para compensar el sesgo, se asignan mayores pesos a los puntos no favorecidos y menores a los favorecidos. Para cada   obtenemos:

 

Una vez tenemos asignado a cada   un peso asociado   calculamos la discriminación ponderada con respecto al grupo   de la siguiente manera:

 


Se puede demostrar que después de la asignación de los pesos la discriminación ponderada es 0.

Optimización durante el entrenamiento

Otra aproximación al problema es corregir el sesgo durante el entrenamiento. Esto puede hacerse añadiendo restricciones al objetivo del algoritmo.[10]​ Estas restricciones obligan al algoritmo a tener en cuenta la equidad, de forma que el máximo éxito no sea su único objetivo, sino también mantener ciertas métricas iguales tanto para el grupo protegido como para el resto de individuos. Por ejemplo, se puede añadir al algoritmo la condición de que la tasa de falsos positivos sea la misma para individuos del grupo protegido y para los que no lo son.

Las principales métricas que se utilizan en esta técnica son la tasa de falsos positivos, la tasa de falsos negativos y la tasa general de fallo. Es posible añadir sólo una o varias de estas restricciones al objetivo. Nótese que la igualdad de las tasas de falsos negativos implica la igualdad también de las tasas de verdaderos positivos, lo que significa igualdad de oportunidad. Tras añadir las restricciones al algoritmo, el problema puede volverse infactible y por tanto puede ser necesario relajarlas.

Esta técnica obtiene buenos resultados al mejorar la equidad, al mismo tiempo que mantiene una exactitud alta, y permite al programador elegir las métricas que mejor se ajusten a sus necesidades. Sin embargo, la técnica y las métricas utilizadas varían en función del problema y es necesario modificar el código del algoritmo, lo que no siempre es posible.[8]

Adversarial debiasing [11][12]

Se entrenan dos clasificadores al mismo tiempo con algún método basado en el gradiente (p.e.: descenso de gradiente). El primero (el predictor) intenta resolver el problema de predecir la variable objetivo   dada la entrada  , modificando sus pesos   para minimizar una función de pérdida  . El segundo (el adversario) intenta resolver el problema de predecir la variable sensible  , dado   modificando sus pesos   para minimizar otra función de pérdida  .

Una puntualización importante es que, para que se propague correctamente, la variable   de arriba debe referirse a la salida en bruto del clasificador y no a la salida discreta; por ejemplo, con una red neuronal artificial y un problema de clasificación  , se podría referir a la salida de la capa softmax.

A continuación, actualizamos   para minimizar   en cada paso del entrenamiento según el gradiente   y modificamos   conforme a la expresión:

 
donde   es un hiperparámetro a elegir que puede variar en cada paso.
 
Representación gráfica de los vectores usados en adversarial debiasing como se muestra en Zhan y otros.[11]

La idea intuitiva consiste en que el predictor intente minimizar   ((y de ahí el término  ) mientras, al mismo tiempo, maximice   (y de ahí el término  ), de tal manera que el adversario fracase al predecir la variable sensible a partir de  .

El término   evita que el predictor cambie de una forma que pueda ayudar al advesario disminuir su función de pérdida.

Se puede demostrar que entrenar un modelo de clasificación predictor con este algoritmo mejora la paridad demográfica con respecto a entrenarlo sin el adversario.

Post-procesamiento

La última técnica trata de corregir las respuestas del clasificador para alcanzar la equidad. En este método, necesitamos hacer una predicción binaria para los individuos y tenemos un clasificador que devuelve una puntuación asociada a cada uno de ellos. Los individuos con puntuaciones altas tenderán a obtener una respuesta positiva, mientras que aquellos con una puntuación baja tendrán una respuesta negativa, pero necesitamos determinar el umbral a partir del cual se responde positiva o negativamente. Nótese que variar el umbral afecta al compromiso entre la tasa de verdaderos positivos y la tasa de verdaderos negativos, y en función del problema nos puede interesar mejorar una a costa de la otra.

Si la función de puntuación es justa, en el sentido de que es independiente del atributo protegido, entonces cualquier elección del valor umbral será también justa, pero este tipo de clasificadores tienden a sesgarse con facilidad, por lo que puede que necesitemos especificar un umbral distinto para cada grupo protegido. Una forma de hacerlo es estudiar las gráficas de la tasa de verdaderos positivos frente a la de verdaderos negativos para distintos valores del umbral (a esto se le conoce como curva ROC) y comprobar para qué valor del umbral las tasas son iguales para el grupo protegido y para el resto de individuos.[13]

Entre las ventajas del post-procesamiento están que la técnica se puede aplicar después de usar cualquier clasificador, sin necesidad de modificarlo, y obtiene buenos resultados mejorando métricas de equidad. Entre los inconvenientes, es necesario consultar el valor del atributo protegido durante el post-procesamiento y se restringe la libertad del programador para regular el compromiso entre equidad y exactitud.[8]

Reject Option based Classification [14]

Dado un clasificador, sea   la probabilidad calculada por este de que el sujeto   pertenezca a la clase positiva. Cuando   sea cercano a 1 o 0, el sujeto   será clasificado, con un alto grado de seguridad, como perteneciente a la clase positiva o negativa respectivamente. Sin embargo, cuando   está más próximo a 0.5 la clasificación no está clara.

Decimos que   es un sujeto rechazado si   con cierto   tal que  .

El algoritmo consiste en clasificar los sujetos no rechazados siguiendo la regla explicada al principio y los rechazados de la siguiente manera: si la instancia es un ejemplo de grupo desprivilegiado ( ) entonces clasificarla como positivo, en el otro caso, clasificarla como negativo.

Podemos optimizar diferentes medidas de discriminación como funciones de   para encontrar el   óptimo para cada problema y evitar volvernos discriminatorios contra el grupo privilegiado.

Véase también

Referencias

  1. Moritz Hardt, Berkeley. Consultado el 18 de diciembre de 2019
  2. IBM AI Fairness 360. Consultado el 18 de diciembre de 2019
  3. Fairness Flow el detector de sesgos de Facebook. Consultado el 18 de diciembre de 2019
  4. ML-Fairness gym. Consultado el 18 de diciembre de 2019
  5. Solon Barocas; Moritz Hardt; Arvind Narayanan, Fairness and Machine Learning. Consultado el 15 de diciembre de 2019.
  6. Sahil Verma; Julia Rubin, Fairness Definitions Explained. Consultado el 15 de diciembre de 2019
  7. Richard Zemel; Yu (Ledell) Wu; Kevin Swersky; Toniann Pitassi; Cyntia Dwork, Learning Fair Representations. Consultado el 1 de Diciembre de 2019
  8. Ziyuan Zhong, Tutorial on Fairness in Machine Learning. Consultado el 1 de Diciembre de 2019
  9. Faisal Kamiran; Toon Calders, Data preprocessing techniques for classification without discrimination. Consultado el 17 de Diciembre de 2019
  10. Muhammad Bilal Zafar; Isabel Valera; Manuel Gómez Rodríguez; Krishna P. Gummadi, Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment. Consultado el 1 de Diciembre de 2019
  11. Brian Hu Zhang; Blake Lemoine; Margaret Mitchell, Mitigating Unwanted Biases with Adversarial Learning. Consultado el 17 de diciembre de 2019
  12. Joyce Xu, Algorithmic Solutions to Algorithmic Bias: A Technical Guide. Consultado el 17 de diciembre de 2019
  13. Moritz Hardt; Eric Price; Nathan Srebro, Equality of Opportunity in Supervised Learning. Consultado el 1 de diciembre de 2019
  14. Faisal Kamiran; Asim Karim; Xiangliang Zhang, Decision Theory for Discrimination-aware Classification. Consultado el 17 de Diciembre de 2019
  •   Datos: Q80100972

equidad, aprendizaje, automático, aprendizaje, automático, algoritmo, justo, tiene, equidad, resultados, independientes, cierto, conjunto, variables, consideramos, sensibles, relacionadas, género, etnia, orientación, sexual, Índice, contexto, criterios, equida. En aprendizaje automatico un algoritmo es justo o tiene equidad si sus resultados son independientes de un cierto conjunto de variables que consideramos sensibles y no relacionadas con el p e genero etnia orientacion sexual etc Indice 1 Contexto 2 Criterios de equidad en problemas de clasificacion 5 2 1 Independencia 2 2 Separacion 2 3 Suficiencia 2 4 Relaciones entre definiciones 3 Metricas 6 4 Otros criterios de equidad 4 1 Definiciones basadas en el resultado predicho 4 2 Definiciones basadas en el resultado predicho y el real 4 3 Definiciones basadas en las probabilidades predichas y el resultado real 5 Algoritmos 5 1 Preprocesamiento 5 1 1 Reweighing 9 5 2 Optimizacion durante el entrenamiento 5 2 1 Adversarial debiasing 11 12 5 3 Post procesamiento 5 3 1 Reject Option based Classification 14 6 Vease tambien 7 ReferenciasContexto EditarLas investigaciones sobre equidad en algoritmos de aprendizaje automatico son bastante recientes Sin ir mas lejos la mayoria de los articulos publicados sobre este tema son de los ultimos tres anos 1 Algunos de los hechos mas destacados en este ambito han sido los siguientes En 2018 IBM introduce AI Fairness 360 una libreria de Python con diversos algoritmos para redurcir el sesgo algoritmico de un programa aumentando asi su equidad 2 Facebook afirmo en 2018 que hace uso de una herramienta Fairness Flow que detecta sesgos en su IA Sin embargo no se puede acceder al codigo de dicha herramienta ni se sabe si realmente corrige estos sesgos 3 En 2019 Google publica un conjunto de herramientas en Github para estudiar los efectos de la equidad a largo plazo 4 A pesar de que se siguen perfeccionando los algoritmos utilizados los principales avances vienen de la concienciacion por parte de algunas grandes empresas de la importancia que va a tener en la sociedad la reduccion del sesgo en los algoritmos de aprendizaje automatico en un futuro Criterios de equidad en problemas de clasificacion 5 EditarEn problemas de clasificacion un algoritmo aprende una funcion para predecir una caracteristica discreta Y textstyle Y la variable objetivo a partir de unas caracteristicas conocidas X textstyle X Modelizamos A textstyle A como una variable aleatoria que codifica algunas caracteristicas contenidas o implicitamente codificadas en X textstyle X que consideramos caracteristicas protegidas genero etnia orientacion sexual etc Por ultimo denotamos por R textstyle R la prediccion del clasificador Ahora pasamos a definir tres criterios principales para evaluar si un clasificador es justo es decir si sus predicciones no estan influenciadas por algunas de las variables protegidas Independencia Editar Decimos que las variables aleatorias R A textstyle R A satisfacen la independencia si las caracteristicas protegidasA textstyle A son estadisticamente independientes a la prediccion R textstyle R y escribimos R A textstyle R bot A Tambien podemos expresar esta nocion con la siguiente formula P R r A a P R r A b r R a b A displaystyle P R r A a P R r A b quad forall r in R quad forall a b in A Esto significa que la probabilidad de ser clasificado por el algoritmo en cada uno de los grupos es la misma para dos individuos con caracteristicas protegidas distintas Se puede dar otra nocion equivalente de independencia utilizando el concepto de informacion mutua entre variables aleatorias definida comoI X Y H X H Y H X Y displaystyle I X Y H X H Y H X Y En esta formula H textstyle H es la entropia de la variable estadistica Entonces R A textstyle R A satisface independencia si I R A 0 textstyle I R A 0 Una posible relajacion de la definicion de independencia pasa por la introduccion de una variable positiva ϵ gt 0 textstyle epsilon gt 0 y viene dada por la formula P R r A a P R r A b ϵ r R a b A displaystyle P R r A a geq P R r A b epsilon quad forall r in R quad forall a b in A Por ultimo otra posible relajacion pasa por requerir I R A ϵ textstyle I R A leq epsilon Separacion Editar Decimos que las variables aleatorias R A Y textstyle R A Y satisfacen la separacion si las caracteristicas protegidas A textstyle A son estadisticamente independientes a la prediccion R textstyle R dado el valor objetivo Y textstyle Y y escribimos R A Y textstyle R bot A Y Tambien podemos expresar esta nocion con la siguiente formula P R r Y q A a P R r Y q A b r R q Y a b A displaystyle P R r Y q A a P R r Y q A b quad forall r in R quad q in Y quad forall a b in A Esto significa que la probabilidad de ser clasificado por el algoritmo en cada uno de los grupos es la misma para dos individuos con caracteristicas protegidas distintas dado que ambos pertenecen al mismo grupo tienen la misma variable objetivo Otra expresion equivalente en el caso de tener una variable objetivo binaria es la que exige que la tasa de verdaderos positivos y la tasa de falsos positivos sean iguales y por tanto la tasa de falsos negativos y la tasa de verdaderos negativos tambien lo sean para cada valor de las caracteristicas protegidas P R 1 Y 1 A a P R 1 Y 1 A b a b A displaystyle P R 1 Y 1 A a P R 1 Y 1 A b quad forall a b in A P R 1 Y 0 A a P R 1 Y 0 A b a b A displaystyle P R 1 Y 0 A a P R 1 Y 0 A b quad forall a b in A Por ultimo una posible relajacion de las definiciones dadas es que la diferencia entre tasas sea un numero positivo menor que una cierta variable ϵ gt 0 textstyle epsilon gt 0 en lugar de igual a cero Suficiencia Editar Decimos que las variables aleatorias R A Y textstyle R A Y satisfacen la suficiencia si las caracteristicas protegidas A textstyle A son estadisticamente independientes al valor objetivo Y textstyle Y dada la prediccion R textstyle R y escribimos Y A R textstyle Y bot A R Tambien podemos expresar esta nocion con la siguiente formula P Y q R r A a P Y q R r A b q Y r R a b A displaystyle P Y q R r A a P Y q R r A b quad forall q in Y quad r in R quad forall a b in A Esto significa que la probabilidad de estar en realidad en cada uno de los grupos es la misma para dos individuos con caracteristicas protegidas distintas dado que la prediccion los englobe en el mismo grupo Relaciones entre definiciones Editar Por ultimo resumimos algunos de los principales resultados que relacionan las tres definiciones dadas arriba Si A textstyle A y Y textstyle Y no son estadisticamente independientes entonces la suficiencia y la independencia no pueden darse a la vez Asumiendo que Y textstyle Y es binaria si A textstyle A y Y textstyle Y no son estadisticamente independientes y R textstyle R y Y textstyle Y tampoco son estadisticamente independientes entonces la independencia y la separacion no pueden darse a la vez Si R A Y textstyle R A Y como distribucion conjunta tiene probabilidad positiva para todos sus posibles valores y A textstyle A y Y textstyle Y no son estadisticamente independientes entonces la separacion y la suficiencia no pueden darse a la vez Metricas 6 EditarLa mayoria de medidas de equidad dependen de diferentes metricas de modo que comenzaremos por definirlas Cuando trabajamos con un clasificador binario tanto la clase predicha por el algoritmo como la real pueden tomar dos valores positivo y negativo Empecemos ahora explicando las posibles relaciones entre el resultado predicho y el real Matriz de confusion Verdadero positivo TP Cuando el resultado predicho y el real pertenecen a la clase positiva Verdadero negativo TN Cuando el resultado predicho y el real pertenecen a la clase negativa Falso positivo FP Cuando el resultado predicho es positivo pero el real pertenece a la clase negativa Falso negativo FN Cuando el resultado predicho es negativo pero el real pertenece a la clase positiva Estas relaciones pueden ser representadas facilmente con una matriz de confusion una tabla que describe la precision de un modelo de clasificacion En esta matriz las columnas y las filas representan instancias de las clases predichas y reales respectivamente Utilizando estas relaciones podemos definir multiples metricas que podemos usar despues para medir la equidad de un algoritmo Valor predicho positivo PPV la fraccion de casos positivos que han sido predichos correctamente de entre todas las predicciones positivas Con frecuencia se denomina como precision y representa la probabilidad de que una prediccion positiva sea correcta Viene dada por la siguiente formula P P V P a c t u a l p r e d i c t i o n T P T P F P displaystyle PPV P actual prediction frac TP TP FP Tasa de descubrimiento de falsos FDR la fraccion de predicciones positivas que eran en realidad negativas de entre todas las predicciones positivas Representa la probabilidad de que una prediccion positiva sea erronea y viene dada por la siguiente formula F D R P a c t u a l p r e d i c t i o n F P T P F P displaystyle FDR P actual prediction frac FP TP FP Valor predicho negativo NPV la fraccion de casos negativos que han sido predichos correctamente de entre todas las predicciones negativas Representa la probabilidad de que una prediccion negativa sea correcta y viene dada por la siguiente formula N P V P a c t u a l p r e d i c t i o n T N T N F N displaystyle NPV P actual prediction frac TN TN FN Tasa de omision de falsos FOR la fraccion de predicciones negativas que eran en realidad positivas de entre todas las predicciones negativas Representa la probabilidad de que una prediccion negativa sea erronea y viene dada por la siguiente formula F O R P a c t u a l p r e d i c t i o n F N T N F N displaystyle FOR P actual prediction frac FN TN FN Tasa de verdaderos positivos TPR la fraccion de casos positivos que han sido predichos correctamente de entre todos los casos positivos Con frecuencia se denomina como exhaustividad y representa la probabilidad de que los sujetos positivos sean clasificados correctamente como tales Viene dada por la formula T P R P p r e d i c t i o n a c t u a l T P T P F N displaystyle TPR P prediction actual frac TP TP FN Tasa de falsos negativos FNR la fraccion de casos positivos que han sido predichos de forma erronea como negativos de entre todos los casos positivos Representa la probabilidad de que los sujetos positivos sean clasificados erroneamente como negativos y viene dada por la formula F N R P p r e d i c t i o n a c t u a l F N T P F N displaystyle FNR P prediction actual frac FN TP FN Tasa de verdaderos negativos TNR la fraccion de casos negativos que han sido predichos correctamente de entre todos los casos negativos Representa la probabilidad de que los sujetos negativos sean clasificados correctamente como tales y viene dada por la formula T N R P p r e d i c t i o n a c t u a l T N T N F P displaystyle TNR P prediction actual frac TN TN FP Tasa de falsos positivos FPR la fraccion de casos negativos que han sido predichos de forma erronea como positivos de entre todos los casos negativos Representa la probabilidad de que los sujetos negativos sean clasificados erroneamente como positivos y viene dada por la formula F P R P p r e d i c t i o n a c t u a l F P T N F P displaystyle FPR P prediction actual frac FP TN FP Otros criterios de equidad Editar Relacion entre los criterios de equidad como se muestra en Barocas y otros 5 Los criterios siguientes se pueden entender como metricas de las tres definiciones dadas en la primera seccion o una relajacion de las mismas En la tabla 5 de la derecha podemos ver como se relacionan Para definir estas metricas especificamente se dividen en tres grandes grupos como en el trabajo de Verma y otros 6 definiciones basadas en el resultado predicho en el resultado predicho y el real y definiciones basadas en las probabilidades predichas y el resultado real En la siguiente seccion se trabaja con un clasificador binario y la siguiente notacion S textstyle S se refiere a la puntuacion dada por el clasificador la cual es la probabilidad que cierto sujeto se encuentre en la clase positiva o negativa R textstyle R representa la clasificacion final predicha por el algoritmo y su valor es comunmente derivado de S textstyle S por ejemplo sera positivo cuando S textstyle S este por encima de cierto valor Y textstyle Y representa el resultado real es decir la clasificacion real del sujeto y finalmente A textstyle A denota las variables protegidas del sujeto Definiciones basadas en el resultado predicho Editar Las definiciones en estas secciones se centran en el resultado predicho R textstyle R para varias distribuciones de sujetos Son las nociones mas simples e intuitivas de equidad Group fairness tambien llamado statistical parity demographic parity acceptance rate y benchmarking Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen la misma probabilidad de ser asignados a la clase positiva Es decir si se satisface la siguiente formula P R A a P R A b a b A displaystyle P R A a P R A b quad forall a b in A Conditional statistical parity Consiste basicamente en la definicion anterior pero restringida solo a un subconjunto de los atributos En notacion matematica P R L l A a P R L l A b a b A l L displaystyle P R L l A a P R L l A b quad forall a b in A quad forall l in L Definiciones basadas en el resultado predicho y el real Editar Estas definiciones no solo consideran el resultado predicho R textstyle R pero tambien lo comparan con el resultado real Y textstyle Y Predictive parity tambien llamado outcome test Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo PPV Es decir si se satisface la siguiente formula P Y R A a P Y R A b a b A displaystyle P Y R A a P Y R A b quad forall a b in A Matematicamente si un clasificador tiene el mismo PPV para ambos grupos tambien tiene el mismo FDR satisfaciendo la formula P Y R A a P Y R A b a b A displaystyle P Y R A a P Y R A b quad forall a b in A False positive error rate balance tambien llamado predictive equality Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo FPR Es decir si se satisface la siguiente formula P R Y A a P R Y A b a b A displaystyle P R Y A a P R Y A b quad forall a b in A Matematicamente si un clasificador tiene el mismo FPR para ambos grupos tambien tiene el mismo TNR satisfaciendo la formula P R Y A a P R Y A b a b A displaystyle P R Y A a P R Y A b quad forall a b in A False negative error rate balance tambien llamado equal opportunity Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo FNR Es decir si se satisface la siguiente formula P R Y A a P R Y A b a b A displaystyle P R Y A a P R Y A b quad forall a b in A Matematicamente si un clasificador tiene el mismo FNR para ambos grupos tambien tiene el mismo TPR satisfaciendo la formula P R Y A a P R Y A b a b A displaystyle P R Y A a P R Y A b quad forall a b in A Equalized odds tambien llamado conditional procedure accuracy equality and disparate mistreatment Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo TPR y el mismo FPR satisfaciendo la formula P R Y y A a P R Y y A b y a b A displaystyle P R Y y A a P R Y y A b quad y in quad forall a b in A Conditional use accuracy equality Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo PPV y el mismo NPV satisfaciendo la formula P Y y R y A a P Y y R y A b y a b A displaystyle P Y y R y A a P Y y R y A b quad y in quad forall a b in A Overall accuracy equality Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen la misma precision de prediccion es decir la probabilidad de predecir correctamente a que clase pertenece un sujeto Es decir si se satisface la siguiente formula P R Y A a P R Y A b a b A displaystyle P R Y A a P R Y A b quad forall a b in A Treatment equality Un clasificador satisface esta definicion si los sujetos en los grupos protegidos y en los no protegidos tienen el mismo ratio de FN y FP satisfaciendo la formula F N A a F P A a F N A b F P A b displaystyle frac FN A a FP A a frac FN A b FP A b Definiciones basadas en las probabilidades predichas y el resultado real Editar Estas definiciones se basan en el resultado real Y textstyle Y y en la probabilidad predicha la puntuacion S textstyle S Test fairness tambien conocido como calibration o matching conditional frequencies Un clasificador satisface esta definicion si individuos con la misma puntuacion S textstyle S tienen la misma probabilidad de ser clasificados en la clase positiva independientemente de si pertenecen a los grupos protegidos o no P Y S s A a P Y S s A b s S a b A displaystyle P Y S s A a P Y S s A b quad forall s in S quad forall a b in A Well calibration Es una extension de la definicion anterior Anade que cuando individuos dentro o fuera de los grupos protegidos tienen la misma puntuacion S textstyle S deben tener la misma probabilidad de ser clasificados en la clase positiva y esta probabilidad debe ser igual a S textstyle S P Y S s A a P Y S s A b s s S a b A displaystyle P Y S s A a P Y S s A b s quad forall s in S quad forall a b in A Balance for positive class Un clasificador satisface esta definicion si los individuos que constituyen la clase positiva pertenecientes tanto los grupos protegidos como de los no protegidos tienen la misma media de puntuacion S textstyle S Esto quiere decir que la esperanza de la puntuacion para los grupos protegidos y los no protegidos con clase real positiva Y textstyle Y es la misma satisfaciendo la formula E S Y A a E S Y A b a b A displaystyle E S Y A a E S Y A b quad forall a b in A Balance for negative class Un clasificador satisface esta definicion si los individuos que constituyen la clase negativa pertenecientes tanto los grupos protegidos como de los no protegidos tienen la misma media de puntuacion S textstyle S Esto quiere decir que la esperanza de la puntuacion para los grupos protegidos y los no protegidos con clase real negativa Y textstyle Y es la misma satisfaciendo la formula E S Y A a E S Y A b a b A displaystyle E S Y A a E S Y A b quad forall a b in A Algoritmos EditarSe puede aplicar la equidad al aprendizaje automatico desde tres perspectivas pre procesando los datos utilizados en el algoritmo optimizando los objetivos durante el entrenamiento o procesando las respuestas tras la ejecucion del algoritmo Preprocesamiento Editar Normalmente el clasificador no es el unico problema el conjunto de datos tambien esta sesgado La discriminacion de un conjunto de datos D textstyle D con respecto al grupo A a textstyle A a se puede definir como sigue d i s c A a D X D X A a X Y X D X A a X D X A a X Y X D X A a displaystyle disc A a D frac X in D X A neq a X Y X in D X A neq a frac X in D X A a X Y X in D X A a Esto es una aproximacion de la diferencia entre las probabilidades de pertenecer a la clase positiva dado que el sujeto tiene una caracteristica protegida distinta de a a textstyle a e igual a a textstyle a Los algoritmos que corrigen el sesgo mediante preprocesamiento intentan eliminar informacion sobre ciertos atributos de los datos que pueden provocar un comportamiento injusto de la IA al mismo tiempo que tratan de alterar estos datos lo menos posible Eliminar del conjunto de datos una variable protegida no es suficiente ya que otras variables pueden estar correlacionadas con ella Una posible forma de hacerlo consiste en asociar cada individuo del conjunto de datos a una representacion intermedia en la que sea imposible determinar si pertenece o no a un grupo protegido a la vez que se mantiene el resto de la informacion tanto como sea posible Despues se ajusta la nueva representacion del conjunto de datos para buscando el maximo acierto del algoritmo De este modo los individuos se vinculan a una nueva representacion en la que la probabilidad de que un miembro de un grupo protegido sea asociado a cierto valor de la nueva representacion es la misma que la de un individuo no protegido Asi es la nueva representacion la que se utiliza para obtener la prediccion para el individuo en vez de los datos originales Como la representacion intermedia se ha construido dando la misma probabilidad a cada individuo independientemente de si pertenecen al grupo protegido o no esto queda oculto para el clasificador Se puede encontrar un ejemplo en Zemel y otros 7 en el que se utiliza una variable aleatoria multinomial como representacion intermedia En el proceso se preserva toda la informacion excepto la que pueda conducir a decisiones sesgadas a la vez que se busca una prediccion lo mas correcta que sea posible Por un lado este procedimiento tiene la ventaja de que los datos preprocesados se pueden utilizar para cualquier tarea de aprendizaje automatico Ademas no hay que modificar el codigo del clasificador ya que la correccion se aplica a los datos que se van a introducir en el Por otro lado los otros metodos obtienen mejores resultados tanto en acierto como en equidad 8 Reweighing 9 Editar La tecnica del reweighing en espanol reasignacion de pesos es un ejemplo de algoritmo de preprocesamiento La idea consiste en asignar un peso a cada punto del conjunto de datos de tal manera que la discriminacion ponderada es 0 respecto al grupo de interes Si el conjunto de datos D textstyle D fuera no sesgado la variable protegida A textstyle A y la variable objetivo Y textstyle Y serian estadisticamente independientes y la probabilidad de la distribucion conjunta seria el producto de las probabilidades de la siguiente manera P e x p A a Y P A a P Y X D X A a D X D X Y D displaystyle P exp A a wedge Y P A a times P Y frac X in D X A a D times frac X in D X Y D Sin embargo en la vida real el conjunto de datos suele estar sesgado y las variables no son estadisticamente independientes por lo que la probabilidad observada es P o b s A a Y X D X A a X Y D displaystyle P obs A a wedge Y frac X in D X A a wedge X Y D Para compensar el sesgo se asignan mayores pesos a los puntos no favorecidos y menores a los favorecidos Para cada X D textstyle X in D obtenemos W X P e x p A X A Y X Y P o b s A X A Y X Y displaystyle W X frac P exp A X A wedge Y X Y P obs A X A wedge Y X Y Una vez tenemos asignado a cada X textstyle X un peso asociado W X textstyle W X calculamos la discriminacion ponderada con respecto al grupo A a textstyle A a de la siguiente manera d i s c A a D W X X X D X A a X Y W X X X D X A a W X X X D X A a X Y W X X X D X A a displaystyle disc A a D frac sum W X X in X in D X A neq a X Y sum W X X in X in D X A neq a frac sum W X X in X in D X A a X Y sum W X X in X in D X A a Se puede demostrar que despues de la asignacion de los pesos la discriminacion ponderada es 0 Optimizacion durante el entrenamiento Editar Otra aproximacion al problema es corregir el sesgo durante el entrenamiento Esto puede hacerse anadiendo restricciones al objetivo del algoritmo 10 Estas restricciones obligan al algoritmo a tener en cuenta la equidad de forma que el maximo exito no sea su unico objetivo sino tambien mantener ciertas metricas iguales tanto para el grupo protegido como para el resto de individuos Por ejemplo se puede anadir al algoritmo la condicion de que la tasa de falsos positivos sea la misma para individuos del grupo protegido y para los que no lo son Las principales metricas que se utilizan en esta tecnica son la tasa de falsos positivos la tasa de falsos negativos y la tasa general de fallo Es posible anadir solo una o varias de estas restricciones al objetivo Notese que la igualdad de las tasas de falsos negativos implica la igualdad tambien de las tasas de verdaderos positivos lo que significa igualdad de oportunidad Tras anadir las restricciones al algoritmo el problema puede volverse infactible y por tanto puede ser necesario relajarlas Esta tecnica obtiene buenos resultados al mejorar la equidad al mismo tiempo que mantiene una exactitud alta y permite al programador elegir las metricas que mejor se ajusten a sus necesidades Sin embargo la tecnica y las metricas utilizadas varian en funcion del problema y es necesario modificar el codigo del algoritmo lo que no siempre es posible 8 Adversarial debiasing 11 12 Editar Se entrenan dos clasificadores al mismo tiempo con algun metodo basado en el gradiente p e descenso de gradiente El primero el predictor intenta resolver el problema de predecir la variable objetivo Y textstyle Y dada la entrada X textstyle X modificando sus pesos W textstyle W para minimizar una funcion de perdida L P y y textstyle L P hat y y El segundo el adversario intenta resolver el problema de predecir la variable sensible A textstyle A dado Y textstyle hat Y modificando sus pesos U textstyle U para minimizar otra funcion de perdida L A a a textstyle L A hat a a Una puntualizacion importante es que para que se propague correctamente la variable Y textstyle hat Y de arriba debe referirse a la salida en bruto del clasificador y no a la salida discreta por ejemplo con una red neuronal artificial y un problema de clasificacion Y textstyle hat Y se podria referir a la salida de la capa softmax A continuacion actualizamos U textstyle U para minimizar L A textstyle L A en cada paso del entrenamiento segun el gradiente U L A textstyle nabla U L A y modificamos W textstyle W conforme a la expresion W L P p r o j W L A W L P a W L A displaystyle nabla W L P proj nabla W L A nabla W L P alpha nabla W L A donde a alpha es un hiperparametro a elegir que puede variar en cada paso Representacion grafica de los vectores usados en adversarial debiasing como se muestra en Zhan y otros 11 La idea intuitiva consiste en que el predictor intente minimizar L P textstyle L P y de ahi el termino W L P textstyle nabla W L P mientras al mismo tiempo maximice L A textstyle L A y de ahi el termino a W L A textstyle alpha nabla W L A de tal manera que el adversario fracase al predecir la variable sensible a partir de Y textstyle hat Y El termino p r o j W L A W L P textstyle proj nabla W L A nabla W L P evita que el predictor cambie de una forma que pueda ayudar al advesario disminuir su funcion de perdida Se puede demostrar que entrenar un modelo de clasificacion predictor con este algoritmo mejora la paridad demografica con respecto a entrenarlo sin el adversario Post procesamiento Editar La ultima tecnica trata de corregir las respuestas del clasificador para alcanzar la equidad En este metodo necesitamos hacer una prediccion binaria para los individuos y tenemos un clasificador que devuelve una puntuacion asociada a cada uno de ellos Los individuos con puntuaciones altas tenderan a obtener una respuesta positiva mientras que aquellos con una puntuacion baja tendran una respuesta negativa pero necesitamos determinar el umbral a partir del cual se responde positiva o negativamente Notese que variar el umbral afecta al compromiso entre la tasa de verdaderos positivos y la tasa de verdaderos negativos y en funcion del problema nos puede interesar mejorar una a costa de la otra Si la funcion de puntuacion es justa en el sentido de que es independiente del atributo protegido entonces cualquier eleccion del valor umbral sera tambien justa pero este tipo de clasificadores tienden a sesgarse con facilidad por lo que puede que necesitemos especificar un umbral distinto para cada grupo protegido Una forma de hacerlo es estudiar las graficas de la tasa de verdaderos positivos frente a la de verdaderos negativos para distintos valores del umbral a esto se le conoce como curva ROC y comprobar para que valor del umbral las tasas son iguales para el grupo protegido y para el resto de individuos 13 Entre las ventajas del post procesamiento estan que la tecnica se puede aplicar despues de usar cualquier clasificador sin necesidad de modificarlo y obtiene buenos resultados mejorando metricas de equidad Entre los inconvenientes es necesario consultar el valor del atributo protegido durante el post procesamiento y se restringe la libertad del programador para regular el compromiso entre equidad y exactitud 8 Reject Option based Classification 14 Editar Dado un clasificador sea P X textstyle P X la probabilidad calculada por este de que el sujeto X textstyle X pertenezca a la clase positiva Cuando P X textstyle P X sea cercano a 1 o 0 el sujeto X textstyle X sera clasificado con un alto grado de seguridad como perteneciente a la clase positiva o negativa respectivamente Sin embargo cuando P X textstyle P X esta mas proximo a 0 5 la clasificacion no esta clara Decimos que X textstyle X es un sujeto rechazado si m a x P X 1 P X 8 textstyle max P X 1 P X leq theta con cierto 8 textstyle theta tal que 0 5 lt 8 lt 1 textstyle 0 5 lt theta lt 1 El algoritmo consiste en clasificar los sujetos no rechazados siguiendo la regla explicada al principio y los rechazados de la siguiente manera si la instancia es un ejemplo de grupo desprivilegiado X A a displaystyle X A a entonces clasificarla como positivo en el otro caso clasificarla como negativo Podemos optimizar diferentes medidas de discriminacion como funciones de 8 textstyle theta para encontrar el 8 textstyle theta optimo para cada problema y evitar volvernos discriminatorios contra el grupo privilegiado Vease tambien EditarSesgo algoritmico Aprendizaje automaticoReferencias Editar Moritz Hardt Berkeley Consultado el 18 de diciembre de 2019 IBM AI Fairness 360 Consultado el 18 de diciembre de 2019 Fairness Flow el detector de sesgos de Facebook Consultado el 18 de diciembre de 2019 ML Fairness gym Consultado el 18 de diciembre de 2019 a b c Solon Barocas Moritz Hardt Arvind Narayanan Fairness and Machine Learning Consultado el 15 de diciembre de 2019 a b Sahil Verma Julia Rubin Fairness Definitions Explained Consultado el 15 de diciembre de 2019 Richard Zemel Yu Ledell Wu Kevin Swersky Toniann Pitassi Cyntia Dwork Learning Fair Representations Consultado el 1 de Diciembre de 2019 a b c Ziyuan Zhong Tutorial on Fairness in Machine Learning Consultado el 1 de Diciembre de 2019 Faisal Kamiran Toon Calders Data preprocessing techniques for classification without discrimination Consultado el 17 de Diciembre de 2019 Muhammad Bilal Zafar Isabel Valera Manuel Gomez Rodriguez Krishna P Gummadi Fairness Beyond Disparate Treatment amp Disparate Impact Learning Classification without Disparate Mistreatment Consultado el 1 de Diciembre de 2019 a b Brian Hu Zhang Blake Lemoine Margaret Mitchell Mitigating Unwanted Biases with Adversarial Learning Consultado el 17 de diciembre de 2019 Joyce Xu Algorithmic Solutions to Algorithmic Bias A Technical Guide Consultado el 17 de diciembre de 2019 Moritz Hardt Eric Price Nathan Srebro Equality of Opportunity in Supervised Learning Consultado el 1 de diciembre de 2019 Faisal Kamiran Asim Karim Xiangliang Zhang Decision Theory for Discrimination aware Classification Consultado el 17 de Diciembre de 2019 Datos Q80100972 Obtenido de https es wikipedia org w index php title Equidad aprendizaje automatico amp oldid 138253971, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos