Tengo preguntas inspiradas en el reciente escándalo de contratación de Amazon, donde se les acusó de discriminar a las mujeres en su proceso de contratación. Más información aquí :
Los especialistas en aprendizaje automático de Amazon.com Inc. descubrieron un gran problema: su nuevo motor de reclutamiento no le gustaban las mujeres.
El equipo llevaba desde 2014 construyendo programas informáticos para revisar los currículos de los solicitantes de empleo con el objetivo de mecanizar la búsqueda de los mejores talentos...
... La herramienta de contratación experimental de la empresa utiliza la inteligencia artificial para dar a los candidatos a un puesto de trabajo puntuaciones que van de una a cinco estrellas...
... Pero en 2015, la empresa se dio cuenta de que su nuevo sistema no calificaba a los candidatos a puestos de desarrollador de software y otros puestos técnicos de manera neutral en cuanto al género.
Esto se debe a que los modelos informáticos de Amazon fueron entrenados para investigar a los candidatos mediante la observación de patrones en los currículos enviados a la empresa durante un período de 10 años. La mayoría procedía de hombres, lo que refleja el predominio masculino en el sector tecnológico. (Para ver un gráfico sobre el desglose por sexos en la tecnología, véase: aquí ) En efecto, el sistema de Amazon se enseñó a sí mismo que los candidatos masculinos eran preferibles. Penalizó los currículos que incluían la palabra "de mujeres", como en "capitán del club de ajedrez de mujeres". Y rebajó la categoría de los graduados de dos universidades exclusivamente femeninas, según personas familiarizadas con el asunto. No especificaron los nombres de las escuelas.
Amazon editó los programas para hacerlos neutrales a estos términos particulares. Pero eso no garantizaba que las máquinas no idearan otras formas de clasificar a los candidatos que pudieran resultar discriminatorias, dijeron las personas.
La empresa de Seattle acabó disolviendo el equipo a principios del año pasado porque los ejecutivos perdieron la esperanza en el proyecto...
... El experimento de la empresa... ofrece un caso de estudio sobre las limitaciones del aprendizaje automático.
... informáticos como Nihar Shah, profesor de aprendizaje automático en la Universidad Carnegie Mellon, afirman que aún queda mucho trabajo por hacer.
"Cómo garantizar que el algoritmo sea justo, cómo asegurarse de que el algoritmo sea realmente interpretable y explicable eso aún está muy lejos", dijo.LENGUAJE MASCULINO
[Crearon un equipo en el centro de ingeniería de Amazon en Edimburgo que llegó a tener una docena de personas. Su objetivo era desarrollar una IA que pudiera rastrear rápidamente la web y detectar candidatos que merecieran ser contratados, dijeron las personas familiarizadas con el asunto.
El grupo creó 500 modelos informáticos centrados en funciones y lugares de trabajo específicos. Enseñaron a cada uno de ellos a reconocer unos 50.000 términos que aparecían en los currículos de candidatos anteriores. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes entre los solicitantes de TI, como la capacidad de escribir varios códigos informáticos...
En cambio, la tecnología favoreció a las candidatas que se describían a sí mismas utilizando verbos más comunes en los currículos de los ingenieros varones, como "ejecutado" y "capturado", dijo una persona.
Digamos que quiero construir un modelo estadístico para predecir algún resultado a partir de datos personales, como una clasificación de cinco estrellas para ayudar a reclutar nuevas personas. Supongamos que también quiero evitar la discriminación de género, como una restricción ética. Dados dos perfiles estrictamente iguales, aparte del género, el resultado del modelo debe ser el mismo.
-
¿Debo utilizar el género (o cualquier dato correlacionado con él) como entrada e intentar corregir su efecto, o evitar utilizar estos datos?
-
¿Cómo puedo comprobar la ausencia de discriminación por razón de sexo?
-
¿Cómo corrijo mi modelo para los datos que son estadísticamente discriminantes pero que no quiero por razones éticas?
1 votos
Creo que sería importante incluir en el cuerpo de la pregunta una referencia a un artículo sobre el supuesto escándalo de contratación de Amazon. Algunos podrían argumentar que no hubo "discriminación" (dependiendo de cómo se defina el término) en absoluto, sino un simple desequilibrio en los hombres frente a las mujeres contratadas, así que tal vez proporcione su definición de "discriminación".
0 votos
La historia ha sido reportada por reuter sin muchos detalles acerca de la herramienta de reclutamiento más que " Se penalizó hojas de vida que incluían la palabra "de las mujeres", como en "capitán del club de ajedrez de las mujeres". Obviamente, Amazon declinó hacer comentarios. Aquí está la transcripción : reuters.com/article/amazoncom-jobs-automation/ No incluí el enlace a propósito ya que el asunto es delicado y quería mantenerlo en general y evitar discusiones estériles.
0 votos
Volví a abrir, & editar, pero en el proceso de proporcionar el contexto necesario en el cuerpo de la Q, me doy cuenta de que un destacado científico de la computación de Carnegie Mellon dice que, "Cómo garantizar que el algoritmo es justo [es decir, su pregunta], [es] todavía bastante lejos". Eso hace que me preocupe que no se pueda responder aquí. A la luz de esto, tal vez quieras aclarar más tu pregunta.
1 votos
¿Qué pasa con la posibilidad de que una respuesta canónica no sea posible aquí? ¿Puede abordar eso? Estoy considerando la posibilidad de volver a cerrar.
0 votos
¿Cómo puedo saber si la pregunta no tiene respuesta? Tenía la impresión de que este tipo de preguntas ya habían sido tratadas. Pero es muy posible que no haya una respuesta canónica todavía o en general. Puedo aceptar y recompensar cualquier respuesta que proporcione una razón convincente de por qué no es posible todavía y en general...
0 votos
Pues bien, el artículo cita a un importante investigador de IA de Carnegie Mellon que dice que el campo está muy lejos de poder garantizar que los algoritmos sean justos. Su pregunta es cómo garantizar que el algoritmo sea justo. Así que, para mí, eso implica que esto puede no tener respuesta ahora mismo.
0 votos
Intenté evitar esta cuestión dando una definición edulcorada de equidad (ausencia de impacto del género en el resultado del modelo), en lugar de todo el calvario de la equidad. Esta simple definición es bastante práctica y se ajusta a algunas grandes consideraciones éticas (por ejemplo, el primer artículo de la constitución de mi país establece que "se garantizará la igualdad de todos los ciudadanos ante la ley, sin distinción de [...] sexo"). Me pareció que esta sencilla definición de equidad ayudaría a obtener más respuestas que otras consideraciones más generales sobre la equidad.
0 votos
Además no me creo todo lo que leo en internet.
3 votos
"ausencia de impacto del género en el resultado del modelo" - No veo por qué es ésta una buena definición. Supongamos que usted no tiene una característica llamada género en el modelo, que probablemente no lo hace de todos modos. Entonces el modelo "deduce", mirando a otros atributos, que se trata de una mujer, y rebaja la categoría porque una mujer es menos apta para el trabajo, ¿entonces qué? Hay muchos trabajos en los que las mujeres serían menos aptas, por ejemplo, los marines. Eso no significa que no se pueda encontrar una mujer que sea estupenda, pero la mayoría no encajaría.
0 votos
Puedo ver su punto de vista con los trabajos físicos, pero este no es el caso aquí.
0 votos
Además, si el modelo tiene en cuenta la aptitud física, la "ausencia de impacto del género en el resultado del modelo" sería una buena definición.
3 votos
@Lcrmorin, ¿por qué sólo físico? ¿Por qué crees que el programador es el más adecuado tanto para mujeres como para hombres? No veo la razón obvia. Sospecho porque sólo se cuestionan los trabajos bien pagados. Por ejemplo ,los hombres son más encarcelados, ¿por qué no presionar para que las mujeres sean encarceladas al mismo ritmo? Una buena definición de lo que constituye una discriminación es primordial
0 votos
@Aksakal: ¿por qué crees que no lo es? No veo una razón obvia para que haya una diferencia significativa de aptitud entre hombres y mujeres en los trabajos de programación. Este tipo de consideraciones han llevado a las autoridades de mi país a escribir la igualdad en derechos en la constitución. Nuestros representantes están redactando actualmente leyes para garantizar la igualdad en el mundo profesional, en términos de contratación, formación, promoción, salario... etc. ¿Por qué no hacer lo mismo con la cárcel, se pregunta? Diría "política", pero esto no está en mis manos y no es el tema de mi pregunta.
0 votos
O tal vez hay un prejuicio histórico contra las mujeres en el campo y hace que sea más difícil entrar en el campo ... Sinceramente, no lo sé y esta no era mi pregunta. Tal vez el campo de las TI no sea un buen ejemplo, ya que está históricamente sesgado, pero el ejemplo de Amazon era el único que tenía en mente. Mi ámbito de aplicación es más equilibrado. Ps: No soy yo el que está dando una bofetada a la restricción.
0 votos
Mi pregunta se refiere a la reducción del efecto del género dado dos perfiles idénticos, no al origen del sesgo histórico. Tengo la impresión de que se está desviando del tema para expresar creencias muy personales. O escriba una respuesta si puede relacionar sus ideas con el tema original.
0 votos
No, el objetivo tampoco es hacer discriminación positiva. ¿Puedo sugerirle que mire la respuesta aceptada?
1 votos
Relevante discurso de apertura en la conferencia de Sistemas de Procesamiento Neural 2017 de Kate Crawford en youtube El problema de los prejuicios
1 votos
También es relevante: Una lista de verificación ética para los científicos de datos
1 votos
Por último, Cathy O'Neil Armas de destrucción matemática ha sido elogiado por personas que conozco interesadas en las intersecciones de la ciencia de los datos y la justicia.
1 votos
Creo que esto lo cubre cualquier curso de estadística aplicada en ciencias sociales que trate de determinar efectos causales... Identificar el sesgo de las variables omitidas, etc., "controlar el factor X", etc.
2 votos
@Alexis Nah.. Ese libro es un libro político ante todo (y no trata adecuadamente todos los obvio críticas a los argumentos que expone). Es una obra de activismo político (parcial). Es ciertamente no un libro que debes leer si quieres conocer los métodos matemáticos para evitar el sesgo.
1 votos
@seanv507: Me gustaría saber más sobre eso... Ya tengo 8 respuestas y sólo una de ellas habla de controlar respecto a alguna variable (sin aportar suficiente metodología).
1 votos
No soy un experto en el tema, pero yo miraría el tema de la inferencia causal, por ejemplo en 'Mostly harmless Econometrics'[ [mostlyharmlesseconometrics.com/]](http://www.mostlyharmlesseconometrics.com/])
1 votos
@Eff Todo Los modelos matemáticos encarnan la visión del mundo, y no hay ningún modelo matemático "libre de valores". Pero, como he insinuado, no he leído ese libro, sólo estoy pasando una recomendación de amigos matemáticos con valores sociales explícitos.
0 votos
@Alexis ...Ehmm... ¿qué? Estoy señalando que el libro no trata de modelos matemáticos sino que es sobre todo un libro político/ideológico/activista. No es un libro para aprender modelos matemáticos. Si piensas que todos los libros sobre modelos matemáticos son esencialmente libros sobre activismo político, entonces no, no estoy de acuerdo. Eso es absurdo.
1 votos
@Eff "Estoy señalando que el libro no trata de modelos matemáticos sino que es sobre todo un libro político/ideológico/activista." Entendido, no estaba claro por los compañeros que lo discutían.