Puede parecer que el software funciona sin sesgos porque usa estrictamente el código de la computadora para llegar a conclusiones. Es por eso que muchas compañías usan algoritmos para ayudar a eliminar a los solicitantes de empleo cuando contratan para un nuevo puesto.
Pero un equipo de científicos informáticos de la Universidad de Utah, la Universidad de Arizona y el Haverford College de Pensilvania ha descubierto una forma de averiguar si un algoritmo utilizado para decisiones de contratación, aprobaciones de préstamos y tareas comparativamente pesadas podría estar sesgado como un ser humano.
Los investigadores, dirigidos por Suresh Venkatasubramanian, profesor asociado de la Facultad de Informática de la Universidad de Utah, han descubierto una técnica para determinar si dichos programas de software discriminan involuntariamente y violan los estándares legales para un acceso justo al empleo, la vivienda y otras oportunidades.El equipo también ha determinado un método para corregir estos algoritmos potencialmente problemáticos.
Venkatasubramanian presentó sus hallazgos el 12 de agosto en la 21ª Conferencia de la Asociación de Maquinaria de Computación sobre Descubrimiento de Conocimiento y Minería de Datos en Sydney, Australia.
"Hay una industria creciente en torno al filtrado de currículums y el escaneo de currículums para buscar solicitantes de empleo, por lo que definitivamente hay interés en esto", dice Venkatasubramanian. "Si hay aspectos estructurales del proceso de prueba que discriminarían a una comunidad solo porquede la naturaleza de esa comunidad, eso es injusto "
algoritmos de aprendizaje automático
Muchas compañías han estado utilizando algoritmos en programas de software para ayudar a filtrar a los solicitantes de empleo en el proceso de contratación, generalmente porque puede ser abrumador clasificar las aplicaciones manualmente si muchas solicitan el mismo trabajo. Un programa puede hacerlo escaneandoreanuda y busca palabras clave o números como promedios de calificaciones escolares y luego asigna un puntaje general al solicitante.
Estos programas también pueden aprender a medida que analizan más datos. Conocidos como algoritmos de aprendizaje automático, pueden cambiar y adaptarse como humanos para poder predecir mejor los resultados. Amazon usa algoritmos similares para que puedan aprender los hábitos de compra de los clientes o con mayor precisiónlos anuncios de orientación y Netflix los usa para que puedan conocer los gustos cinematográficos de los usuarios al recomendar nuevas opciones de visualización.
Pero ha habido un creciente debate sobre si los algoritmos de aprendizaje automático pueden introducir sesgos involuntarios al igual que los humanos.
"La ironía es que cuanto más diseñamos tecnología de inteligencia artificial que imita con éxito a los humanos, más aprende AI de una manera que lo hacemos, con todos nuestros prejuicios y limitaciones", dice Venkatasubramanian.
Impacto desigual
La investigación de Venkatasubramanian determina si estos algoritmos de software pueden estar sesgados a través de la definición legal de impacto dispar, una teoría en la ley antidiscriminatoria de los Estados Unidos que dice que una política puede considerarse discriminatoria si tiene un impacto adverso en cualquier grupo basado en raza, religión, género, orientación sexual u otro estado protegido.
La investigación de Venkatasubramanian reveló que puede usar una prueba para determinar si el algoritmo en cuestión está sesgado. Si la prueba, que irónicamente usa otro algoritmo de aprendizaje automático, puede predecir con precisión la raza o el género de una persona en función de los datosanalizado, a pesar de que la raza o el género están ocultos de los datos, existe un problema potencial de sesgo basado en la definición de impacto disparejo.
"No digo que lo esté haciendo, pero digo que hay al menos un potencial para que haya un problema", dice Venkatasubramanian.
Si la prueba revela un posible problema, Venkatasubramanian dice que es fácil de solucionar. Todo lo que tiene que hacer es redistribuir los datos que se están analizando, digamos la información de los solicitantes de empleo, para evitar que el algoritmo veainformación que se puede usar para crear el sesgo.
"Sería ambicioso y maravilloso si lo que hicimos alimentara directamente mejores formas de hacer prácticas de contratación. Pero en este momento es una prueba de concepto", dice Venkatasubramanian.
Fuente de la historia :
Materiales proporcionado por Universidad de Utah . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :