El público no necesita saber cómo funciona la inteligencia artificial para confiar en ella. Solo necesita saber que alguien con las habilidades necesarias está examinando la inteligencia artificial y tiene la autoridad para imponer sanciones si causa o es probable que cause daño.
El Dr. Bran Knowles, profesor titular de ciencia de datos en la Universidad de Lancaster, dice: "Estoy seguro de que el público es incapaz de determinar la confiabilidad de las IA individuales ... pero no los necesitamos para hacer esto.no es su responsabilidad de mantener la IA honesta ".
El Dr. Knowles presenta 8 de marzo un artículo de investigación 'La sanción de la autoridad: promoción de la confianza pública en la inteligencia artificial' en la Conferencia de ACM sobre equidad, responsabilidad y transparencia ACM FAccT.
El artículo es coautor de John T. Richards, del Centro de Investigación TJ Watson de IBM, Yorktown Heights, Nueva York.
El público en general, señala el periódico, a menudo desconfía de la IA, lo que se debe tanto a la forma en que se ha representado a la IA a lo largo de los años como a una conciencia cada vez mayor de que hay poca supervisión significativa de la misma.
Los autores argumentan que una mayor transparencia y explicaciones más accesibles de cómo funcionan los sistemas de IA, percibidos como un medio para aumentar la confianza, no abordan las preocupaciones del público.
Un 'ecosistema regulatorio', dicen, es la única forma en que la IA será responsable de manera significativa ante el público, ganándose su confianza.
"El público no se preocupa habitualmente por la confiabilidad de los alimentos, la aviación y los productos farmacéuticos porque confía en que existe un sistema que regula estas cosas y castiga cualquier incumplimiento de los protocolos de seguridad", dice el Dr. Richards.
Y agrega el Dr. Knowles: "En lugar de pedirle al público que adquiera habilidades para tomar decisiones informadas sobre qué IA merecen su confianza, el público necesita las mismas garantías de que cualquier IA que pueda encontrar no les causará daño."
Hace hincapié en el papel fundamental de la documentación de IA para habilitar este ecosistema regulatorio confiable. Como ejemplo, el documento analiza el trabajo de IBM en las hojas de datos de IA, documentación diseñada para capturar hechos clave sobre el desarrollo y las pruebas de una IA.
Pero, si bien dicha documentación puede proporcionar la información que necesitan los auditores internos y los reguladores externos para evaluar el cumplimiento de los marcos emergentes para una IA confiable, el Dr. Knowles advierte que no debe depender de ella para fomentar directamente la confianza del público.
"Si no reconocemos que la carga de supervisar la confiabilidad de la IA debe recaer en reguladores altamente capacitados, entonces hay una buena posibilidad de que el futuro de la documentación de la IA sea otro mecanismo de consentimiento al estilo de términos y condiciones, algo que nadie realmentelee o entiende ", dice.
El documento exige que la documentación de IA se entienda correctamente como un medio para capacitar a los especialistas para evaluar la confiabilidad.
"La IA tiene consecuencias materiales en nuestro mundo que afectan a personas reales; y necesitamos una responsabilidad genuina para garantizar que la IA que impregna nuestro mundo esté ayudando a mejorar ese mundo", dice el Dr. Knowles.
ACM FAccT es una conferencia de ciencias de la computación que reúne a investigadores y profesionales interesados en la equidad, la responsabilidad y la transparencia en los sistemas socio-técnicos.
Fuente de la historia :
Materiales proporcionado por Universidad de Lancaster . Nota: el contenido se puede editar por estilo y longitud.
cite esta página :