Investigadores de la Universidad de Warwick, Imperial College London, EPFL Lausanne y Sciteb Ltd han encontrado un medio matemático para ayudar a los reguladores y las empresas a gestionar y vigilar los prejuicios de los sistemas de Inteligencia Artificial para tomar decisiones comerciales poco éticas y potencialmente muy costosas y perjudiciales- Un ojo ético en la IA.
La inteligencia artificial IA se despliega cada vez más en situaciones comerciales. Considere, por ejemplo, usar la IA para establecer los precios de los productos de seguros que se venderán a un cliente en particular. Existen razones legítimas para establecer diferentes precios para diferentes personas, pero también puede serrentable para 'jugar' su psicología o disposición para darse una vuelta.
La IA tiene una gran cantidad de estrategias potenciales para elegir, pero algunas no son éticas y no solo incurrirán en costos morales, sino en una penalización económica potencial significativa ya que las partes interesadas aplicarán alguna penalidad si descubren que dicha estrategia se ha utilizado:Los reguladores pueden imponer multas significativas de miles de millones de dólares, libras o euros y los clientes pueden boicotearlo, o ambos.
Por lo tanto, en un entorno en el que las decisiones se toman cada vez más sin intervención humana, existe un fuerte incentivo para saber en qué circunstancias los sistemas de IA podrían adoptar una estrategia poco ética y reducir ese riesgo o eliminarlo por completo si es posible.
Los matemáticos y estadísticos de la Universidad de Warwick, Imperial, EPFL y Sciteb Ltd se han unido para ayudar a las empresas y los reguladores a crear un nuevo "Principio de optimización poco ético" y proporcionar una fórmula simple para estimar su impacto. Han presentado los detalles completos enun documento con el nombre "Un principio de optimización poco ético", publicado en Royal Society Open Science el miércoles 1 de julio de 2020.
Los cuatro autores del artículo son Nicholas Beale de Sciteb Ltd; Heather Battey del Departamento de Matemáticas, Imperial College London; Anthony C. Davison del Instituto de Matemáticas, Ecole Polytechnique Fédérale de Lausanne; y el Profesor Robert MacKay de las MatemáticasInstituto de la Universidad de Warwick.
El profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick dijo :
"Nuestro 'Principio de optimización poco ético' sugerido puede usarse para ayudar a los reguladores, el personal de cumplimiento y otros a encontrar estrategias problemáticas que podrían estar ocultas en un gran espacio estratégico. Se puede esperar que la optimización elija desproporcionadamente muchas estrategias poco éticas, cuya inspección deberíamuestre dónde es probable que surjan problemas y, por lo tanto, sugiera cómo se debe modificar el algoritmo de búsqueda de IA para evitarlos en el futuro.
"El Principio también sugiere que puede ser necesario repensar la forma en que la IA opera en espacios estratégicos muy grandes, de modo que los resultados poco éticos se rechacen explícitamente en el proceso de optimización / aprendizaje"
Fuente de la historia :
Materiales proporcionado por Universidad de Warwick . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :