Los humanos suelen ser bastante buenos para reconocer cuando se equivocan, pero los sistemas de inteligencia artificial no. Según un nuevo estudio, la IA generalmente sufre de limitaciones inherentes debido a una paradoja matemática centenaria.
Al igual que algunas personas, los sistemas de IA a menudo tienen un grado de confianza que supera con creces sus capacidades reales. Y como una persona con exceso de confianza, muchos sistemas de IA no saben cuándo están cometiendo errores. A veces es aún más difícil para un sistema de IAdarse cuenta cuando se está cometiendo un error que producir un resultado correcto.
Investigadores de la Universidad de Cambridge y la Universidad de Oslo dicen que la inestabilidad es el talón de Aquiles de la IA moderna y que una paradoja matemática muestra las limitaciones de la IA. Las redes neuronales, la herramienta de vanguardia en IA, imitan aproximadamente los vínculos entreneuronas en el cerebro. Los investigadores muestran que hay problemas donde existen redes neuronales estables y precisas, pero ningún algoritmo puede producir tal red. Solo en casos específicos los algoritmos pueden calcular redes neuronales estables y precisas.
Los investigadores proponen una teoría de clasificación que describe cuándo se pueden entrenar las redes neuronales para proporcionar un sistema de IA confiable bajo ciertas condiciones específicas. Sus resultados se informan en Actas de la Academia Nacional de Ciencias.
El aprendizaje profundo, la tecnología de inteligencia artificial líder para el reconocimiento de patrones, ha sido objeto de numerosos titulares que no dejaban de sorprendernos. Los ejemplos incluyen el diagnóstico de enfermedades con mayor precisión que los médicos o la prevención de accidentes de tránsito mediante la conducción autónoma. Sin embargo, muchos sistemas de aprendizaje profundo no son confiables y son fáciles de engañar..
"Muchos sistemas de IA son inestables y se está convirtiendo en una gran responsabilidad, especialmente porque se usan cada vez más en áreas de alto riesgo, como el diagnóstico de enfermedades o vehículos autónomos", dijo el coautor, el profesor Anders Hansen del Departamento de Matemáticas Aplicadas y de Cambridge.Física teórica: "Si los sistemas de IA se utilizan en áreas donde pueden causar un daño real si funcionan mal, la confianza en esos sistemas debe ser la máxima prioridad".
La paradoja identificada por los investigadores se remonta a dos gigantes matemáticos del siglo XX: Alan Turing y Kurt Gödel. A principios del siglo XX, los matemáticos intentaron justificar las matemáticas como el último lenguaje consistente de la ciencia. Sin embargo, Turing y Gödel demostraronuna paradoja en el corazón de las matemáticas: es imposible probar si ciertos enunciados matemáticos son verdaderos o falsos, y algunos problemas computacionales no pueden abordarse con algoritmos.Y, siempre que un sistema matemático es lo suficientemente rico como para describir la aritmética que aprendemos en la escuela,no puede probar su propia consistencia.
Décadas después, el matemático Steve Smale propuso una lista de 18 problemas matemáticos sin resolver para los 21st siglo. El 18th el problema se refería a los límites de la inteligencia tanto para humanos como para máquinas.
"La paradoja identificada por primera vez por Turing y Gödel ahora ha sido presentada en el mundo de la IA por Smale y otros", dijo el coautor Dr. Matthew Colbrook del Departamento de Matemáticas Aplicadas y Física Teórica. "Existen límites fundamentales inherentesen matemáticas y, de manera similar, los algoritmos de IA no pueden existir para ciertos problemas".
Los investigadores dicen que, debido a esta paradoja, hay casos en los que pueden existir buenas redes neuronales, pero no se puede construir una inherentemente confiable. "No importa qué tan precisos sean sus datos, nunca puede obtener la información perfecta para construir elred neuronal necesaria", dijo el coautor, el Dr. Vegard Antun, de la Universidad de Oslo.
La imposibilidad de calcular la buena red neuronal existente también es cierta independientemente de la cantidad de datos de entrenamiento. No importa a cuántos datos pueda acceder un algoritmo, no producirá la red deseada. "Esto es similar al argumento de Turing: hayproblemas computacionales que no pueden resolverse independientemente de la potencia informática y el tiempo de ejecución", dijo Hansen.
Los investigadores dicen que no toda la IA es inherentemente defectuosa, pero solo es confiable en áreas específicas, utilizando métodos específicos. "El problema es con las áreas en las que necesita una garantía, porque muchos sistemas de IA son una caja negra", dijo Colbrook."Está completamente bien en algunas situaciones que una IA cometa errores, pero debe ser honesto al respecto. Y eso no es lo que estamos viendo en muchos sistemas: no hay forma de saber cuándo tienen más o menos confianza".sobre una decisión".
"Actualmente, los sistemas de IA a veces pueden tener un toque de conjeturas", dijo Hansen. "Intentas algo, y si no funciona, agregas más cosas, con la esperanza de que funcione. En algún momento,si se cansa de no obtener lo que desea, probará un método diferente. Es importante comprender las limitaciones de los diferentes enfoques. Estamos en una etapa en la que los éxitos prácticos de la IA están muy por delante de la teoría y la comprensión. Un programa sobrese necesita comprender los fundamentos de la computación de IA para cerrar esta brecha".
"Cuando los matemáticos del siglo XX identificaron diferentes paradojas, no dejaron de estudiar matemáticas. Solo tenían que encontrar nuevos caminos, porque entendían las limitaciones", dijo Colbrook. "Para la IA, puede ser un caso de cambiar caminoso desarrollar otros nuevos para construir sistemas que puedan resolver problemas de manera confiable y transparente, al mismo tiempo que se comprenden sus limitaciones".
La siguiente etapa para los investigadores es combinar la teoría de la aproximación, el análisis numérico y los fundamentos de los cálculos para determinar qué redes neuronales pueden calcularse mediante algoritmos y cuáles pueden hacerse estables y confiables. Así como las paradojas sobre las limitaciones de las matemáticas yLas computadoras identificadas por Gödel y Turing condujeron a ricas teorías de fundamentos, que describen tanto las limitaciones como las posibilidades de las matemáticas y los cálculos; tal vez una teoría de fundamentos similar pueda florecer en la IA.
Matthew Colbrook es investigador junior en Trinity College, Cambridge. Anders Hansen es miembro en Peterhouse, Cambridge. La investigación fue financiada en parte por la Royal Society.
Fuente de la historia:
Materiales proporcionado por Universidad de Cambridge. El texto original de esta historia tiene licencia bajo un Licencia Creative Commons. Nota: el contenido se puede editar por estilo y longitud.
referencia de diario:
Citar esta página:
Visita Nuevo científico for more global science stories >>>