Lo llaman inteligencia artificial, no porque la inteligencia sea de alguna manera falsa. Es inteligencia real, pero aún está hecha por humanos. Eso significa IA, una herramienta poderosa que puede agregar velocidad, eficiencia, conocimiento y precisión al trabajo de un investigador.- tiene muchas limitaciones.
Solo es tan bueno como los métodos y los datos que se le han proporcionado. Por sí solo, no sabe si falta información, cuánto peso dar a los diferentes tipos de información o si los datos que utiliza son incorrectos o corruptos. No puede lidiar con precisión con la incertidumbre o los eventos aleatorios, a menos que aprenda cómo. Depender exclusivamente de los datos, como suelen hacer los modelos de aprendizaje automático, no aprovecha el conocimiento que los expertos han acumulado durante años y los modelos físicos que sustentan los procesos físicos y químicos.fenómenos. Ha sido difícil enseñar a la computadora a organizar e integrar información de fuentes muy diferentes.
Ahora, investigadores de la Universidad de Delaware y la Universidad de Massachusetts-Amherst han publicado detalles de un nuevo enfoque de la inteligencia artificial que incorpora incertidumbre, error, leyes físicas, conocimiento experto y datos faltantes en sus cálculos y, en última instancia, conduce a resultados mucho más confiables.modelos. El nuevo método proporciona garantías que normalmente faltan en los modelos de IA, lo que muestra cuán valioso, o no, puede ser el modelo para lograr el resultado deseado.
Joshua Lansford, estudiante de doctorado en el Departamento de Ingeniería Química y Biomolecular de la UD, y el profesor Dion Vlachos, director del Centro de Catálisis para la Innovación Energética de la UD, son coautores del artículo publicado el 14 de octubre en la revista Avances científicos. También contribuyeron Jinchao Feng y Markos Katsoulakis del Departamento de Matemáticas y Estadística de la Universidad de Massachusetts-Amherst.
El nuevo marco matemático podría producir una mayor eficiencia, precisión e innovación para los modelos informáticos utilizados en muchos campos de investigación. Estos modelos proporcionan formas poderosas de analizar datos, materiales de estudio e interacciones complejas y ajustar variables de forma virtual en lugar de hacerlo en el laboratorio.
"Tradicionalmente en los modelos físicos, primero construimos un modelo usando solo nuestra intuición física y conocimiento experto sobre el sistema", dijo Lansford. "Luego, después de eso, medimos la incertidumbre en las predicciones debido a errores en las variables subyacentes, a menudo confiando en datos brutos-force métodos, donde muestreamos, luego ejecutamos el modelo y vemos qué sucede ".
Los modelos eficaces y precisos ahorran tiempo y recursos y orientan a los investigadores hacia métodos más eficientes, nuevos materiales, mayor precisión y enfoques innovadores que de otro modo no considerarían.
El artículo describe cómo funciona el nuevo marco matemático en una reacción química conocida como reacción de reducción de oxígeno, pero es aplicable a muchos tipos de modelos, dijo Lansford.
"Las químicas y los materiales que necesitamos para hacer las cosas más rápido o incluso hacerlas posibles, como las celdas de combustible, son muy complejas", dijo. "Necesitamos precisión ... Y si desea hacer un proceso más activocatalizador, debe tener límites en su error de predicción. Al decidir inteligentemente dónde poner sus esfuerzos, puede ajustar el área para explorar.
"La incertidumbre se tiene en cuenta en el diseño de nuestro modelo", dijo Lansford. "Ahora ya no es un modelo determinista. Es probabilístico".
Con estos nuevos desarrollos matemáticos implementados, el modelo en sí mismo identifica qué datos se necesitan para reducir el error del modelo, dijo. Luego, se puede usar un nivel más alto de teoría para producir datos más precisos o se pueden generar más datos, lo que lleva incluso alímites de error más pequeños en las predicciones y reduciendo el área para explorar.
"Esos cálculos requieren mucho tiempo para generar, por lo que a menudo estamos tratando con pequeños conjuntos de datos, de 10 a 15 puntos de datos. Ahí es donde surge la necesidad del error de distribución"
Eso todavía no es una garantía de devolución de dinero de que el uso de una sustancia o enfoque específico entregará exactamente el producto deseado. Pero está mucho más cerca de una garantía de lo que podía obtener antes.
Este nuevo método de diseño de modelos podría mejorar enormemente el trabajo en energías renovables, tecnología de baterías, mitigación del cambio climático, descubrimiento de fármacos, astronomía, economía, física, química y biología, por nombrar solo algunos ejemplos.
La inteligencia artificial no significa que la experiencia humana ya no sea necesaria. Todo lo contrario.
El conocimiento experto que surge del laboratorio y los rigores de la investigación científica es un material fundamental y fundamental para cualquier modelo computacional.
Fuente de la historia :
Materiales proporcionado por Universidad de Delaware . Original escrito por Beth Miller. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :