El crecimiento exponencial en el poder de procesamiento de la computadora visto en los últimos 60 años puede detenerse pronto. Los sistemas complejos como los utilizados en el pronóstico del tiempo, por ejemplo, requieren altas capacidades informáticas, pero los costos de ejecutar supercomputadoras para procesar grandes cantidadesde datos puede convertirse en un factor limitante. Investigadores de la Universidad Johannes Gutenberg de Mainz JGU en Alemania y de la Università della Svizzera italiana USI en Lugano en Suiza han presentado recientemente un algoritmo que puede resolver problemas complejos con una facilidad notable, incluso en forma personalcomputadora.
El crecimiento exponencial en TI alcanzará su límite
En el pasado, hemos visto una tasa constante de aceleración en el poder de procesamiento de la información según lo predicho por la Ley de Moore, pero ahora parece que esta tasa de crecimiento exponencial es limitada. Los nuevos desarrollos dependen de la inteligencia artificial y el aprendizaje automático, pero ellos procesos relacionados no se conocen ni entienden en gran medida ". Muchos métodos de aprendizaje automático, como el aprendizaje profundo muy popular, tienen mucho éxito, pero funcionan como una caja negra, lo que significa que no sabemos exactamente qué está sucediendo.Queríamos entender cómo funciona la inteligencia artificial y comprender mejor las conexiones involucradas ", dijo la profesora Susanne Gerber, especialista en bioinformática en la Universidad de Mainz. Junto con la profesora Illia Horenko, experta en informática en la Università della Svizzera italiana y becaria de Mercatorde la Freie Universität Berlin, ha desarrollado una técnica para realizar cálculos increíblemente complejos a bajo costo y con alta confiabilidad. Gerber y Horenko, junto con wiSus coautores han resumido su concepto en un artículo titulado "Discretización, predicción y selección de características escalables de bajo costo para sistemas complejos" publicado recientemente en Avances científicos . "Este método nos permite llevar a cabo tareas en una PC estándar que anteriormente habría requerido una supercomputadora", enfatizó Horenko. Además de las predicciones meteorológicas, la investigación ve numerosas aplicaciones posibles, como resolver problemas de clasificación en bioinformática, imagenanálisis y diagnóstico médico.
Descomponiendo sistemas complejos en componentes individuales
El documento presentado es el resultado de muchos años de trabajo en el desarrollo de este nuevo enfoque. Según Gerber y Horenko, el proceso se basa en el principio de Lego, según el cual los sistemas complejos se dividen en estados o patrones discretos.Con solo unos pocos patrones o componentes, es decir, tres o cuatro docenas, se pueden analizar grandes volúmenes de datos y se puede predecir su comportamiento futuro ". Por ejemplo, utilizando el algoritmo SPA podríamos hacer un pronóstico basado en datos de temperaturas de superficie enEuropa para el día que viene y tiene un error de predicción de solo 0.75 grados Celsius ", dijo Gerber. Todo funciona en una PC ordinaria y tiene una tasa de error que es un 40 por ciento mejor que los sistemas informáticos que suelen usar los servicios meteorológicos, a la vez que esmucho mas barato.
SPA o aproximación probabilística escalable es un concepto matemático. El método podría ser útil en diversas situaciones que requieren grandes volúmenes de datos para ser procesados automáticamente, como en biología, por ejemplo, cuando se necesita un gran número de célulasclasificado y agrupado. "Lo que es particularmente útil sobre el resultado es que podemos comprender qué características se usaron para clasificar las células", agregó Gerber. Otra área potencial de aplicación es la neurociencia. El análisis automatizado de las señales de EEG podría formar elbase para las evaluaciones del estado cerebral. Incluso podría usarse en el diagnóstico de cáncer de mama, ya que las imágenes de mamografía podrían analizarse para predecir los resultados de una posible biopsia.
"El algoritmo SPA puede aplicarse en varios campos, desde el modelo de Lorenz hasta la dinámica molecular de los aminoácidos en el agua", concluyó Horenko. "El proceso es más fácil y económico y los resultados también son mejores en comparación con los producidospor las actuales supercomputadoras de última generación "
Fuente de la historia :
Materiales proporcionado por Johannes Gutenberg Universitaet Mainz . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :