La inteligencia artificial, comúnmente conocida como IA, ya está excediendo las habilidades humanas. Los automóviles autónomos usan la IA para realizar algunas tareas de manera más segura que las personas. Las empresas de comercio electrónico usan la IA para adaptar los anuncios de productos a los gustos de los clientes más rápido y conmás precisión que cualquier analista de marketing de respiración.
Y, pronto, la IA se usará para "leer" imágenes biomédicas con mayor precisión que el personal médico solo, proporcionando una mejor detección temprana del cáncer de cuello uterino a un costo menor que los métodos actuales.
Sin embargo, esto no significa necesariamente que los radiólogos pronto estarán fuera del negocio.
"Los humanos y las computadoras son muy complementarios", dice Sharon Xiaolei Huang, profesora asociada de ciencias de la computación e ingeniería en la Universidad de Lehigh en Bethlehem, PA. "De eso se trata la IA".
Huang dirige el Laboratorio de análisis y emulación de datos de imágenes en Lehigh, donde trabaja en inteligencia artificial relacionada con la visión y los gráficos, o, como dice: "crear técnicas que permitan a las computadoras comprender las imágenes de la manera en que los humanos lo hacen".es entrenar computadoras para comprender imágenes biomédicas.
Ahora, como resultado de 10 años de trabajo, Huang y su equipo han creado una técnica de detección de cáncer de cuello uterino que, basada en un análisis de un conjunto de datos muy grande, tiene el potencial de desempeñarse tan bien o mejor que la interpretación humana en otros métodos tradicionalesresultados de pruebas de detección, como pruebas de Papanicolaou y pruebas de VPH, a un costo mucho más bajo. La técnica podría usarse en países menos desarrollados, donde se produce el 80% de las muertes por cáncer cervical.
Los investigadores están buscando financiación para el próximo paso en su proyecto, que es realizar ensayos clínicos utilizando este método de detección basado en datos.
Una herramienta de detección más precisa, a menor costo
El sistema de detección de Huang se basa en clasificadores basados en imágenes un algoritmo que clasifica los datos construidos a partir de una gran cantidad de imágenes de Cervigram. Los Cervigramas son imágenes tomadas por cervicografía digital, un método de examen visual no invasivo que toma una fotografía del cuello uterino.Las imágenes, cuando se leen, están diseñadas para detectar la neoplasia intraepitelial cervical NIC, que es el cambio potencialmente precanceroso y el crecimiento anormal de las células escamosas en la superficie del cuello uterino.
"Los cervigramas tienen un gran potencial como herramienta de detección en las regiones de escasos recursos donde las pruebas clínicas como el Papanicolaou y el VPH son demasiado caras para que estén disponibles", dice Huang. "Sin embargo, existe preocupación sobre la efectividad general de los Cervigramas debido ainformes de escasa correlación entre el reconocimiento de lesiones visuales y la enfermedad de alto grado, así como el desacuerdo entre los expertos al calificar los hallazgos visuales ".
Huang pensó que los algoritmos informáticos podrían ayudar a mejorar la precisión en la clasificación de lesiones utilizando información visual, una sospecha que, hasta ahora, está demostrando ser correcta.
Debido a que se ha demostrado que la técnica de Huang, a través de un análisis del conjunto de datos muy grande, es más sensible, capaz de detectar anormalidades, así como más específica menos falsos positivos, podría usarse para mejorar el cáncer cervicaldetección en países desarrollados como los EE. UU.
"Nuestro método sería una adición efectiva de bajo costo a una batería de pruebas que ayuda a reducir la tasa de falsos positivos, ya que proporciona un 10% mejor de sensibilidad y especificidad que cualquier otro método de detección, incluidas las pruebas de Papanicolaou y VPH", dice Huang.
Correlacionando las características visuales y los datos del paciente con el cáncer
Para identificar las características que son más útiles en la detección del cáncer, el equipo creó características piramidales hechas a mano componentes básicos de los sistemas de reconocimiento, e investigó el desempeño de un marco común de aprendizaje profundo conocido como redes neuronales convolucionales CNN para la clasificación de la enfermedad cervical.
Describen sus resultados en un artículo en la edición de marzo de Reconocimiento de patrones llamado: "Punto de referencia de base multifunción para la clasificación de displasia cervical". Los investigadores también han publicado el conjunto de datos multifuncional y evaluaciones extensas utilizando siete clasificadores clásicos.
Para construir la herramienta de detección, Huang y su equipo utilizaron datos de 1.112 visitas de pacientes, donde se encontró que 345 de los pacientes tenían lesiones que eran positivas para displasia moderada o grave consideradas de alto grado y con probabilidad de desarrollar cáncer y767 tenían lesiones que eran negativas consideradas de bajo grado con displasia leve típicamente eliminada por el sistema inmune.
Estos datos se seleccionaron de un gran archivo médico recopilado por el Instituto Nacional del Cáncer de EE. UU. Que consta de información de 10,000 mujeres anonimizadas que se examinaron mediante múltiples métodos, incluyendo Cervigrams, durante varias visitas. Los datos también contienen el diagnóstico y el resultado decada paciente
"El programa que hemos creado segmenta automáticamente las regiones de tejido que se ven en las fotos del cuello uterino, correlacionando las características visuales de las imágenes con el desarrollo de lesiones precancerosas", dice Huang. "En la práctica, esto podría significar que el personal médico analiza un nuevoel Cervigram del paciente podría recuperar datos sobre casos similares, no solo en términos de óptica, sino también de patología, ya que el conjunto de datos contiene información sobre los resultados de las mujeres en diversas etapas de la patología ".
Del estudio:. "... con respecto a la precisión y la sensibilidad, nuestro descriptor de características PLBP-PLAB-PHOG hecho a mano con clasificador forestal aleatorio RF.PLBP-PLAB-PHOG supera a cada prueba de Papanicolaou o prueba de VPH,cuando se logra una especificidad del 90%. Cuando no está limitado por el requisito de especificidad del 90%, nuestro clasificador basado en imágenes puede lograr una precisión general aún mejor. Por ejemplo, nuestras características CNN ajustadas con el clasificador Softmax pueden lograr una precisión del 78.41% con80.87% de sensibilidad y 75.94% de especificidad en el umbral de probabilidad predeterminado 0.5. En consecuencia, en este conjunto de datos, nuestros clasificadores basados en imágenes de menor costo pueden tener un rendimiento comparable o mejor que la interpretación humana basada en pruebas de Papanicolaou y VPH ampliamente utilizadas ... "
Según los investigadores, sus clasificadores logran una mayor sensibilidad en un área particularmente importante: detectar displasia moderada y grave, o cáncer.
Explorando la clasificación con una técnica de imagen mejorada
Entre los otros proyectos de Huang se encuentra una colaboración con Chao Zhou, profesor asistente de ingeniería eléctrica e informática en Lehigh. Están trabajando en el uso de una técnica de imagen médica establecida llamada microscopía de coherencia óptica OCM, la más utilizada en oftalmología.- para analizar el tejido mamario para producir diagnósticos asistidos por computadora. Su análisis está diseñado para ayudar a los cirujanos a minimizar el tejido extraído mientras operan en pacientes con cáncer al proporcionar información altamente precisa y en tiempo real sobre la salud del tejido extirpado.
Recientemente realizaron un estudio de viabilidad con resultados prometedores que se han publicado en un artículo en Análisis de imagen médica llamado: "Características de textura de patrón binario local integrado para la clasificación de imágenes mamarias de tejido mamario mediante microscopía de coherencia óptica"
Huang y Zhou utilizaron funciones de imagen integradas y de múltiples escalas para mejorar la precisión de la clasificación y lograron una alta sensibilidad 100% y especificidad 85,2% para la detección del cáncer mediante imágenes OCM.
"Chao ha trabajado mucho en la nueva instrumentación, mejorando la calidad de las imágenes biomédicas", dice Huang. "Dado que trabaja en las imágenes, o en los datos de entrada, y yo trabajo en los resultados del análisis de datos- o resultados, nuestra colaboración es un ajuste natural "
Fuente de la historia :
Materiales proporcionados por Universidad de Lehigh . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :