Para comprender el mundo, organizamos objetos, personas y eventos individuales en diferentes categorías o conceptos. Conceptos como 'el teléfono' consisten principalmente en características visibles, es decir, forma y color, y sonidos, como el timbre. Además,hay acciones, es decir, cómo usamos un teléfono.
Sin embargo, el concepto de teléfono no solo surge en el cerebro cuando tenemos un teléfono frente a nosotros. También aparece cuando el término simplemente se menciona. Si leemos la palabra "teléfono", nuestro cerebro también invoca elconcepto de teléfono. Se activan las mismas regiones del cerebro que se activarían si realmente viéramos, escucháramos o usáramos un teléfono. De esta manera, el cerebro parece simular las características de un teléfono cuando solo se menciona su nombre.
Hasta ahora, sin embargo, no estaba claro, dependiendo de la situación, si se llamaba el concepto completo de un teléfono o solo características individuales como sonidos o acciones y si solo las áreas del cerebro que procesan la característica respectiva se activan., cuando pensamos en un teléfono, ¿pensamos siempre en todas sus funciones o solo en la parte que se necesita en este momento? ¿Recuperamos nuestro conocimiento sólido cuando suena un teléfono, pero nuestro conocimiento de acción cuando lo usamos?
Investigadores del Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas en Leipzig han encontrado la respuesta: depende de la situación. Si, por ejemplo, los participantes del estudio pensaron en los sonidos asociados con la palabra "teléfono", el correspondienteSe activaron áreas auditivas en la corteza cerebral, que también se activan durante la audición real. Al pensar en usar un teléfono, las áreas somatomotoras que subyacen a los movimientos involucrados entraron en acción.
Además de estas áreas sensoriamente dependientes, las llamadas áreas específicas de la modalidad, se encontró que hay áreas que procesan los sonidos y las acciones juntas. Una de estas áreas llamadas multimodales es el lóbulo parietal inferior izquierdo LPI. Se activó cuando se solicitaron ambas funciones.
Los investigadores también descubrieron que, además de las características basadas en impresiones y acciones sensoriales, debe haber otros criterios por los cuales entendemos y clasificamos los términos. Esto se hizo evidente cuando a los participantes solo se les pidió que distinguieran entre palabras reales e inventadas.Aquí, una región que no estaba activa para acciones o sonidos entró en acción: el llamado lóbulo temporal anterior ATL. Por lo tanto, el ATL parece procesar conceptos de manera abstracta o "amodal", completamente separada de las impresiones sensoriales.
A partir de estos hallazgos, los científicos finalmente desarrollaron un modelo jerárquico para reflejar cómo se representa el conocimiento conceptual en el cerebro humano. Según este modelo, la información se transmite de un nivel jerárquico al siguiente y al mismo tiempo se vuelve más abstracta conEn el nivel más bajo, por lo tanto, están las áreas específicas de la modalidad que procesan las impresiones o acciones sensoriales individuales, que transmiten su información a las regiones multimodales como el IPL, que procesan varias percepciones vinculadas simultáneamente, como sonidos y acciones.El ATL amodal, que representa características separadas de las impresiones sensoriales, opera en el nivel más alto. Cuanto más abstracta es una característica, mayor es el nivel en el que se procesa y más se aleja de las impresiones sensoriales reales.
"Demostramos así que nuestros conceptos de cosas, personas y eventos se componen, por un lado, de las impresiones sensoriales y acciones asociadas con ellos y, por otro lado, de características abstractas similares a símbolos", explica PhilippKuhnke, autor principal del estudio, que se publicó en la revista corteza cerebral . "Las funciones que se activan dependen en gran medida de la situación o tarea respectiva", agregó Kuhnke.
en un estudio de seguimiento en corteza cerebral , los investigadores también encontraron que las regiones específicas de modalidad y multimodales trabajan juntas de una manera dependiente de la situación cuando recuperamos características conceptuales. La IPL multimodal interactuó con áreas auditivas al recuperar sonidos y con áreas somatomotoras al recuperar acciones. Esto demostró quela interacción entre regiones específicas de modalidad y multimodales determinó el comportamiento de los participantes del estudio. Cuanto más trabajaban juntas estas regiones, más fuertemente asociaban los participantes las palabras con acciones y sonidos.
Los científicos investigaron estas correlaciones con la ayuda de varias tareas de palabras que los participantes resolvieron mientras estaban acostados en un escáner de resonancia magnética funcional fMRI. Aquí, tuvieron que decidir si asociaban fuertemente el objeto nombrado con sonidos o acciones.los investigadores les mostraron palabras de cuatro categorías: 1 objetos asociados con sonidos y acciones, como "guitarra", 2 objetos asociados con sonidos pero no con acciones, como "hélice", 3 objetos no asociados con sonidos sino con acciones, como "servilleta" y 4 objetos asociados ni con sonidos ni con acciones, como "satélite".
Fuente de la historia :
Materiales proporcionado por Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :