Una enigmática habilidad: la audición en ruido (Parte II)

Decíamos en la primera parte de esta entrada del blog que la audición en ruido es una habilidad auditiva que varía entre individuos, siendo algunos más hábiles que otros a la hora procesar el sonido en entornos ruidosos. Además, apuntábamos que las causas de estas diferencias no son todavía del todo conocidas por la ciencia. El sentido común nos dice que la respuesta al enigma de la audición en ruido debe encontrarse en la organización cerebral de áreas auditivas, las cuales podrían modelarse en función del tipo de experiencia auditiva temprana que tenga cada individuo. Debido a ello, en los últimos años numerosos estudios se han centrado en comprender qué ocurre en las áreas auditivas cerebrales al escuchar en situaciones de ruido.

Antes de analizar estudios con humanos debemos resaltar que estudios con animales han puesto de manifiesto que la experiencia sensorial temprana es crítica para el desarrollo normal de las estructuras cerebrales encargadas de procesar información sensorial (e.g., córtex auditivo o visual; Eggermont, 2008). Por ejemplo, algunos estudios han encontrado que animales que crecen en ambientes con abundante estimulación sensorial muestran un mayor número de sinapsis y células gliales, así como sistemas cerebrales vasculares más sofisticados que aquellos que crecen en ambientes con baja estimulación sensorial (Ver Stiles & Jernigan, 2010). En el campo exclusivamente auditivo, numerosos estudios han demostrado que la organización tonotópica del córtex auditivo primario de gatos se ve drásticamente alterada cuando estos animales crecen en ambientes con altos niveles de ruido de fondo (Bao, Chang, Davis, Gobeske, & Merzenich, 2003; Chang & Merzenich, 2003). Por lo tanto, los estudios con animales parecen indicar que la experiencia sensorial temprana modela el desarrollo cerebral de las áreas destinadas a procesar funciones sensoriales.

La investigación con humanos ha puesto de manifiesto que los potenciales evocados auditivos corticales originados al procesar el sonido se ven afectados por la razón señal ruido tanto en adultos (Billings, Tremblay, Stecker, & Tolin, 2009; Whiting, Martin, & Stapells, 1998) como en niños oyentes (Anderson, Chandrasekaran, Yi, & Kraus, 2010). Estos estudios han mostrado de manera consistente que las ondas corticales de latencia temprana (P1-N1, P2-N2) son moduladas en función del nivel de ruido presente. Más concretamente, cuando la razón señal-ruido disminuye (mayor enmascaramiento de la señal) las amplitudes de estas ondas decrecen y las latencias se incrementan. La figura 1 muestra como las ondas corticales de latencia temprana originadas ante un tono puro de 1000Hz presentado a 60dB se modifican (amplitud y latencia) a medida que la razón señal ruido disminuye. Es decir, a medida que el ruido aumenta la respuesta auditiva cortical al tono puro va desapareciendo. Si tenemos en cuenta que la amplitud de una onda cerebral refleja el número de neuronas de un determinado área cerebral activándose al mismo tiempo (en este caso el córtex auditivo primario y secundario), podríamos interpretar la ausencia de respuesta cortical en bajos niveles de razón señal ruido como una desorganización de activación neuronal ante la presencia de un estímulo auditivo irreconocible o enmascarado.

Picture1
Figura 1. Respuesta cerebral de sujetos adultos normoyentes a un tono puro de 1000Hz presentado a 60dB en diferentes niveles de razón señal ruido (silencio, +20dB, +10dB, 0dB, -5dB, -10dB; eje de ordenadas). En este experimento se empleó ruido blanco para enmascarar la señal.

Por lo tanto, de estos estudios podríamos extraer una conclusión: la respuesta cerebral auditiva se modifica en función de la razón-señal ruido como consecuencia de una descoordinación en el patrón de activación de neuronas en el córtex auditivo. Esta descoordinación neuronal producida por la falta de saliencia del estímulo auditivo podría estar detrás de la dificultad que encontramos a la hora de extraer información auditiva en entornos acústicamente hostiles (con baja razón señal ruido). De hecho, Anderson, Chandrasekaran, Yi, y Kraus (2010), investigaron las habilidades de audición en ruido y la respuesta cortical auditiva de niños oyentes de entre 8 y 13 años y encontraron que aquellos niños con mejores habilidades de audición en ruido presentaban respuestas corticales auditivas más eficientes a la hora de codificar habla en ruido, especialmente en la respuesta de la onda N2. La conclusión a la que llegaron estos autores es que debe existir una relación entre las habilidades de audición en ruido y el patrón de activación cortical presente durante la tarea.

Otros estudios con población adulta donde se ha controlado el tipo de experiencia auditiva previa de los sujetos han llegado a conclusiones similares. En una interesante revisión de estudios, Sanju y Kamur (2016) señalaron que las habilidades de audición en ruido de músicos adultos (experiencia de alta calidad con el sonido) eran mejores que en los adultos no-músicos (experiencia normal con el sonido). Además, los músicos presentaron respuestas corticales auditivas más eficientes que los no-músicos a la hora de codificar habla en ruido, concretamente menores latencias y mayores amplitudes de ondas corticales de latencia temprana. Estos estudios podrían indicar que no solo existe una relación entre las habilidades de audición en ruido y el patrón de activación cortical durante la misma tarea, sino que además éstas dependen, al menos en parte, del tipo de experiencia previa que cada individuo haya tenido con el sonido. Aquellos con mejor y mayor experiencia auditiva previa podrían presentar unos sistemas corticales auditivos más sofisticados los cuales les podrían permitir codificar el sonido en entornos ruidosos de una manera más eficiente. Estos estudios con humanos parecen corroborar los resultados con animales que sugerían que la experiencia sensorial previa modula la organización de áreas cerebrales encargadas de procesar información sensorial.

En conclusión, la evidencia científica sugiere que la experiencia auditiva determina cómo se desarrollan las estructuras auditivas cerebrales, lo cual finalmente determina las futuras habilidades de procesamiento auditivo (incluyendo las habilidades de audición en ruido). Esto podría tener consecuencias a nivel clínico, especialmente si pensamos en estrategias de intervención con niños con pérdida auditiva. El tipo de experiencia auditiva que los niños tengan durante sus primeros años de vida podría ser vital para un desarrollo cerebral óptimo, lo cual en última instancia determinará sus habilidades de procesamiento auditivo (también en situaciones de ruido). Este tema lo discutiremos en una tercera entrada del blog.

 

Referencias

Anderson, S., Chandrasekaran, B., Yi, H. G., & Kraus, N. (2010). Cortical-evoked Potentials Reflect Speech‐in‐noise Perception in Children. European Journal of Neuroscience, 32(8), 1407-1413.

Bao, S., Chang, E. F., Davis, J. D., Gobeske, K. T., & Merzenich, M. M. (2003). Progressive Degradation and Subsequent Refinement of Acoustic Representations in the Adult Auditory Cortex. The Journal of Neuroscience, 23(34), 10765-10775.

Billings, C. J., Tremblay, K. L., Stecker, G. C., & Tolin, W. M. (2009). Human Evoked Cortical Activity to Signal-to-noise Ratio and Absolute Signal Level. Hearing research, 254(1), 15-24.

Chang, E. F., & Merzenich, M. M. (2003). Environmental Noise Retards Auditory Cortical Development. Science, 300(5618), 498-502.

Eggermont, J. J. (2008). The Role of Sound in Adult and Developmental Auditory Cortical Plasticity. Ear and Hearing, 29(6), 819-829.

Sanju, H. K., & Kumar, P. (2016). Enhanced Auditory Evoked Potentials in Musicians: A review of Recent Findings. Journal of Otology.

Stiles, J., & Jernigan, T. L. (2010). The Basics of Brain Development. Neuropsychology review, 20(4), 327-348.

Whiting, K. A., Martin, B. A., & Stapells, D. R. (1998). The Effects of Broadband Noise Masking on Cortical Event-related Potentials to Speech Sounds/ba/and/da/. Ear and Hearing, 19(3), 218-231.

 

 

 

Reorganización funcional y sordera congénita (Parte I)

El cerebro humano, y más concretamente las áreas corticales primarias que se encargan de procesar la información sensorial, necesitan estimulación externa para desarrollarse apropiadamente. Si existe deprivación sensorial, las neuronas corticales del área deprivada se reorganizarán naturalmente para integrar una nueva función. A este fenómeno se le ha denominado reorganización funcional. Como resultado de la reorganización funcional, ciertas habilidades relacionadas con el procesamiento sensorial pueden verse afectadas. Por ejemplo, se ha sugerido que las personas con ceguera congénita muestran habilidades más altas que las personas videntes en tareas de localización auditiva (e.g., Arno et al., 2001, De Volder et al., 1999, Gougoux et al., 2005). Se ha observado que durante estas tareas de localización las personas con ceguera muestran una activación de áreas corticales occipitales, las cuales en cerebros no deprivados sensorialmente se encargan de procesar exclusivamente información visual. Esta reorganización funcional podría explicar la mejora en habilidades de localización auditiva de las personas con ceguera congénita.

Tradicionalmente la reorganización funcional ha sido estudiada en animales y personas que experimentaron algún tipo de deprivación sensorial durante el período crítico. Se entiende período crítico como el intervalo de vida en el que las estructuras y conexiones cerebrales presentan una mayor plasticidad neural. Es decir, el periodo de tiempo en el que el cerebro es más maleable a la hora de formarse y establecer nuevas conexiones y circuitos neuronales. El proceso de desarrollo de estos circuitos neuronales es complejo y está influenciado por predisposiciones genéticas y factores ambientales (Tau & Peterson, 2010). El intervalo de tiempo que abarca el periodo crítico puede variar según la información sensorial, pero a grandes rasgos incluye los tres primeros años de vida (Sharma, Dorman, & Kral, 2005).

No podemos hablar de reorganización funcional sin mencionar el trabajo de Hubel, Wiesel y LeVay (1977) ganadores del premio nobel de medicina en 1981. Estos autores estudiaron los efectos de la deprivación visual en el córtex de monos macacos tras deprivarles de estimulación visual en un ojo. Encontraron que la deprivación visual monocular en el período crítico alteró los patrones básicos de organización dentro del córtex visual primario. Además, su trabajo demostró que cuanto más temprana y más severa era la deprivación visual, mayor era el grado reorganización funcional. El área cortical perteneciente al ojo sano se expandió ocupando el espacio del ojo deprivado mientras que el área cortical destinada a procesar la información del ojo deprivado disminuyó significativamente. La restauración de la visión después del período crítico permitió que los estímulos visuales activaran el córtex visual. Sin embargo, estos estímulos no eran procesados ni supervisados adecuadamente ya que las áreas encargadas de estas tareas estaban destinadas a procesar información del otro ojo (no deprivado). Se había producido una reorganización funcional en las áreas visuales primarias. A día de hoy se desconoce el grado de reversibilidad de la reorganización funcional en el cerebro después del período crítico, aunque parece ser más maleable de lo que se había planteado originalmente (Kalia et al., 2014; vean los resultados de este proyecto en India donde operan a niños y adolescentes de cataratas congénitas: http://www.projectprakash.org/).

¿Qué ocurre en el caso de la deprivación auditiva? Un proceso de reorganización similar al observado en casos de deprivación visual se ha propuesto para personas con sorderas congénitas. Por ejemplo, Bavelier, Dye y Hauser (2006) compararon las habilidades espaciales visuales de un grupo de personas sordas con un grupo de oyentes y encontraron que los participantes sordos mostraron mayor visión periférica en tareas complejas que requerían de más atención. Estas habilidades estaban acompañadas de una reorganización en tres áreas corticales: el córtex auditivo secundario, el surco temporal posterior y el córtex parietal posterior. La investigación con animales también ha demostrado una mejora en las habilidades visuales de gatos con sodera congénita (e.g., Lomber, Meredith, & Kral, 2010; Klinke, Hartmann, Heid, Tillein, & Kral, 2001).

Es importante tener en cuenta que, aunque la reorganización auditiva ha sido tradicionalmente estudiada durante el período crítico, también se ha observado en adultos con diferentes grados de pérdida auditiva, incluyendo sordera unilateral (Campbell & Sharma, 2014; Sharma et al., 2005; Sharma & Glick, 2016; Sharma et al., 2016). En la próxima entrada hablaremos del efecto que los implantes cocleares tienen en este proceso de reorganización.

Referencias

Arno, P., De Volder, A. G., Vanlierde, A., Wanet-Defalque, M. C., Streel, E., Robert, A., Sanabria-Bohorquez, S., Veraart, C. (2001). Occipital activation by pattern recognition in the early blind using auditory substitution for vision. Neuroimage, 13:632–645.

Bavelier, D., Dye, M. W., & Hauser, P. C. (2006). Do deaf individuals see better? Trends in Cognitive Sciences10(11), 512-518.

Campbell, J., & Sharma, A. (2014). Cross-modal re-organization in adults with early stage hearing loss. PloS One9(2), e90594.

De Volder, A. G., Catalan-Ahumada, M., Robert, A., Bol, A., Labar, D., Coppens, A., … & Veraart, C. (1999). Changes in occipital cortex activity in early blind humans using a sensory substitution device. Brain Research, 826(1), 128-134.

Gougoux F, Zatorre RJ, Lassonde M, Voss P, Lepore F (2005) A functional neuroimaging study of sound localization: visual cortex activity predicts performance in early-blind individuals. PLoS Biol 3:e27.

Hubel, D. H., Wiesel, T. N., & LeVay, S. (1977). Plasticity of ocular dominance columns in monkey striate cortex. Philosophical Transactions of the Royal Society of London B: Biological Sciences278(961), 377-409. Neuroscience8(5), 393.

Kalia, A., Lesmes, L. A., Dorr, M., Gandhi, T., Chatterjee, G., Ganesh, S., … & Sinha, P. (2014). Development of pattern vision following early and extended blindness. Proceedings of the National Academy of Sciences111(5), 2035-2039

Klinke, R., Hartmann, R., Heid, S., Tillein, J., & Kral, A. (2001). Plastic changes in the auditory cortex of congenitally deaf cats following cochlear implantation. Audiology and Neurotology6(4), 203-206.

Lomber, S. G., Meredith, M. A., & Kral, A. (2010). Cross-modal plasticity in specific auditory cortices underlies visual compensations in the deaf. Nature Neuroscience13(11), 1421-1427.

Sharma, A., Dorman, M. F., & Kral, A. (2005). The influence of a sensitive period on central auditory development in children with unilateral and bilateral cochlear implants. Hearing Research203(1), 134-143.

Sharma, A., & Glick, H. (2016). Cross-modal re-organization in clinical populations with hearing loss. Brain Sciences, 6(1), 4.

Sharma, A., Glick, H., Campbell, J., Torres, J., Dorman, M., & Zeitler, D. M. (2016). Cortical plasticity and reorganization in pediatric single-sided deafness pre-and postcochlear implantation: a case study. Otology & Neurotology37(2), e26-e34.

Tau, G. Z., & Peterson, B. S. (2010). Normal development of brain circuits. Neuropsychopharmacology, 35(1), 147-168.

 

Una enigmática habilidad: La audición en ruido (Parte I)

Cualquier persona ha experimentado dificultades para comprender a otra en entornos ruidosos como por ejemplo en un restaurante abarrotado de gente, en un bar con música alta o en un centro comercial en plenas rebajas. Esta experiencia nos dice que cuanto mayor es el ruido a nuestro alrededor mayores son las dificultades que encontramos para entender a la persona con la que estamos manteniendo una conversación. Aún siendo esta experiencia compartida por el común de los mortales, los niveles de ruido que cada persona puede tolerar manteniendo el nivel de comprensión del mensaje varían en función de cada individuo.

La habilidad de dirigir la atención a un determinado estímulo auditivo de interés e ignorar el resto de estímulos auditivos del entorno se conoce como el efecto “cóctel party” (Pollack & Pickett, 1957). Esta habilidad varía entre personas, siendo algunas de ellas extremadamente hábiles a la hora de extraer la voz del entorno ruidoso, el instrumento o cualquiera que sea el estímulo que en ese momento sea de su interés, mientras que otras personas se muestran menos hábiles ante la misma tarea. Pero, ¿de qué dependen estas habilidades?, ¿por qué unas personas muestran más destreza que otras a la hora de extraer información auditiva, como por el ejemplo el habla, en entornos ruidosos? Estas preguntas llevan años despertando el interés de los científicos y todavía hoy no han sido del todo resueltas.

Estudios previos han mostrado que la edad es un predictor de habilidades de audición en ruido. Niños y ancianos muestran peores habilidades de comprensión del lenguaje en ruido que adultos (e.g. Pichora-Fuller, Scheneider, & Daneman, 1995). Esto podría sugerir que, desde un punto de vista neurofisiológico y frente a la misma tarea auditiva, un sistema auditivo maduro es más hábil a la hora de extraer información del entorno ruidoso que un sistema en desarrollo o uno en declive. También se ha aportado evidencia que muestra que las personas con problemas de audición presentan mayores dificultades a la hora de escuchar en ruido que personas con audición normal, incluso cuando las primeras hacen uso de sus prótesis auditivas, ya sean audífonos o implantes cocleares (e.g. Payton, Uchanski and Braida, 1994). Esto pone de manifiesto que es necesario un sistema auditivo en óptimas condiciones para rendir al máximo en tareas que requieren escuchar en ruido.

Por lo tanto, de los estudios anteriores podemos extraer que un adulto normoyente de mediana edad será capaz de extraer información relevante en entornos acústicamente más hostiles que niños, ancianos y personas con dificultades auditivas. Sin embargo, existen también diferencias notables en cuanto a las habilidades de audición en ruido entre la población adulta normoyente, lo cual indica que existen otros factores mediadores de estas habilidades más allá de la edad o el grado de pérdida auditiva. Estos factores han sido fruto de investigación en los últimos años y entre ellos se han propuesto: la memoria de trabajo (Rönnberg, Rudner, Lunner, & Zekveld, 2010), las habilidades cognitivas (Rönnberg, Rudner, Foo, & Lunner, 2008), el nivel de lenguaje (Mayo, Florentine, & Buus, 1997) y el contexto lingüístico del mensaje (Sheldon, Pichora-Fuller, & Schneider, 2008). Es decir, la evidencia científica sugiere que adultos normoyentes con mayores habilidades en estos dominios (cognitivo, memoria de trabajo y lingüístico) y familiarizados con el contexto lingüístico en el que se emite el mensaje, tienden a mostrar mayores habilidades de audición en ruido que otros con menores habilidades en los mismos dominios y no familiarizados con el contexto lingüístico.

Estas investigaciones han arrojado algo de luz al enigma que rodea a la habilidad de oír en situaciones de ruido. Sin embargo, todavía existen preguntas por resolver, sobre todo en el terreno neurofisiológico. ¿Existe alguna relación entre las diferencias en el rendimiento en este tipo de tareas y la organización neural de áreas auditivas cerebrales? Algunas hipótesis podrían ir dirigidas a pensar que existen diferencias a nivel cerebral entre personas hábiles y menos hábiles a la hora de extraer información auditiva en entornos ruidosos. Si así fuera, podríamos plantearnos si estas diferencias pudieran deberse a aspectos puramente genéticos, o si por el contrario, la experiencia auditiva pudiera jugar un papel importante. Igualmente, si la experiencia fuese relevante a la hora de desarrollar áreas cerebrales destinadas a procesar información auditiva, y en consecuencia tuviese un impacto en el desarrollo de las habilidades de audición en ruido de cada persona, podríamos plantearnos qué tipo de experiencia sería las más indicada para desarrollar dichas habilidades. Por un lado, podríamos platear como hipótesis que personas con mejores habilidades de audición en ruido serán aquellas que hayan tenido más oportunidades de practicar en ese entorno. Por el contrario, podríamos también pensar que serán aquellas que hayan tenido algún tipo de experiencia temprana enriquecida con el sonido las que mostrarán mayores habilidades para oír en ruido (e.g. los músicos).

Como vemos, pese a los resultados aportados por las investigaciones mas recientes, son muchos los enigmas que todavía se plantean en torno a la habilidad de escuchar en ruido. Sólo muy recientemente se ha dirigido la atención a este tipo de preguntas desde el ámbito neurofisiológico. Estos estudios, aunque todavía muy preliminares los abordaremos próximamente en otra entrada del blog.

Referencias

Mayo, L. H., Florentine, M., & Buus, S. (1997). Age of second-language acquisition and perception of speech in noise. Journal of Speech, Language, and Hearing Research, 40(3), 686-693

Payton, K. L., Uchanski, R. M., & Braida, L. D. (1994). Intelligibility of conversational and clear speech in noise and reverberation for listeners with normal and impaired hearing. The Journal of the Acoustical Society of America, 95(3), 1581-1592.

Pichora‐Fuller, M. K., Schneider, B. A., & Daneman, M. (1995). How young and old adults listen to and remember speech in noise. The Journal of the Acoustical Society of America, 97(1), 593-608.

Pollack, I., & Pickett, J. M. (1957). Cocktail party effect. The Journal of the Acoustical Society of America, 29(11), 1262-1262.

Rönnberg, J., Rudner, M., Foo, C., & Lunner, T. (2008). Cognition counts: A working memory system for ease of language understanding (ELU). International Journal of Audiology, 47(2), S99-S105.

Rönnberg, J., Rudner, M., Lunner, T., & Zekveld, A. A. (2010). When cognition kicks in: Working memory and speech understanding in noise. Noise and Health, 12(49), 263.

Sheldon, S., Pichora-Fuller, M. K., & Schneider, B. A. (2008). Priming and sentence context support listening to noise-vocoded speech by younger and older adults. The Journal of the Acoustical Society of America, 123(1), 489-499.

 

¿Qué ocurre si no utilizo audífonos? Efectos de la deprivación auditiva

“¡Se va a quedar usted sordo!” escuché a una vendedora de audífonos decir una vez a un paciente que dudaba sobre si ponerse audífonos o no.  Dejando al margen la discusión sobre la agresividad comercial de esta afirmación, es cierto que la posibilidad de perder más audición se valora a la hora de decidir si utilizar audífonos o no. Los pacientes preguntan sobre ello y lo tienen en cuenta para tomar la decisión. Por su lado, los audiólogos intentan asesorar al paciente sobre los beneficios del uso de audífonos y los riesgos potenciales de no hacerlo.

Pero, ¿qué ocurre realmente si una persona con pérdida de audición no utiliza audífonos? ¿Realmente se acelera la progresión su pérdida auditiva? Si entendemos como progresión el empeoramiento de los umbrales auditivos, técnicamente la respuesta es no. Existen estudios que han mostrado que la progresión de la severidad de la hipoacusia no se acelera ni frena por el hecho de utilizar o no audífonos (Silman, S., Gelfand, S., & Silverman, C.A., 1984; Gelfand, S.A., Silman, S., Ross, L., 1987). Sin embargo, si nos fijamos en la capacidad del sistema auditivo para procesar el sonido, la deprivación auditiva (reducción total o parcial de estimulación auditiva) sí podría tener un efecto perjudicial.  Numerosos estudios han indicado que la deprivación auditiva podría provocar un empeoramiento de los porcentajes de reconocimiento verbal (Silman, et al. 1984; Gelfand, et al. 1987; Hurley, 1999). No obstante, estos estudios deben ser interpretados con cautela debido a la baja sensibilidad de la logoaudiometría para detectar cambios en la capacidad de reconocimiento verbal del paciente.

“Existen evidencias que indican que solo tres meses de deprivación auditiva bastarían para que se produjera una reorganización del córtex auditivo.”

En un estudio de 2009 sobre los efectos de la exposición al ruido, Kujawa y Silverman demostraron que se puede dañar el sistema auditivo mediante la exposición a ruido sin que se produzcan cambios en el audiograma, y que estos cambios pueden reducir, por ejemplo, la capacidad de reconocimiento verbal en ruido. ¿Podría la deprivación auditiva provocar un efecto similar? Numerosos estudios han demostrado que la falta de estimulación auditiva puede provocar reclutamiento de áreas del córtex auditivo por parte del córtex visual (e.g. Campbell and Sharma, 2016).

Este fenómeno, conocido como reorganización funcional, ha generado mucho interés por sus efectos en niños y adultos con hipoacusia profunda. Sin embargo, la reorganización funcional también puede ocurrir en adultos con hipoacusia leve y moderada. Campbell y Sharma (2014) estudiaron los efectos de la deprivación auditiva en adultos que no utilizaban audífonos y tenían umbrales auditivos que oscilaban entre hipoacusia leve y moderada. Todos los participantes mostraron evidencia de reorganización funcional, además de una correlación entre los efectos de la reorganización funcional y peores resultados de reconocimiento verbal en ruido.

Actualmente no está claro cuánto tiempo ha de transcurrir en humanos desde la aparición de la hipoacusia para que se produzca una reorganización funcional del córtex auditivo (Glick y Sharma, 2017), aunque existen evidencias que indican que solo tres meses de deprivación auditiva bastarían para que se produjera una reorganización del córtex auditivo (Campbell y Sharma, 2014).

En conclusión, los estudios publicados hasta la fecha no indican que los efectos de la deprivación auditiva provoquen un empeoramiento de los umbrales tonales. Sin embargo, déficits en la estimulación auditiva podrían provocar reorganización funcional donde las áreas auditivas son reclutadas por estímulos visuales y/o sensoriales, independientemente del grado de hipoacusia y de la edad del sujeto. Parece que este fenómeno sí empeora la función del sistema auditivo, especialmente la habilidad de reconocimiento verbal en silencio y en ruido.

Actualmente no existen en la práctica clínica indicadores que permitan predecir el resultado de la intervención audiológica en adultos sometidos a deprivación auditiva (Glick y Sharma, 2017). No obstante, la adaptación temprana de audífonos evitaría la deprivación auditiva y, por tanto, los efectos perjudiciales de que ésta tiene en la organización funcional del córtex auditivo.

Referencias

Campbell, J., Sharma, A., 2014. Cross-modal re-organization in adults with early stage hearing loss. PLoS One 9, e90594.

Campbell, J., Sharma, A., 2016. Visual cross-modal re-organization in children with cochlear implants. PLoS One 11, e0147793.

Dalzell, L.E., Merle, K.S., y Dalzell, S.M. 1992. Speech recognition decline for monaural hearing aid users: Aided versus unaided ears. Paper presented at the Meeting of the American Speech-Language- Hearing Association, San Antonio, TX.

Gelfand, S.A., Silman, S., Ross, L. 1987. Long-term effects of monaural, binaural, and no amplification in subjects with bilateral hearing loss. Scandinavian Audiology, 16, 201-207.

Glick, H., & Sharma, A. (2017). Cross-modal plasticity in developmental and age-related hearing loss: Clinical implications. Hearing Research,343, 191-201.

Hurley, R.M. (1999). Onset of auditory deprivation. Journal of the American Academy of Audiology, 10(10), 529-534.

Kujawa, S.G., Liberman, M.C., 2009. Adding insult to injury: cochlear nerve degeneration after “temporary” noise-induced hearing loss. J. Neuro- sci. 29, 14077-14085.

Palmer, C.V., Nelson, C.T., y Lindley, G.A. 1998. The functionally and physiologically adult auditory system. Journal of the Acoustical Society of America, 103(4), 1705-1721.

Sharma, A., Glick, H., Campbell, J., 2016. Cortical plasticity and reorganization in pediatric single-sided deafness pre-and postcochlear implantation: a case study. Otol. Neurotol. 37, e26-e34.

Silman, S., Gelfand, S., y Silverman, C.A. 1984. Late-onset auditory deprivation: Effects of monaural versus binaural hearing aids. Journal of the Acoustical Society of America, 76(5), 1357-1362.

¿Perjudica la lengua de signos el desarrollo del lenguaje oral?

El pasado 15 de junio se publicaba en la revista científica “Pediatrics” un estudio sobre la exposición temprana a la lengua de signos y los beneficios de la implantación coclear. Esta revista tiene acceso abierto y el artículo original puede leerse aquí (Geers et al., 2017). Como siempre que se publica un estudio que se posiciona claramente del lado oralista o del de la lengua de signos, los medios de comunicación, asociaciones de padres y de profesionales se han hecho eco de la noticia y las notas de prensa se han ido extendiendo de forma exponencial. El hecho de compartir noticias y no acudir a la fuente original puede generar malinterpretaciones. En esta ocasión, numerosos medios (también en español) han publicado la noticia, algunos con titulares tan atrevidos como este de europa press: “el lenguaje de signos reduce el desarrollo de la comunicación oral en niños con implantes cocleares”. En esta entrada os vamos a presentar un resumen del estudio y explicaremos, basándonos en su metodología, por qué no es adecuado concluir que la lengua de signos reduce el lenguaje oral. También discutiremos los resultados principales.

 

 

 

 

Para leer el resumen del estudio pincha aquí

El objetivo de este estudio fue evaluar si el uso de la lengua de signos y modalidades asociadas[1] por parte de los padres antes y después de la implantación influenciaba las habilidades auditivas, de lenguaje oral y lectura en los niños. La muestra incluyó 97 niños con pérdida auditiva de severa a profunda identificados después del establecimiento del cribado neonatal auditivo. Se establecieron tres grupos dependiendo del uso de signos en la casa (siempre que el uso de signos superase el 10% del tiempo) y se evaluaron las habilidades de audición y lenguaje a una edad pre-implante, a los 12, a los 24 y a los 36 meses:

  1. Sin signos: no exposición a signos ni en la casa ni en la intervención en todas las medidas (n = 35).
  2. Corta exposición a signos: signos pre-implante y/o a los 12 meses pero sin exposición a los 24 y 36 meses.
  3. Larga exposición a signos: exposición a signos pre-implante y/o a los 12 meses y también a los 24 y 36 meses.

Los grupos no diferían entre sí en las medidas previas al implante en el nivel de educación de la madre, nivel de pérdida auditiva, edades de identificación de la pérdida auditiva y de intervención, edad de activación del implante, sensibilidad materna, coeficiente intelectual (Escalas Bayley), vocabulario (inventarios Mac-Arthur) y percepción auditiva (cuestionario IT-MAIS).

En general, los niños sin signos mostraron habilidades auditivas y de lenguaje significativamente más altas que los niños con larga exposición a signos. Estas fueron las medidas utilizadas y los resultados:

  • Desarrollo de habilidades auditivas. Midieron el desarrollo de habilidades auditivas durante los tres años posteriores al implante usando una batería de pruebas que incluían el reconocimiento de palabras y audición en ruido (puntuación sobre 600). Los autores encontraron puntuaciones significativamente más altas en el grupo sin signos (M = 394) en comparación con el grupo de larga exposición a signos (M = 374) (p < .004).
  • Inteligibilidad. Midieron la inteligibilidad del habla a los 8 años con una prueba en la que los niños repitan frases y oyentes no familiares las escuchan y transcribían. Se encontraron diferencias significativas entre los niños con larga exposición a signos (50% de inteligibilidad) y los otros dos grupos: corta exposición (63%) y sin signos (70,4%), mostrando el de grupo sin signos los niveles más altos de inteligibilidad. El desarrollo de habilidades auditivas y la inteligibilidad estuvieron medianamente correlacionadas a cada punto de evaluación (12-24-36 meses).
  • Lenguaje oral y lectura. Se evaluaron las habilidades de lenguaje y lectura a los 5-7,9 y a los 9-11,9 años con subpruebas que incluían antónimos, sintaxis, comprensión de frases e historias, habilidades pragmáticas y morfemas; lectura de palabras, frases y textos de acuerdo a la edad. Como pueden observar en el gráfico, en habilidades de lenguaje los niños sin signos estuvieron significativamente por encima de los de larga exposición a los 5-7,9 años y a los 9-11,9 años, y estuvieron por encima de los de corta exposición a los 9-11,9 años. En lectura no hubo diferencias entre los grupos a los 5-7,9 años de edad. A los 9-11,9 años, los niños sin signos estuvieron por encima de los niños con larga exposición.

Untitled

Basándose en estos resultados, los autores concluyen que el uso de signos por parte de los padres después del implante está asociado con un desarrollo lento de la percepción del habla y niveles bajos de inteligibilidad. La exposición corta a signos no ayudó ni empeoró los resultados de percepción de habla o inteligibilidad. Los autores reconocen también una serie de limitaciones que vamos a comentar en nuestra discusión.

 

 

 

 

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​Discusión

Los autores concluyen que las diferencias entre grupos se deben al nivel de exposición a signos ya que los niños no diferían a nivel pre-implante en otras características que tradicionalmente se han asociado con habilidades de lenguaje como el nivel socioeconómico, las edades de identificación, intervención y activación del implante o el coeficiente intelectual. Sin embargo reconocen que, como en todo estudio correlacional, podría haber otras variables que explicasen estas diferencias entre grupos más allá de la exposición a la lengua de signos. Teniendo esto en cuenta, el lector se podría plantear la siguiente pregunta: ¿es la lengua de signos la que “provoca” estos retrasos en el lenguaje o por el contrario los retrasos de lenguaje están ya presentes por otras posibles causas y debido a ello los padres recurren a la lengua de signos? Aunque se controló la muestra en base a distintas variables pre-implante, estas medidas control no se repitieron a lo largo de los años. Es decir, el nivel socioeconómico, la sensibilidad materna o el nivel cognitivo podrían haber cambiado a lo largo de los años y estar explicando parte de la variabilidad en las habilidades de audición, lenguaje y lectura más allá de la exposición a la lengua de signos. Así mismo, existen ciertos factores que no se tuvieron en cuenta (o al menos no se mencionan en el estudio) y que podrían estar influyendo en los resultados como por ejemplo la presencia de neuropatía auditiva, el tiempo de uso y programación de los implantes o la cantidad y calidad de logopedia que estén o hayan recibido entre otras.

En cualquier caso, un solo estudio no puede incluir o controlar todas las posibles variables que pueden afectar a los resultados (en este caso las habilidades auditivas y de lenguaje oral). El conocimiento científico se genera a través de un esfuerzo colectivo y sólo a través de numerosos estudios que repliquen resultados se pueden llegar a conclusiones sólidas. Cada estudio aporta información nueva y hace avanzar nuestro conocimiento. Esto es especialmente cierto en el caso de las ciencias sociales donde usamos estadística inferencial para medir variables que se dan en el entorno natural y ello nos permite hablar de asociaciones entre variables. Solo en estudios donde se puede controlar la variable independiente podemos hablar de causalidad, y este no es el caso del estudio que estamos analizando. Si en este caso pudiéramos modificar la exposición a signos que los niños reciben durante los años post-implante, controlando otras variables, entonces podríamos hablar de que la exposición a “signos reduce, aumenta, afecta, etc.” Pero en este caso, y como bien exponen los autores, podemos hablar de asociación o relación entre la exposición a signos y las habilidades de audición, lenguaje y lectura.

Por otro lado, las críticas principales de este estudio por parte de los defensores del uso de signos son que no incluyen niños con pérdida auditiva hijos de padres sordos y que se mezcla la lengua de signos con otras modalidades. Analicemos estas dos críticas por separado:

  • El estudio no incluye niños signantes de padres sordos. Como los autores exponen, cuando la lengua de signos es transmitida por padres sordos, las habilidades de los niños con pérdida auditiva son similares a las de los oyentes (Davison, Lillo-Martin & Chen, 2014), sin embargo, hay que señalar que esta no es la población de interés en el estudio. Como decíamos antes, pensar que un estudio va a representar a toda la población es demasiado ambicioso. Este estudio se centra en los niños con pérdida auditiva severa/profunda de padres oyentes, que sabemos que representan más del 90% de los niños con pérdida auditiva (Blackwell, Lucas, & Clarke, 2014). Además, es importante tener en cuenta que los niños con pérdida severa/profunda representan un porcentaje muy pequeño de los niños con pérdida auditiva, siendo los niños con pérdida leve el grupo más común (Pittman, & Stelmachowicz, 2003; Russ et al., 2003; Tomblin et al., 2015). El objetivo de los autores es ver el posible efecto de la exposición a signos en estos niños con pérdida auditiva severa/profunda hijos de padres oyentes y es por tanto a esta población a la que alcanzan los resultados. Este estudio no nos proporciona información sobre las habilidades auditivas y lingüísticas de niños con pérdidas de leve a moderada ni de los niños signantes de padres sordos ya que este no es su objetivo.
  • Mezcla de la lengua de signos con otras modalidades. Hay una gran diferencia entre el uso de la lengua de signos por hablantes nativos y el uso que las familias oyentes hacen de la lengua de signos, en la mayoría de los casos usada para dar soporte al lenguaje oral sin respetar su gramática. El hecho de que en este estudio se hable de “early sign language” (lengua de signos temprana) en lugar de exposición temprana a signos puede ser confuso ya que es probable que ninguna de las familias incluidas en este estudio haga un uso fiel de la lengua de signos, principalmente porque no es su lengua materna.  De cualquier modo, no sabemos cuál es la calidad del input en signos que los niños están recibiendo. En este estudio se preguntó a los padres en qué porcentaje usaban signos vs. lengua oral en la casa. Los padres fueron clasificados en signantes frecuentes si usaban signos > 50% del día. Curiosamente, la proporción de signantes frecuentes en el grupo de exposición a signos por largo tiempo bajó de 63% en pre-implante/12 meses a 29% a los 24 o 36 meses. Aunque no hubo correlaciones significativas entre estos porcentajes con las habilidades de lenguaje de los niños a estas edades, esto podría indicar que a medida que los niños van mejorando en sus habilidades de lenguaje oral, el uso del lenguaje de signos va decayendo. Esta idea vendría a corroborar que es probable que los resultados de lenguaje estén afectados por otras causas y no por el uso de la lengua de signos per sé. En cualquier caso, la mezcla de modalidades no debería ser problemática ya que es un reflejo de la realidad que observamos en las familias, pero no ha de confundirse con la lengua de signos.

Por tanto, la idea que los autores sugieren, en respuesta a otras investigaciones que recomiendan el uso de signos en todos los niños sordos (Mellon et al., 2015), es que, quizás la exposición a signos por parte de hablantes no nativos no sea positiva para desarrollar el lenguaje oral. Esta idea concuerda con las ideas de los defensores de la terapia audioverbal, quienes argumentan que debido a que el desarrollo de habilidades auditivas es costoso para el niño con pérdida auditiva, se debe poner énfasis en la información auditiva durante el periodo de aprendizaje y no en “pistas” o información visual (Estabrooks, 2006). Aunque sabemos que hay transferencia entre lenguas (Cummins, 1981) y que manejar una lengua puede ayudar a aprender una segunda lengua, en este caso es cuestionable si la exposición que los niños sordos de padres oyentes están teniendo a los signos puede considerarse una lengua. Algo importante que los autores reconocen es que en este estudio solo se incluyen medidas de habilidades auditivas, lenguaje oral y lectura, sin considerar medidas de lenguaje en signos. Probablemente, si se incluyeran pruebas con signos, las habilidades de los niños en los grupos de signos serían más altas (aunque hay que tener en cuenta que para aprender una lengua se necesita exposición de calidad y al menos durante un 20% del tiempo (Pearson, 2007)). Sabemos por estudios previos que si los niños bilingües orales son evaluados solo en una de las lenguas puede parecer que tienen retraso del lenguaje, mientras que cuando se hace un cómputo total de las dos lenguas los niños muestran resultados similares a los monolingües (American Speech-Language-Hearing Association, 2004; Core, Hoff, Rumiche, & Señor, 2013). No sabemos si este sería el caso de estos niños, de cualquier modo, el objetivo de los autores es aportar evidencia acerca de la idea que muchos profesionales tienen adquirida de que usar signos ayuda al lenguaje oral y por ello todas sus medidas son puramente orales (habilidades auditivas y lenguaje). Probablemente el uso de signos tenga otras ventajas sociales e identificativas que como repetimos no son objetivo del estudio.

En conclusión, sabemos que no todos los niños son iguales y que aun teniendo implante muchos niños pueden tener problemas con la lengua oral y requerir de la lengua de signos. Son los padres los que deciden qué modo de comunicación quieren para sus hijos con información imparcial y, aunque requiere un compromiso, no se debería presentar como una decisión definitiva, sabiendo que a lo largo de la educación de sus hijos pueden hacer uso de distintos recursos. Los profesionales han de proporcionar esa información de manera imparcial y conocer con qué evidencia contamos leyéndola de forma cautelosa. A día de hoy no contamos con evidencia suficiente para argumentar que el uso de signos perjudica el desarrollo del lenguaje oral, pero tampoco para aconsejar que produce un beneficio.

Recomendamos siempre tener en cuenta que un solo estudio no va a resolver una pregunta y leer de manera crítica fijándonos en el objetivo, las medidas y la muestra incluida, teniendo en cuenta que el alcance de los resultados solo atañe a la población con características similares. Pero sobre todo recomendamos consultar siempre a las fuentes originales. La mayoría de las críticas que hemos leído sobre este estudio son especulaciones derivadas de noticias, cuando en el estudio original los autores reconocen y plantean estas limitaciones y además está accesible de manera gratuita.

[1] Comunicación total, inglés signado, baby sign, Pidgin o soporte con signos. Usaremos signos para referirnos a la lengua de signos y a estas modalidades asociadas.

Referencias

American Speech-Language-Hearing Association. (2004). Knowledge and skills needed by speech-language pathologists and audiologists to provide culturally and linguistically appropriate services.

Blackwell D.L., Lucas J.W., & Clarke T.C. (2014).Summary health statistics for U.S. adults: National Health Interview Survey, 2012 (PDF). National Center for Health Statistics. Vital Health Stat 10(260).

Core, C., Hoff, E., Rumiche, R., & Señor, M. (2013). Total and conceptual vocabulary in Spanish–English bilinguals from 22 to 30 months: implications for assessment. Journal of Speech, Language, and Hearing Research, 56(5), 1637-1649.

Cummins, J. (1981). Bilingualism and Minority-Language Children. Language and Literacy Series. The Ontario Institute for Studies in Education, 252 Bloor Street West, Toronto, Ontario M5S 1V6.

Davidson, K., Lillo-Martin, D., & Chen Pichler, D. (2013). Spoken English language development among native signing children with cochlear implants. Journal of deaf studies and deaf education19(2), 238-250.

Estabrooks, W. (Ed.). (2006). Auditory-verbal therapy and practice. Alex Graham Bell Assn for Deaf.

Geers, A. E., Mitchell, C. M., Warner-Czyz, A., Wang, N. Y., Eisenberg, L. S., & CDaCI Investigative Team. (2017). Early Sign Language Exposure and Cochlear Implantation Benefits. Pediatrics, e20163489.

Mellon, N. K., Niparko, J. K., Rathmann, C., Mathur, G., Humphries, T., Napoli, D. J., … & Lantos, J. D. (2015). Should all deaf children learn sign language?. Pediatrics136(1), 170-176.

Pearson B. Z., (2007). Social factors in childhood bilingualism in the United States. Applied Psycholinguistics, 28, 399-410.

Pittman, A. L., & Stelmachowicz, P. G. (2003). Hearing loss in children and adults: audiometric configuration, asymmetry, and progression. Ear and Hearing24(3), 198.

Russ, S. A., Poulakis, Z., Barker, M., Wake, M., Rickards, F., Sounders, K., & Oberklaid, F. (2003). Epidemiology of congenital hearing loss in Victoria, Australia: Epidemiología de la hipoacusia congénita en Victoria, Australia. International journal of audiology42(7), 385-390.

Tomblin, J. B., Walker, E. A., McCreery, R. W., Arenas, R. M., Harrison, M., & Moeller, M. P. (2015). Outcomes of children with hearing loss: Data collection and methods. Ear and Hearing, (1), 14S-23S.
Leer Más

Congreso AEDA 2017

Cuando vives en el extranjero volver a casa es siempre un motivo de alegría y satisfacción. Pero todavía lo es más si a tu vuelta puedes presentar y compartir tu trabajo en uno de los congresos de audiología más importantes del panorama nacional. Reencontrarte con antiguos compañeros, compartir inquietudes sobre el futuro de la profesión o conocer de primera mano las investigaciones que se están llevando a cabo en el entorno nacional es muy reconfortante y a los que estamos fuera nos aporta un chute de energía para seguir persistiendo en nuestra labor investigadora.

Esta fue la oportunidad que nos brindó el congreso de AEDA (Asociación Española de Audiología) que tuvo lugar en Madrid el pasado mes de mayo. En él pudimos asistir a ponencias de alto nivel como las impartidas por el Dr. Fernando Rodríguez Nodal sobre actividad neuronal en el cortex auditivo durante tareas multisensoriales o la impartida por la Dra. Anne Marie Tharpe sobre el manejo de pérdidas auditivas mínimas en niños. Especialmente reconfortante fue observar como jóvenes estudiantes se lanzaban a presentar sus trabajos de final de grado y/o formación profesional en alguna de las comunicaciones libres. Entre ellas cabe resaltar las comunicaciones impartidas por Laura Barreiro sobre el desarrollo de un test de habla en ruido en español (un material altamente demandando en el entorno hispanohablante), Ronara Laureano sobre percepción auditiva en tareas con y sin información visual disponible y Ana E. Fengler sobre el rendimiento del segundo implante en función del tiempo interimplante en niños con pérdida auditiva bilateral. Desde Auris Scientia creemos que España todavía tiene mucho camino por recorrer en cuanto a investigación sobre audiología se refiere, por lo tanto observar a jóvenes promesas que con pocos medios son capaces de presentar trabajos de un nivel científico aceptable es esperanzador.

En Auris Scientia creemos firmemente en la audiología y la logopedia como disciplinas científicas y creemos también que es necesario un impulso de ambas en España. Este congreso de AEDA nos ha servido para observar que existe una pequeña comunidad de científicos españoles con gran potencial en nuestro ámbito y esperamos que en el futuro se puedan ir incrementando el número de investigaciones de calidad sobre audición y lenguaje en nuestro país. Futuros congresos de AEDA en conjunción con otras asociaciones del mismo ámbito como ANA o AELFA supondrán la piedra de toque para dicho desarrollo. Por ello queremos anunciar que tal y como se decidió en la junta de socios de la asociación, el equipo de Auris Scientia formará parte del comité científico del próximo congreso de AEDA que tendrá lugar en Madrid en mayo de 2019 (con nuestro compañero Javier Santos como presidente). El objetivo que nos planteamos para dicho congreso no es otro que el de mantener y mejorar la línea de trabajo establecida por los organizadores (D. Pablo Arias, Dra. Mª Visitación Bartolomé y Dña. Pilar Calero) de este congreso de AEDA 2017. Con nuestro trabajo esperamos fomentar el crecimiento a todos los niveles (investigador, formativo y profesional) de esta maravillosa disciplina de la audición y el lenguaje.

Carlos Benítez Barrera (Auris Scientia)

Screen Shot 2017-05-23 at 1.42.35 PM
Auris Scientia frente a un cuadro de Ramón y Cajal en la sala de conferencias principal del congreso AEDA (De izquierda a derecha, Carlos Benítez, Beatriz De Diego y Javier Santos)

bea_aeda
Beatriz de Diego presentando su trabajo “Predictores de lenguaje en niños con pérdida auditiva en familias hispanas” en formato comunicación”

 

Screen Shot 2017-05-23 at 1.42.47 PM
Carlos Benítez presentando su trabajo “Uso de Sistemas de Micrófono Remoto (SMRs) en el Hogar de Niños con Pérdida Auditiva” en formato comunicación libre

Presentación Auris Scientia

Tras darle muchas vueltas y unos cuantos meses de espera, nace el blog científico sobre las disciplinas de la audición y lenguaje “Auris Scientia” (traducción del latin: “La ciencia del oído”).  Este blog nace de la inquietud de tres jóvenes investigadores (ver la sección quiénes somos) que se encuentran cursando sus estudios de doctorado en Estados Unidos por mantenerse conectados a su país y difundir información científica sobre las disciplinas de la audición y el lenguaje.

No sabemos donde acabará esta aventura, pero esperamos poder poner nuestro granito de arena en el crecimiento de estas disciplinas científicas en el entorno español y/o hispanohablante. Igualmente esperamos aportar información valiosa a profesionales, personas y familias que por uno u otro motivo se vean involucrados en aspectos relacionados con la audición y el lenguaje.

Screen Shot 2017-05-24 at 11.13.02 PM

A %d blogueros les gusta esto: