ATENCIÓN AUDITIVA Y CROSSMODAL

1.- INTRODUCCIÓN

La mayor parte de la investigación realizada a finales del siglo XX se dedicaba a explorar la modalidad visual. Sin embargo, es bueno saber que los  primeros  trabajos experimentales sobre atención utilizaron, mayoritariamente , estímulos auditivos para abordar cuestiones críticas, tales como la naturaleza de la atención selectiva y de la dividida o si la selección tenía lugar en fases tempranas o tardías del procesamiento . Hoy en día, el debate que acapara el interés creciente de la comunidad científica gira en torno a la existencia de distintos tipos de atención, vinculados con diferentes modalidades sensoriales. Por ello, la pregunta que debemos formularnos en la actualidad se dirige, más bien, a conocer cómo se integra la información procedente de las diversas modalidades sensoriales (visión, audición y tacto) y si puede existir algo parecido a una especie de controlador atencional central de naturaleza supramodal.

 

2.- ATENCIÓN SELECTIVA AUDITIVA

Entender un mensaje auditivo, o detectar un target auditivo, depende de nuestra capacidad para analizar y fragmentar los sonidos complejos en componentes más simples. A este proceso de separar el sonido en elementos o componentes auditivos simples se le conoce como “análisis o segregación del continuo auditivo” (streaming segregation ). La segregación del continuo es un tema de gran interés en la investigación sobre atención auditiva. Un clásico ejemplo de ello es lo que se conoce en psicología como el efecto “cocktailparty  “. Si estamos en una fiesta hablando con una amiga y, de repente, escuchamos nuestro nombre en otra conversación a nuestra espalda, seguramente intentaremos atender encubiertamente a lo que se dice de nosotros, a  la vez que seguimos manteniendo la conversación con nuestra amiga.

2.1.- Escucha dicótica: el sombreado

En los años cincuenta del siglo pasado se desarrolló el denominado paradigma de escucha dicótica. Se denomina así porque dos fuentes diferentes de información auditiva se presentan por separado en cada uno de los oídos del sujeto. Por norma general, bajo condiciones de escucha dicótica es mucho más sencillo seleccionar un único mensaje que bajo condiciones de escucha cotidiana (Egan, Carterette y Thwing, 1954). Colin  Cherry  (1953) fue  el primer  investigador  en  aplicar  el  paradigma  de escucha  dicótica  para  estudiar  la atención.  Es sus experimentos,  pidió  a  los  sujetos  que  sombrearan  -repitieran  rápidamente  y  sin demora- uno de los mensajes  (p. ej.: el del oído derecho)  e ignorasen  el otro (el del oído izquierdo). Esta tarea de “sombreado” se realizaba  sorprendentemente  bien. Al  finalizarla, cuando  a los sujetos se les preguntaba  sobre  la información  presentada  en  el oído  no  atendido  o no  sombreado,  se descubrió  que  eran  incapaces  de  informar  del  contenido  del mensaje allí presentado, siendo su única percepción la de haber escuchado sonidos.

Otro investigador, Neville Moray, quiso comprobar si, en efecto, las personas eran tan insensibles al canal no atendido, como apuntaban los datos de Cherry. En una tarea de sombreado, Moray presentó treinta y cinco veces una misma lista de palabras en el oído no atendido. Descubrió que la probabilidad de recordar alguna de estas palabras fue tan baja como la de recordar palabras que nunca fueron presentadas. También descubrió que si el mensaje presentado en el oído no atendido era el mismo que el del oído atendido, los sujetos se percataban de la semejanza, siempre y cuando el desfase o diferencia temporal entre las palabras repetidas de ambos canales no excediera de unos escasos segundos. Los resultados de Moray suponen un serio revés para las teorías de la selección temprana de filtro rígido. El mensaje no atendido se procesaba también hasta un punto inmediatamente  anterior  a la experiencia  consciente,  hasta justo  antes de que la información  accediera  a la consciencia y pudiera comunicarse  abiertamente. Si esta  información  no  atendida  recibía  un poco más de activación atraería la atención de los sujetos y éstos serían conscientes  de ella (lo que estaría en consonancia con la propuesta del filtro atenuado de Treisman.

 

2.2.- Factores que facilitan la selección

Localización espacial. El lugar de procedencia de un mensaje en escucha dicótica es una clave que permite su selección frente al mensaje alternativo. Se sabe que la resolución espacial auditiva es muy limitada, por lo que el número de mensajes que pueden atenderse e ignorarse es también limitado.

Los oídos actúan a modo de canales de procesamiento diferentes, pero el potencial de interferencia entre ellos es elevado si el número de canales activos se incrementa. Por lo tanto, atender a un mensaje auditivo relevante teniendo en cuenta su localización espacial tiene sus limitaciones.

Desfase temporal. Bajo condiciones dicóticas, además de la localización física del mensaje, la existencia de una asincronía o desfase temporal entre las palabras de cada uno de los mensajes es también un importante factor que facilita la   selección.

Tono (frecuencia). El tono actúa como filtro y facilita la selección de una información  en detrimento de otra, en línea con la teoría  de Broadbent. Por  esta razón,  las personas tenemos  más  facilidad  para  atender  a  un  mensaje  e  ignorar  el  alternativo cuando las voces de cada uno de ellos son de género diferente que cuando son del mismo  género.

2.3.- El procesamiento semántico de la información no atendida

Moray (1959) advirtió que la secuencia “puedes parar ahora”, presentada  en el oído no sombreado, hizo que sólo un 8% de los   participantes detuvieran la tarea. Sin embargo, cuando esa misma secuencia estuvo precedida por el nombre del sujeto (p. ej.: “Ana, puedes parar ahora”) el número de participantes  que detuvieron  la ejecución alcanzó el 33%. Treisman (1960 presentó dos mensajes diferentes. Ambos eran relatos significativos y estaban grabados por la misma voz (p. ej.: “vi a la niña saltando en la calle” y “devuélveme hoy el libro de física”). Los mensajes fueron fraccionados, de forma que la primera mitad de cada mensaje fue presentado en un oído y la otra mitad en el otro. Aunque se instruyó a los participantes para que atendieran y sombrearan todo aquello que se presentaba en un único oído, a menudo “saltaron” al canal no atendido en el punto en el que el mensaje se fraccionaba y pasaba al otro canal. Al igual que la pronunciación de nuestro nombre en el canal no atendido puede captar nuestra atención, las palabras que deben ignorarse, pero que se ajustan al contexto de una oración sombreada, también pueden hacerlo.

 Carteen y Wood ( 1972). Estos investigadores condicionaron a las personas a esperar una leve descarga eléctrica al escuchar el nombre de ciertas ciudades. Posteriormente, los participantes realizaron una tarea de escucha dicótica, en la que el mensaje no atendido incluía los nombres de las ciudades condicionadas, mezclados con nombres de otras ciudades y palabras no relacionados. Aunque  los nombres  de las ciudades  condicionadas  no  superaron  el umbral de la experiencia consciente, parece que sí fueron analizados semánticamente  en un  plano inconsciente.

3.- ATENCIÓN DIVIDIDA AUDITIVA

En muchas tareas, el problema no es tanto atender a una única fuente de estimulación, sino dividir la atención entre diversas fuentes.

3.1.- Escucha dicótica: la técnica de amplitud de memoria dividida (split-span)

Utilizando  el  paradigma  de  escucha dicótica, las personas pueden dirigir su atención hacia una única fuente de estimulación en detrimento de otra, siempre que dicha fuente esté bien definida por una propiedad básica como es la localización espacial, el desfase temporal  o  el tono. Algunas  modificaciones  incorporadas  en el paradigma   de escucha dicótica permitieron, además, analizar la habilidad de las personas para dividir su atención entre diferentes fuentes o canales. Una de estas modificaciones fue la denominada técnica de amplitud de memoria dividida (split-span ).

En la técnica de amplitud dividida o split-span, una lista de ítems se fracciona en dos listas más cortas que se presentan, cada una de ellas, en un oído. El sujeto debe atender a ambos oídos a la vez (atención dividida) y, una vez finalizada la presentación estimular, recordar lo que ha escuchado en ambos.

3.2.- Tareas de detección auditiva

En las tareas de detección auditiva  los participantes  escuchan secuencias o series de estímulos auditivos, debiendo indicar cuándo han escuchado un determinado target; por ejemplo, deben presionar un pulsador cuando detecten un tono de 1200 Hz entre secuencias de tonos de otras frecuencias  o sobre un  fondo  de ruido blanco[1].

En principio, las personas tenemos buena capacidad para dividir nuestra atención entre ambos oídos y detectar targets relevantes aislados que pueden aparecer en cualquier de ellos, sin embargo, el problema surge cuando debemos  detectar  dos targets que aparecen al mismo tiempo, uno en cada oído (el llamado “déficit del doble target”) . Esta tarea es muy dificultosa y demuestra que la atención no se puede compartir apropiadamente entre ambos oídos.

Tal como sucedía en las tareas de búsqueda visual, en donde la localización de conjunciones era más difícil que la localización de una característica única, dividir la atención auditiva entre diferentes canales para detectar estímulos relevantes simultáneos es mucho más difícil que atender exclusivamente a una única fuente  de información.

4.- FUNCIONES DE ALERTA DE LA ATENCIÓN AUDITIVA

Nuestra  capacidad para  atender a estímulos  sonoros es, en gran medida,  independiente  de la posición de la cabeza y de los oídos. Por lo tanto,  “esta neutralidad  del sistema  auditivo  lo convierte  en un excepcional sistema  de alerta temprana,  listo para  recibir y procesar  estímulos provenientes  desde cualquier dirección, independientemente de la orientación adoptada por  el organismo”.

Función  de alerta del HOC. Contrariamente a lo que sucede con los ojos, nuestros oídos no se pueden mover con vistas a facilitar la captura del sonido. Sin embargo, esto no excluye que la atención auditiva pueda estar supeditada a algún tipo de control fisiológico interno. La cóclea[2] recibe inputs desde el cerebro y, tal vez, estos inputs puedan ejercer un control sobre dónde dirigir nuestra atención auditiva. De hecho, unas mil cuatrocientas fibras nerviosas  (el llamado haz   olivococlear -HOC-) conectan  el tronco  del encéfalo  con  la cóclea,  transmitiendo  un input que proviene  de los centros  auditivos  del lóbulo temporal.  Este input eferente podría ayudar a sintonizar los receptores sensoriales, favoreciendo la selección de un sonido relevante  en detrimento de otro irrelevante.

Control de la atención visual ejercido por los sonidos ( crossmodalidad). Los sonidos están a menudo asociados con eventos importantes, incluso amenazantes para nuestra vida, es lógico que su presencia alerte de un potencial peligro y que exista una fuerte tendencia a orientar nuestra atención  auditiva  hacia  su lugar de procedencia. Pero, además de controlar la atención auditiva, los sonidos  también  tienen  la capacidad  de  orientar  la atención visual.

La crossmodalidad o vinculación entre modalidades atencionales diferentes (visión y audición) incrementa la prominencia perceptiva de los estímulos. Aumentar la prominencia de eventos que aparecen de forma próxima o simultánea (en el espacio y en el tiempo) puede  ayudamos  a integrar  la información recibida por los diversos sentidos para construir una representación  multimodal  del  ambiente.

 

5.- PREDISPOSICIÓN ATENCIONAL

Predisposición hacia la frecuencia. Los oyentes podemos configurar una especie de “filtro” atencional que nos predispone a detectar una frecuencia concreta, de forma análoga a lo que sucede cuando focalizamos nuestra atención visual en una región específica  del espacio. Un  paradigma  utilizado  frecuentemente  para  estudiar  la predisposición atencional  de una persona  ante la frecuencia  es el llamado paradigma  de  detección  del  estímulo  sonda  (probe-signal  paradigm ).  En  este paradigma,  se familiariza previamente  al sujeto con un  tono  de una  frecuencia determinada (target), que es presentado reiteradamente  de manera  clara y  audible.  A  continuación,   se  le  presentan   dos  breves secuencias  sucesivas  de  ruido  de  fondo  (habitualmente  ruido  blanco), una de las cuales incluye el target o, en su defecto, un tono  desviado  en frecuencia (estímulo sonda o pro be), con una intensidad  en ambos casos que  dificulta  su  detección  (las  detecciones  oscilan  a veces  entre  el  65- 80%). La tarea del sujeto consiste, simplemente, en indicar en cuál de las dos  secuencias  (en  la primera  o  en  la  segunda)  le  pareció  escuchar  el tono target.

Predisposición hacia el espacio. La atención auditiva también parece que puede sintonizarse hacia una ubicación espacial, de ahí que “un adecuado ajuste de la atención auditiva con la localización de los eventos sonoros ayuda al procesamiento de los mismos”. Sin embargo, la realidad es que ésta sólo parece sostenerse cuando el ambiente estimular o la tarea son complejos, pues la precisión para detectar un simple target auditivo no se beneficia demasiado por el hecho de conocer, por anticipado, su lugar de procedencia (Lowe, 1968; Scharf,  1988).

No obstante, a pesar de que la localización no  parece  ser un factor muy eficiente para la selección, algunos estudios sí que han demostrado que conocer por adelantado la procedencia espacial de un sonido puede beneficiar su detección, al menos si el estímulo se emite desde  altavoces lo suficientemente alejados de la posición del sujeto, y no mediante auriculares.

Conclusiones. A pesar de estos últimos resultados descritos, se impone la hipótesis de que la frecuencia parece ser más importante que la localización espacial para orientar la atención auditiva. El espacio no parece desempeñar un papel tan relevante durante el procesamiento auditivo, como sí lo hace durante el procesamiento  visual.

5.1.- Atendiendo a diferentes  modalidades sensoriales

El procesamiento multisensorial es algo tan cotidiano que habitualmente no nos percatamos de su existencia. Son numerosas las tareas cotidianas que requieren que se integre la información recogida desde los diversos sentidos. Cuando vamos de pesca, la apariencia visual de la carnada, su frescura, la temperatura del agua, el viento, el coeficiente de la marea, un mínimo  conocimiento de fondo marino y de las especies que lo habitan, pueden ser determinantes en el éxito de la jornada. Pues bien, la psicología de la atención se ha interesado por estudiar ciertas cuestiones relacionadas con el uso e integración de la información procedente de diversas modalidades sensoriales (crossmodalidad).

Los beneficios del procesamiento multisensorial. Diversos estudios han demostrado que, en ocasiones,  es posible  atender a la información  procedente de varias modalidades  sensoriales, en lugar de a una sola, sin aparente coste. Por ejemplo, la detección de tres estímulos -visual, olfativo y táctil- presentados  simultáneamente  puede  ser igual de correcta que cuando  son  presentados  aisladamente,  uno  tras  otro  (Shiffrin  y  Grantham, 1974). Es  más,  en ocasiones la presentación corssmodal es muy ventajosa frente a la unimodal, cuando ensatamos un gusano en el anzuelo, la ausencia de movimiento es una mala señal, pero si además de la ausencia de movimiento huele, sabemos que ese gusano lleva muerto bastante tiempo y no es apto para la pesca, aunque en la pesca el factor “suerte” hace posible casi cualquier cosa.

Predisposición hacia una modalidad sensorial. Se ha explorado si predisponer a una persona a esperar un estímulo de una modalidad sensorial determinada afecta a su procesamiento (Spence y Driver, 1997b). En definitiva, es posible crear una predisposición a esperar un estímulo de una modalidad determinada, pero esto no siempre facilitará su procesamiento,  tal  como  demuestra  este trabajo.

5.2.- Dominancia de la modalidad visual

La “dominancia visual” alude a que, compitiendo con información procedente de otras modalidades (p. ej.: auditiva, propiocepción, táctil), la información visual captura y controla nuestra percepción. Los trabajos realizados sugieren que puede existir una predisposición atencional hacia la información  visual.  Sin  embargo,  se debe tener en cuenta que esta dominancia visual no es algo universal (Heller, 1992). Por ejemplo, sabemos, por lo expuesto en secciones anteriores,  que  los  estímulos   auditivos  exhiben   una  tendencia   mucho   más poderosa para capturar la atención que la que tienen los estímulos visuales (McDonald et al., 2000). Sin embargo, cuando los estímulos visuales adquieren la misma importancia que otros estímulos de modalidades sensoriales simultáneas, y suministran igual o mayor información, es muy probable que exista un sesgo o predisposición hacia la modalidad  visual y que ésta sea la dominante. 

5.3.- Efectos de la información visual sobre la localización auditiva: la ventriloquía 

Cualquier persona que haya visto trabajar a un ventrílocuo habrá observado la influencia que ejerce la información visual sobre la localización del sonido. El efecto de la ventríloquía demuestra la influencia de los efectos crossmodales en la atención, pues nuestra percepción del origen del sonido se ve alterada por la información visual. Es decir, la información visual nos engaña y  creemos que en ella se sitúa el origen del sonido. Aunque el sonido proviene del ventrílocuo nosotros lo ubicamos en la boca del muñeco. El efecto se hace más poderoso conforme la fuente del sonido resulta más difícil de localizar. Localizar un sonido en el plano vertical es mucho más dificultoso que localizarlo en el plano horizontal, lo cual tiene sus implicaciones para posicionar el muñeco en el escenario.

5.4.- Efectos de la atención sobre la percepción del dolor 

Si dirigir la atención visual a una región del espacio facilita el procesamiento de los targets allí presentados , saber por adelantado qué zona de nuestra piel va a ser estimulada reduce los umbrales para detectar la estimulación en dicha zona y nos hace más sensibles (Meyer, Gross y Teuber, 1963). Además, cuando la estimulación es dolorosa, saber por adelantado que va a ser aplicada nos hará todavía más sensibles debido a lo aversivo de la misma (Bushnell et al., 1985). Esta observación tiene una importante repercusión durante la aplicación de terapias: distraer la atención de un paciente cuando recibe un tratamiento doloroso puede hacer que su experiencia sea, relativamente , más liviana.

6.- ATENCIÓN CROSSMODAL

Quizás, la manera más adecuada de entender qué queremos decir por atención crossmodal consista en analizar la manera en la que percibimos el espacio y construimos marcos de referencia espaciales a partir de la información  recibida  desde  los  distintos  sentidos. Dado  que  cada sentido recopila  información  procedente  de  su  propio  conjunto  de  receptores,  y dado que estos receptores  se sitúan en diferentes  lugares, las conexiones entre la información  aportada  desde diferentes modalidades  sensoriales permiten  construir  una  representación   estable  del  ambiente  externo  que  nos  permite actuar y dirigirnos  en el medio (Driver y  Spence, 1998).

Metodológicamente , una manera en la que se ha estudiado la integración entre modalidades sensoriales es analizando la llamada facilitación crossmodal. La facilitación crossmodal se estudia comparando las respuestas neuronales separas ante cada uno  de los dos estímulos  unimodales (p. ej., uno visual y otro auditivo), con la respuesta neuronal conjunta obtenida ante la presentación bimodal. Si esta respuesta bimodal es mayor que la respuesta combinada a cada uno de los dos estímulos unimodales, entonces se dice que ha ocurrido una facilitación crossmodal de la respuesta debida a la integración de ambas modalidades. Estudios de potenciales evocados, en los que se sustrajeron los ERP correspondientes a la presentación unimodal de targets visuales y auditivos (flash de luz y ráfagas de ruido) del correspondiente ERP obtenido ante la presentación bimodal, demuestran que la interacción entre ambas modalidades comienza unos 40 ms después de la presentación estimular, es decir, en fases tempranas del procesamiento perceptivo (Teder-Salejarvi , McDonald , Di Russo y Hill­ yard;  2002;  Stein y Meredith , 1993).

6.1.- Efectos de la señalización crossmodal

Sabemos por lo explicado en el apartado dedicado a exponer las funciones de alerta de la atención auditiva,  que las  señales auditivas  pueden  facilitar la respuesta ante estímulos visuales presentados en el mismo lado que dichas señales. Sin embargo, es más discutible afirmar que las señales visuales ejerzan algún efecto sobre la orientación de la atención auditiva, pues en este punto los resultados son contradictorios . Algunos trabajos han encontrado que las señales visuales no afectan en tareas de discriminación auditiva (Spence y Driver, 1996), mientras que otros estudios han descubierto lo opuesto (Ward, 1994). Probablemente, la razón de esta divergencia pueda localizarse en la naturaleza de las señales y los targets utilizados (en el primer estudio las señales fueron simples y los targets complejos, y a la inversa en el segundo). No obstante, a pesar de estas divergencias, podemos concluir que los efectos de señalización crossmodal existen y se manifiestan  en  diversos  trabajos experimentales.

6.2.- ¿Existe un control supramodal único para la atención espacial? 

Determinados aspectos de la atención espacial parecen estar, aparentemente, bajo un controlador supramodal. Por ejemplo, es más sencillo atender a un  estímulo visual  y a otro auditivo  si el monitor y el altavoz que   los presentan se ubican en el mismo lado, en lugar de si uno se sitúa a la izquierda y el otro a la derecha, respecto del sujeto. Si pedimos a un grupo de sujetos que focalicen su atención, bien en su mano derecha, o bien en su mano izquierda para detectar estímulos táctiles, y presentamos a la vez estímulos visuales o auditivos, descubrimos que cuando estos últimos estímulos aparecen en el mismo lado espacial en el que se espera la estimulación táctil el componente N1 de los ERP es mayor que cuando los estímulos aparecen en el lado opuesto. En conclusión, la localización espacial externa, compartida entre estímulos de distintas modalidades, facilita la presencia de vínculos atencionales crossmodales, lo que favorece la presencia de una especie de controlador  atencional  supramodal.

Los mecanismos responsables de orientar la atención visual, y aquellos responsables de orientar la atención auditiva (o táctil), no son completamente independientes, sino que comparten información en algún momento del procesamiento.

¿realmente el hecho de haber descubierto efectos crossmodales entre visión, audición y tacto, o efectos de señalización crossmodal, es suficiente para postular la existencia de un control atencional supramodal? El simple hecho de que el despliegue atencional en una modalidad pueda modular o afectar a los efectos atencionales en otra no implica, necesaria­ mente, que la atención esté controlada por un mecanismo supramodal. La existencia de una intercomunicación entre la información procedente de diferentes modalidades sensoriales resulta posible en cualquier momento del procesamiento. Y, aunque esto pueda ser utilizado en contra de una estricta modularidad o independencia entre el procesamiento ejercido en cada una de la diversas modalidades, no prueba necesariamente la existencia  de un  sistema  maestro  de control supramodal.

 

Fuente.

  • Johnson, A., Proctor, R. W., & Crespo León, A.Atención: Teoría y práctica (trad., adapt. y rev. ed.). Madrid
  • Youtube

 

[1] El ruido blanco es aquél formado por todas las frecuencias del espectro, de tal manera que ninguna de ellas sobresale sobre las otras. Es semejante al que escuchamos en un televisor desintonizado, cuando aparece la pantalla blanca con multitud de puntitos negros que parecen moverse.

[2] Estructura anatómica situada en el oído interno donde se localizan los receptores sensoriales.

Entradas Relacionadas


Deja un comentario

Tu dirección de correo electrónico no será publicada.

19 − 15 =

DEPÓSITO DE APUNTES

Más visto última semana

  • NORMATIVANORMATIVA   Comenzamos con el Reglamento disciplinario de nuestra universidad, data…

Grupos FaceBook

Grupos Telegram

Top 10

Top
Show Buttons
Hide Buttons