D E M O C R A T O P I A

PERCEPCIÓN. Introducción: historia y enfoque general.

  1. INFLUENCIAS INICIALES

Las primeras teorías científicas de la percepción estuvieron influidas por teorías previas basadas en el sentido común o en la reflexión filosófica. La reflexión filosófica moderna tendió a polarizarse en torno a dos posturas contrapues­tas: el racionalismo y el empirismo .

En torno al empirismo se elaboro la idea de que las sensaciones[1] eran los elementos irreductibles del conocimiento y que el conocimiento complejo era el resultado de la asociación de diferentes sensaciones simples.

En el proceso de determinar cuáles eran las sensaciones elementales, los fisiólogos y los físicos del siglo XIX prestaron mucha atención a la sensación misma como hecho mental o dato de consciencia e idearon procedimientos experimentales para poder estudiarlas.

Como resultado de ese esfuerzo, comenzaron a aparecer todo un con­junto de métodos y de resultados que dieron origen a la psicofísica. Ernst H. Weber introdujo el con­cepto de diferencia apenas perceptible[2] y comprobó que no se trataba de una cantidad absoluta sino que se aproximaba a una razón constante del peso que se estaba juzgando. Posteriormente, en 1860, Gustav T. Fechner publicó sus Elementos de Psicofísica, libro fundamental en la historia de la psicología de la percepción y de la psicología experimental en general. A partir de Fechner, la psicofísica quedó establecida como disciplina interesada en establecer las relaciones matemáticas precisas entre los estímulos, cuidadosamente medidos en escalas físicas, y las sensaciones evocadas por esos estímulos, cuidadosa­mente medidas en escalas de sensación. Los métodos para construir escalas de las sensaciones y los resultados principales, representados por la Ley de Fechner[3], forman parte del patrimonio de la psicofísica.

El concepto de percepción tardó más en acuñarse que el de sensación. Suele citarse a Thomas Reid como uno de los teóricos más influyentes a la hora de establecer una distinción entre sensación y percepción. Para Reid, la percep­ción es mucho más que una sensación, aunque depende de las sensaciones. La percepción incluye dos elementos que no están presentes en la sensación. El primero es una concepción del objeto. El segundo es una irresistible con­vicción de la existencia de ese objeto. Reid, por tanto, diferenció claramente entre sensación y percepción incluyendo en la percepción tanto la categoriza­ción del objeto como su existencia objetiva.

  1. LA TEORÍA CLÁSICA

Formulada durante la segunda mitad del siglo XIX por Hermann von Helmholtz y pos­teriormente reelaborada por Wilhelm Wundt.

En 1856 Helmholtz comenzó a publicar su Tratado de Óptica Fisiológica y en 1863 publicó su libro Sobre la Sensación de Tono. Ambas publicaciones pueden considerarse como el fundamento de la moderna investigación cien­tífica de la percepción visual y auditiva respectivamente.

A partir de Wundt, la investigación psicológica de la percepción inició un rumbo particular que, si bien ha estado casi siempre en contacto con los principales descubrimientos fisiológicos, tiene su propia historia. En este nuevo contexto, la formulación de la teoría clásica de la percepción por el discípulo de Wundt, Edward Tit­chener, suele conocerse con el nombre de estructuralismo.

De forma general, el punto de vista clásico afirma que nuestra percepción de los objetos y de los acontecimientos está determinada por estructuras men­tales que no nos han venido dadas de forma innata sino que son el resultado de un proceso de aprendizaje. El punto de vista clásico fue, en su origen, fundamentalmente empirista

  • La sensación como unidad de análisis

Para la teoría clásica de la percepción, la investigación perceptiva debe co­menzar por el análisis de las sensaciones básicas. Sin embargo, el concepto de sensación no resulto fácil. Por un lado, el análisis de las sensaciones llevó a describirlas en términos de atributos. Wundt propuso de modo relativamente informal que toda sen­sación tenía dos atributos: cualidad e intensidad, pero fue Külpe quien utilizó de forma sistemática el término. Para Külpe, las sensaciones correspondientes a los cinco sentidos necesitan tener tres atributos: cualidad, intensidad y duración. Además, la visión y el tacto, poseían un cuarto atribu­to que era la extensión. Al incluir la duración y la extensión como atributos, Külpe hizo concesiones a las posiciones innatistas que consideraban que el espacio y el tiempo no dependían de la experiencia, sino que estaban dadas en la propia estructura mental. Vemos, pues, que en el análisis mismo de la sensación, la teoría clásica se encontró con las grandes limitaciones de una posición empirista radical. Otro aspecto que contribuyó al declive del concepto de sensación tuvo que ver con el carácter de elemento fundamental que se le asignaba. Un pro­blema importante para considerar a las sensaciones como unidades funda­mentales, es que no podemos distinguirlas una vez que entran a formar parte de un compuesto.

  • La percepción como síntesis de sensaciones

Para comprender la teoría clásica de la percepción, es importante distinguir entre el estímulo distante[4] y el estímulo próximo[5]. La percepción de las características distantes no son una respuesta sensorial directa, sino una percepción compleja aprendida. La percepción visual de los objetos se compone, por tanto, de sensaciones visua­les no espaciales, tales como el matiz o el brillo, y de imágenes de sensaciones no visuales que han estado característicamente asociadas con esas sensaciones en la experiencia previa con esos objetos.

Un fenómeno de capital importancia en el estudio de la percepción es el de las constancias. Percibimos constante el color de un objeto a pesar de los cambios en las condiciones de iluminación, o el tamaño de ese mismo objeto a pesar de que se nos muestre a distancias diferentes. En casos como éstos los cambios en el estímulo próximo no determinan nuestra percepción. ¿Cómo es posible la constancia de estas percepciones? Helmholtz lo explicó también en términos de aprendizaje y formuló una regla, que más tarde se conoció como el principio de verosimilitud[6].

  • La inferencia inconsciente

Helmholtz desarrollo una teoría sobre la forma en que nuestro sis­tema perceptivo aplicaba el principio de verosimilitud. Cuando, por ejemplo, percibimos un objeto del mismo tamaño a pesar de sus cambios en la distancia a que se encuentra de nosotros, es porque hemos aprendido a hacer algo que produce el mismo resultado que «tomar en cuenta la distancia». De forma parecida, cuando un papel continúa viéndose blanco a pesar de que lo vemos bajo una luz tenue, es porque hemos aprendido a tomar en cuenta los cambios en iluminación. Pero Helmholtz no pensaba que este proceso de «tomar en cuenta» la distan­cia o la iluminación fuera un acto consciente de reflexión sobre la situación. Helmholtz pensó que se trataba de una inferencia inconsciente a partir de sensaciones que nos pasan des apercibidas.

Para Helm­holtz, la percepción no estaba determinada por los procesos sensoriales sino por toda la estructura mental que él resumió en el concepto de inferencia inconsciente[7], según la cual las sensaciones (el impacto de la realidad sobre los receptores de los sentidos) no permiten la identificación de los objetos sino que sólo sirven como señales o trazos que el cerebro utiliza para sacar conclusiones a través de procesos inconscientes activos en los que aplica herramientas lógicas (inferencias o conclusiones).

 

  1. LA PRIMERA MITAD DEL SIGLO XX

Hubo que esperar al siglo xx para que se desarrollara una alternativa teórica que representara un reto global a las posturas defendidas por la teoría clásica. Esta alternativa estuvo representada por la teoría de la Gestalt.

  • La teoría de la Gestalt [8]

Helmholtz hablaba de sensaciones imperceptibles, para la Gestalt las sensaciones, consideradas como elementos de la vida anímica, eran inexistentes. Veamos los principales aspectos de esta teoría.

  • Fenomenología[9]

Para la teoría de la Gestalt, la experiencia consciente del observador tam­bién constituía la fuente principal de datos de la investigación psicológica. Sin embargo, la Gestalt estaba interesada en los datos de conciencia tal como apa­recían de forma inmediata en la misma, sin contaminar con prejuicios teóricos inducidos por un entrenamiento particular. Más que de introspección, en el caso de la Gestalt debe hablarse de descripción fenomenológica para marcar la diferencia entre la introspección clásica y la actitud de auto-observación que buscaban los gestaltistas.

  • Configuración

Todos los principales líderes de la Gestalt, rechazaron los supuestos fundamentales de ato­mismo y empirismo de la teoría clásica. Pensar que la percepción es el resul­tado de la concatenación de sensaciones, como si éstas fueran los átomos de un compuesto, es para los gestaltistas el resultado de un artefacto introducido en la experimentación por la propia teoría clásica mediante el entrenamiento introspectivo. Lo importante en la percepción es la configuración del cam­po perceptivo, la forma en que se relacionan los componentes de la escena, la totalidad estructurada por esas relaciones. Para los gestaltistas, el todo es diferente de la suma de sus partes porque las relaciones entre los componen­tes provocan la aparición de propiedades emergentes, que son propiedades pertenecientes a un conjunto como tal pero que ninguno de los componentes del conjunto posee por sí mismo.

Los gestaltistas también rechazaron la analogía química que había utiliza­do la teoría clásica al considerar la percepción como un compuesto formado por sensaciones elementales. En la Figura 1 podemos ver un campo visual formado por un elemento que es la letra K. En B, la percepción predo­minante es la de un rombo flanqueado por dos líneas verticales. Sin embargo, el rombo surge por la adición de otra letra K rotada 180 grados y yuxtapuesta a la anterior. En B, la identidad de cada letra individual se pierde porque la relación espacial entre las dos letras da lugar a la percepción del rombo. Si, en vez de estar juntas, aumentáramos la distancia entre las letras, como en C, cada una recuperaría su identidad como una letra K.

  • Innatismo

Los teóricos de la Gestalt también rechazaron el empirismo característico de la teoría clásica. Para ellos, los principios organizadores de la percepción no tenían su origen en la experiencia del individuo, ni eran el resultado de un aprendizaje previo. Los principios de organización eran el resultado de la interacción de las estructuras cerebrales con el medio ambiente y esas estruc­turas eran innatas o, a lo sumo, resultado de la maduración. Los teóricos de la Gestalt, y en particular Kóhler, recurrieron a la estructura de los mecanismos cerebrales a la hora de buscar explicación para los fenómenos perceptivos pero trataron también de introducir nuevas ideas en la neurofisiología de su tiempo. Ellos consideraban que el cerebro era un sistema físico que funcionaba como una totalidad dinámica que tendía hacia un estado de equilibrio de energía mínima. Además, pensaban que los mecanismos causales subyacentes a los procesos perceptivos eran cam­pos electromagnéticos generados por la actividad de las neuronas. La semejanza entre la dinámica de los campos electromagnéticos cerebrales y la de los campos per­ceptivos, les llevó a formular su doctrina del isomorfismo psicofísico. Esta doctrina venía a afirmar que tanto en el caso de la percepción del espacio como en la del tiempo o en la de la forma, la organización del campo per­ceptivo era una verdadera representación de la organización dinámica de los procesos fisiológicos subyacentes. Se da por tanto una igualdad de forma o isomorfismo[10] entre el funcionamiento del psiquismo y el funcionamiento del cerebro. Los gestaltistas eran perfectamente conscientes de que en la percepción se producían fenómenos como las constancias o las ilusiones. En oposición al principio de verosimilitud, ellos formularon el principio de Prágnanz[11], que también se suele denominar el principio mínimo. El principio mínimo es un principio coherente con una forma de pensar que considera el funcionamiento de la mente isomórfico con el funciona­miento del cerebro y a éste como un sistema dinámico que tiende a un estado de energía mínima.

  • El conductismo

Para el conductismo los datos fundamentales se encontraban en el comportamiento y se centró en el estudio de los factores que modifican la conducta de los organismos. Las aportaciones del conductismo al estudio de la percepción fueron es­casas y en ningún caso comparables a la aportación de las teorías que hemos estudiado. No se puede hablar de una teoría conductista de la percepción porque los principales teóricos del conductismo nunca llegaron a formular dicha teoría. A pesar de su escasa aportación a la teoría de la percepción, no debe pasarse por alto su aportación metodológica. Introdujo rigor en la experimentación y precisión en las medidas y en el lenguaje.En el caso de la investigación en percepción, el conductismo la redujo al estudio de la conducta discriminativa y de esta conducta lo que más le intere­só fue su adquisición y el análisis de las variables que determinaban el control de la conducta por parte de los estímulos. Sin embargo, cometieron el error de pensar que los estímulos nominales[12], eran lo mismo que los estímulos funcionales[13], con lo cual pasaron por alto el problema central que se plantea el estudio de la percepción, que es la relación entre ambos tipos de estímulos. Desde el punto de vista metodológico, el conductismo ayudó a valorar la importancia de las tareas experimentales y el análisis de las variables que las afectan. Pero lo importante de las tareas es su capacidad para informar de los procesos que intervienen en ellas y la explotación de esa capacidad no la pudo llevar a cabo el conductismo.

  • Teoría de la percepción directa

Esta teoría es también conocida como teoría ecológica de la percepción y fue desarrollada por James J. Gibson (1950, 1966, 1979), estuvo muy influenciado por la teoría de la Gestalt, pero también comparte posiciones propias del conductismo. De la teoría de la Gestalt, Gibson adoptó su oposición a toda postura atomista que. Sin embargo, al contrario que los gestaltistas, Gibson no creía que el fundamento de la teoría perceptiva estuviera en la estructura del organismo, sino en el estudio del medio ambiente en el que el organismo está inmerso.

  • Percepción ecológica

Gibson piensa que el análisis perceptivo debe cen­trarse en la conformación óptica ambiental[14]. La conformación óptica es un concepto relacio­nal, mientras que las luminancias son las cantidades de luz medidas por un fotómetro. Gibson estaba convencido de que el patrón de estimulación que llega a los sentidos contiene toda la información necesaria para determinar de forma inequívoca qué ha de percibirse en una situación determinada. La teoría clásica ha fomentado investigaciones en las que un observador está­tico, mirando por un orificio, tiene acceso a una información que es exclusiva y peculiar de un punto de vista determinado. La percepción cotidiana, sin embargo, es una percepción dinámica que cambia a medida que el observador se mueve con respecto a la escena total, y ese tipo de percepción es el que, según Gibson, debemos estudiar. Gibson trató de ofrecer una óptica ecológica como alterna­tiva a la óptica geométrica utilizada por la teoría clásica. Para Gibson, la utilización de la óptica geométrica como base para la descripción de los estímulos es un error, la óptica geométrica es una ciencia de la luz, no una ciencia de la visión. La ciencia de la visión necesita hacer referencia al organismo y a la relación del organis­mo con el medio.

La óptica ecológica propuesta por Gibson está organizada en torno a dos conceptos fundamentales: información y propiedad funcional[15]. En su libro Los sentidos considerados como sistemas perceptivos Gibson (1966) introdujo el concepto de información en contraposición al concepto de energía. La energía es la estimulación apropiada para las células recepto­ras; los receptores responden a una energía particular. La información en Gibson es «in­formación sobre algo» y únicamente significa «especificidad respecto de algo». Al afirmar que los sentidos perciben información sobre los objetos, Gibson quiere poner de manifiesto que, por ser sistemas perceptivos y no simplemen­te órganos receptores, los sentidos son capaces de captar características reales de los objetos que no nos son dadas propiamente en la energía que llega a nuestros receptores sino en las relaciones que determinan la estructura de la conformación óptica. En su último libro La aproximación ecológica a la percepción visual, Gibson (1979) introdujo el concepto de affordance como una extensión del concepto de información.

La idea central de Gibson consiste en insistir que la investigación de la percepción debe centrarse en estudiar las propiedades de nuestros sentidos considerados como sistemas perceptivos, es decir como totalidades dinámicas estructuradas cuya capacidad de captar información y propiedades funcionales sobrepasa con mucho la de sus componentes. Pero considera que este objetivo investi­gador no se logrará a base de descomponer el sistema y ver lo que tenemos «dentro de la cabeza» sino estudiando el medio ambiente, dentro del cual se encuentran inmersos nuestros sistemas perceptivos.

 

3.3.2. Percepción directa

El segundo punto fundamental en la teoría de Gibson es el carácter directo que atribuye a la percepción. Lo que percibimos está perfectamente determinado por la particular conformación estimular que en un momento determinado nuestros sistemas perceptivos captan. No necesitamos recurrir a recuerdos, a pensamientos o a inferencias para explicar la percepción (percepción directa).

Gibson muestra su oposición a cualquier tipo de media­ción basada sobre representaciones. Su oposición a cualquier tipo de representación le ha enfrentado a las teorías del procesamiento de la información que, como vamos a ver, han predominado desde mediados del siglo xx. También le ha enfrentado a la investigación neurofisiológica que, con una mentalidad ana­lítica, trata de estudiar los componentes de los sistemas perceptivos y la fun­ción que esos componentes tienen en la percepción. Gibson ignoró, como carente de valor para la teo­ría de la percepción, todo un conjunto de datos fisiológicos que no se pueden ignorar. Con respecto a las investigaciones neurofisio­lógicas Gibson mantuvo en percepción una postura similar a la mantenida por los primeros conductistas respecto al aprendizaje: no proporcionan datos relevantes para una teoría de la percepción.

Para Gibson toda la información está en la estimulación, el observador no aporta información alguna sino que se limita a captar aquella información con la que se encuentra en sintonía. Desde el punto de vista de una teoría del conocimiento, Gibson, al igual que Thomas Reid, es un realista.

La teoría de Gibson es más fuerte en lo referente a su posición ecológica que en su defensa de la percepción directa. Su influencia ha sido importante y amplia en el estudio de la percepción aunque sus posturas extremas res­pecto al papel de las representaciones no son en absoluto mayoritarias.

  • Otras influencias

Transaccionalismo: Dewey: Concibe el proceso perceptivo como una transacción en la que los estímulos y el observador se implican mutuamente de forma que para definir el estímulo funcional o efectivo para un determinado observador es necesario conocer su conducta previa. Estímulo y conducta se encuentran inmersos en un círculo de interacción que determina su definición mutua.

Funcionalismo probabilista: Brunswick: Importancia de estudiar situaciones ecológicamente válidas, en las que la estimulación no estuviera empobrecida sino que fuera representativa tanto de las situaciones en las que el organismo vive, como de las situaciones a las que el investigador quiere generalizar sus conclusiones. Importancia a los procesos de aprendizaje perceptivo. a confiar en aquellos indicios o claves estimulares que están altamente correlacionadas con alguna propiedad física de los objetos o de los acontecimientos.

Stevens formuló su ley potencial psicofísica y dio origen a lo que hoy se conoce como nueva psicofísica para distinguirla de la psicofísica clásica fechneriana.

  1. LA SEGUNDA MITAD DEL SIGLO XX

A mediados del siglo xx se produjo un cambio en la orientación predomi­nante en la investigación psicológica que afectó a todas sus áreas de espe­cialización. La psicología cognitiva proporcionó al estudio de la percepción un marco de referencia en el que muchas de las ideas de la teoría clásica pudieron ser reformuladas. Este marco de referencia también ayudó a integrar otras dos corrientes de investigación científica cru­ciales para el desarrollo de la investigación en percepción: los avances de la investigación fisiológica y el computacionalismo.

4.1. La psicología cognitiva

El término psicología cognitiva se utiliza hoy para designar una versión particular que surgió a mediados del siglo XX, que suele también conocerse como procesamiento de información. Esta versión ofreció una aproximación al estudio de los procesos cognitivos considerando la mente humana como un sistema capaz de manejar símbolos de una forma semejante a un ordenador electrónico. La metáfora del ordenador constituye la analogía que va a servir de guía para estudiar los procesos mentales.

El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases, transforman la información inicialmente recibida. Para el pro­cesamiento de información, al igual que para el estructuralismo y la Gestalt, y en oposición a Gibson y los conductistas, el estudio de los procesos que trans­forman la información de entrada (input) y producen una determinada salida (output) constituye el objeto de estudio de la psicología. La percepción es una fase del procesamiento de la información mediante la cual el organismo construye una representación del medio ambiente que pueda guiar su actividad.

  • Sistemas

El procesamiento de información considera la cognición como una actividad resultante de la interacción de los componentes de un sistema. No niega la importancia de analizar los componentes del sistema pero concede mayor importancia a la estructura y a la organización funcional resultante de la inte­racción de sus componentes. El procesamiento de información se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.

Una forma de representar el funcionamiento de un sistema y sus com­ponentes principales ha consistido en utilizar diagramas de flujo. La Figura 2 presenta un diagrama de flujo en el que un sistema A recibe dos tipos de input, (a) y (b). Cada rectángulo en el diagrama representa un conjunto de operaciones que acaban produciendo un output; a su vez, estos outputs for­man el input de la fase siguiente (c) que acaba produciendo una salida final (O) para el sistema A.

Una propiedad importante de los sistemas de procesamiento de infor­mación es la que Palmer y Kimchi (1986) han llamado su descomposición recursiva[16]. En la Figura 2 vemos que el sistema total A está compuesto por tres subsistemas, uno especializado en procesar la información visual, otro en procesar la información táctil, y un tercero que integra ambas informaciones. A medida que avanza la investigación de cada uno de esos componentes, es posible proceder a un análisis más detallado del funcionamiento de cada subsistema mediante la especificación de sistemas menores que componen los subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez siempre que lo requiera el análisis del sistema que se está es­tudiando hasta que se llega a un último nivel que no se puede descomponer más. A los componentes de este último nivel se les suele denominar caracte­rísticas primitivas, cuando se trata de componentes de una representación, o, si de trata de procesos, son llamados operaciones elementales.

 

  • Información, codificación y representación

Durante las primeras fases del desarrollo del procesamiento de información, se trató de utilizar el concepto de información en el sentido técnico propues­to por la teoría de la información de Shannon.

Información: cantidad de conocimiento que una persona adquiere o posee sobre el medio ambiente que le rodea. En el caso de la percepción, no se trata de la cantidad de información que hay en la estimulación, sino de la cantidad de conocimiento que el observador puede llegar a adquirir sobre la base de esa estimulación.

Codificación: el conocimiento está organizado en la mente en forma de imágenes u otros formatos de representación. La información que nos llega necesita ser trasladada a esos códigos por medio de un conjunto de procesos que se denominan procesos de codificación.

Representación: La percepción es un conjunto de procesos de codificación mediante los cuales se genera en el observador una representación mental del medio ambiente.

  • Características de los procesos

Los procesos propios de un sistema cognitivo, como el sistema perceptivo, pueden estar organizados de forma serial o en paralelo. Serial cuando los procesos se llevan a cabo en secuencia, uno después de otro, y cada uno de ellos recibe como input el output final del proceso que le precede, por lo que no empieza a funcionar hasta que el proceso anterior ha finalizado. Cuando los procesos se organizan en paralelo, actúan simultánea­mente y su input es independiente del output de otros procesos.

La rapidez con que tienen lugar los procesos perceptivos visuales parecía requerir una estructura del sistema visual en la que numerosas operaciones pudieran realizarse simultá­neamente. Esta estructura, a su vez, exigía una división del trabajo de forma que distintos componentes del sistema perceptivo se especializaran en llevar a cabo un determinado conjunto de funciones. Por ejemplo, un componente del sistema podía especializarse en procesar el color de una escena, mientras otro componente procesaba la forma y un tercero el movimiento. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o arquitectura modular, y a los componentes del sistema se les llama módulos. Cuando el procesamiento está constituido por un con­junto de operaciones que operan sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback[17] so­bre las operaciones más simples, se dice que el procesamiento tiene lugar de arriba a abajo. Una caracterización afín a ésta, pero que pone el acento en el papel que juegan las influencias complejas de feedback, es la que distingue entre procesos dirigidos por los datos, cuando operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia. Las distintas teorías varian según la importancia que den a estos tipos de procesamientos. La teoría de la visión de David Marr, es una teoría concebida en su totalidad de abajo a arriba y fundamentalmente dirigida por los datos. Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen sobre lo percibido; son teorías preferentemente de arriba a abajo. Sin embargo, la mayor parte de las teorías defienden la coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.

Una última caracterización de los procesos que se ha utilizado frecuente­mente en la psicología cognitiva, es la que distingue entre procesos automá­ticos[18] y procesos bajo control atencional[19], frecuentemente llamados simple­mente procesos controlados. La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos. Cuanto más automático es un proceso, menor implicación atencional requie­re y cuanto menor grado de automatismo posee más necesaria es la implica­ción de la atención para poder operar.

  • Métodos

El procesamiento de información reintrodujo el estudio del tiempo de reac­ción como una de las principales variable dependientes para hacer inferencias acerca de los procesos perceptivos y de los procesos mentales en general.

El método sustractivo[20] introducido por el psicólogo holandés F. C. Donders en 1868 fue ampliamente utilizado. La lógica utilizada por Donders para hacer inferen­cias acerca de los procesos mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica ha producido resultados interesantes cuando se ha aplicado a situaciones que cumplían los supuestos. Sus tareas, sin embargo, han quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg, que contribu­yeron a profundizar en la investigación cognitiva.

La Teoría de Detección de Señales (TDS) surgió en la investigación psico­lógica cuando la psicofísica comenzó a prestar atención a los procesos impli­cados en la respuesta a estímulos simples.

una respuesta tan simple como la que un observador puede emitir en una tarea de detección encaminada a determinar un umbral absoluto, no refleja de forma incontaminada el funcionamiento de un sistema sensorial, sino que hay que tomar en consideración a los procesos de decisión implicados en la emisión de la respuesta. Finalmente hay que destacar la importancia que dentro del procesamiento de información alcanzaron los procedimientos de formalización de las teorías y de los modelos. La implementación de las teorías mediante simulación en ordenador. Una simulación es un programa que al incorpo­rar en su funcionamiento una teoría, permite contrastar sus predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.

  • El computacionalismo

El ordenador, en cuanto realización física de un sistema complejo de procesamiento de información, había sido una fuente de inspiración para la psicología cognitiva desde sus comienzos. Sin embargo, la referencia al orde­nador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era preferentemente una metáfora, para otros, el ordenador era mucho más que una simple metáfora; el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de información que Newell y Simón llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría gene­ral de los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva[21].

En la investigación de los procesos perceptivos, destacaremos dos apor­taciones de la ciencia cognitiva; la teoría de David Marr, que en y el conexionismo.

  • La teoría de David Marr

David Marr se centró en la investigación de la visión y sintetizó su teoría en su libro “Vision” que está considerado como una de las contribuciones más importantes del siglo xx al estudio de la percepción visual. En opinión de Marr, pretender entender la visión estudiando sólo neuronas era como pretender entender el vuelo de las aves analizando sólo plumas. Para comprender el vuelo de las aves necesitamos conocer la dinámica del proceso y una vez conocida podremos construir una máquina que vuele. La aproximación de David Marr proporcionó tanto una filosofía de la investigación computacional como una teoría concre­ta de las principales fases de procesamiento visual.

  • Los niveles de análisis

Para David Marr, los sistemas complejos de procesamiento de información, como es la mente humana o el sistema visual, no pueden ser explicados y comprendidos desde un único punto de vista. A los puntos de vista desde los que podemos estudiar un sistema David Marr les da el nombre de niveles de análisis; propone que los niveles de análisis fundamentales son tres:

  1. a) Nivel computacional. Es el nivel que especifica de forma abstracta el problema que un sistema de procesamiento de información tiene que resolver. La pregunta que determina este nivel es: ¿Qué hace el sistema?. Una explicación a este nivel tiene que apuntar a los objetivos y a la finalidad del sistema en un contexto determinado.
  2. b) Nivel Algorítmico. Es el nivel que especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario especifi­car una representación que codifique el input y el output del sistema y un algoritmo que lleve a cabo la correspondencia entre input y output.
  3. c) Nivel de Implementación. Este nivel se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza[22].

Los tres niveles de análisis pueden estar muy relacionados entre sí; es conveniente tener claro que, al tratar de explicar el comportamiento de sistemas complejos de procesamiento de información, carece de sentido buscar la explicación de ese comportamiento como si so­lamente hubiera una única explicación posible.

  • Los niveles de organización del procesamiento visual

Para David Marr, el problema fundamental de la percepción visual en su conjunto es construir una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. El sistema visual logra este objetivo a través de tres fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los receptores. Las tres fases de procesamiento son las siguientes:

  1. El Esbozo Primario. El objetivo es hacer explícita la información acerca de la imagen bidimensional: cambios de intensidad, distribución geométrica y organización de esos cambios. El input es la imagen inicial. El output está formado por un conjunto de primitivas simples (bordes, manchas, barras y terminaciones). Estas primitivas constituyen los elementos simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.
  2. El esbozo 2Vi-D. Se hace explícita la información acerca de la orientación y de la profundidad de las superficies visibles. También se especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el observador. Se trata de recuperar información acerca de las superficies que conforman la escena visual en un espacio tridimensional, pero la consecución de la tercera dimensión no es perfecta. El procesamiento en esta fase tiene dos características fundamentales: modularidad y paralelismo. Modularidad: implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por distintos componentes del sistema visual. Paralelismo: implica que el funcionamiento de cada módulo es independiente del funcionamiento de los demás y se llevan a cabo al mismo tiempo. El input para cada módulo de esta fase es el resultado de la fase de esbozo primario. El output está formado por la información peculiar proporcionada por cada módulo (color, movimiento, etc).
  3. El modelo 3-D. El sistema visual consigue una representación de las formas y de su organización espacial en un marco de referencia centrado en el objeto mismo, utilizando una representación jerárquica y modular de primitivas volumétricas [23] y de superficie. La figura 3 muestra un ejemplo de aplicación recursiva de este principio de organización jerárquica. A dis­tintos niveles de magnitud, una primitiva volumétrica —en este caso un cilindro— se engarza en torno a un eje produciendo una representación de un cuerpo humano entero, un brazo, un antebrazo y una mano.

La influencia de la teoría de David Marr en la investigación actual de la percepción visual ha sido determinante.

4.2.2. El conexionismo

A comienzos de los años ochenta en el siglo pasado, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos conocida con el nombre de conexionismo. Su objetivo fundamental era aproximar la teoría de los procesos cognitivos a la teoría del cerebro, esta aproximación es conocida con el nombre de redes neuronales[24]. Las conexiones entre unidades de la red pueden tener distinta fuerza de forma que la conexión entre dos unidades puede ser más o menos fuerte que la co­nexión de cada una de ellas con una tercera unidad. Además, las conexiones entre unidades pueden ser excitatorias[25] o inhibitorias[26]. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo que se llama un patrón de conec­tividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una regla de aprendizaje. Otros conceptos importantes para en­tender el funcionamiento de una red neuronal son:

  • Regla de activación: especifica la forma en que se combinan las diferentes entradas que una uni­dad recibe para determinar el estado de activación de la unidad.
  • Función de output: determina la correspondencia entre el estado de activación y el output del sistema, y un ambiente que especifique el medio en el que debe funcionar la red.

La Figura 4 presenta un ejemplo de red neuronal. En la figura, las unida­des están representadas por círculos y las conexiones por líneas que terminan en una punta de flecha. La red está formada por tres capas, cada una de ellas formada por un conjunto de unidades elementa­les de procesamiento. La primera capa está formada por unidades de input que son activadas por el medio ambiente en el que actúa la red. El estado de ac­tivación de las unidades de la tercera capa determina el output de la red. Fi­nalmente la capa intermedia esta formada por unidades ocultas, así llamadas porque no establecen contacto directo ni con el input ni con el output de la red; su función es modificar las conexiones entre las unidades de input y las de output en función de la información que reciben tanto de otras unidades de input como de las unidades ocultas a las que se encuentran conectadas.

Las redes neuronales dan lugar a representaciones distribuidas, representación en la que la correspondencia entre las entidades del mundo representado y las unidades de la representación es múltiple. Cada unidad en la representación puede representar varias entidades del mundo representado y cada entidad del mundo representado puede ser representada por varias unidades en la representación.

La investigación con redes neuronales ha puesto de manifiesto que la ac­ción coordinada de las unidades de una red da origen a propiedades emergen­tes capaces de simular procesos cognitivos.

  • Los avances de la fisiología

Entre los principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de información merece la pena resaltar las in­vestigaciones realizadas en la retina de las ranas por investigadores tales como Barlow (1953) y Lettvin, Maturana, McCulloch y Pitts (1959). Estos autores descubrieron un tipo particular de células ganglionares en la retina de las ra­nas que respondían únicamente cuando un pequeño disco oscuro aparecía en su campo de visión. A partir de estos descubrimientos iniciales, la investigación neurofisioló­gica produjo una serie de hallazgos que acabarían por revolucionar la forma de pensar acerca de las neuronas que la fisiología había mantenido hasta en­tonces. Hartline (1949) y Barlow (1953) demostraron la existencia de inhibi­ción lateral, mecanismo periférico de interacción neuronal capaz de explicar fenómenos perceptivos tales como el contraste simultáneo de la claridad. En 1959 Hubel y Wiesel publicaron sus primeros trabajos sobre las neuronas de la corteza estriada de los gatos que les valió el premio Nobel de fisiología y medicina en 1981. Todos estos descubrimientos llevaron a los investigadores al convenci­miento de que cada neurona individual en el sistema visual era capaz de lle­var a cabo tareas mucho más complejas que las que hasta entonces se habían pensado. Las neuronas no se limitaban a transmitir información más o menos precisa sobre la intensidad luminosa de la imagen, sino que eran capaces de informar sobre las características elementales de un patrón y sobre la organi­zación jerárquica de esos elementos. Eran capaces de detectar la distancia a la que se encontraban los objetos, y de ignorar las causas irrelevantes de las variaciones en iluminación. Las neuronas aparecían cada vez de forma más clara como unidades elementales y el cerebro como un sistema complejo de procesamiento de información. Desde entonces la relación entre psicología cognitiva y neu­rociencias ha sido cada vez más estrecha dentro de un intercambio de recí­proca influencia que ha terminado por dar origen a la moderna Neurociencia Cognitiva[27].

  1. MARCO TEÓRICO

En términos generales la orientación de esta asignatura se enmarca dentro de la aproximación cognitiva conocida como procesamiento de información. El marco general de la teoría de la visión propuesta por David Marr constituye un punto de inflexión en la investigación perceptiva porque representa el nuevo punto de partida de la moderna teoría de la percepción visual.

  • La función de la visión

Una teoría de la percepción visual debe tomar en considera­ción la función que la visión desempeña en el contexto de la interacción del organismo con su medio[28].

La información que proporciona la visión tiene la propiedad de ser una información a distancia, lo que representa un valor adicional para la supervi­vencia del organismo pues le permite adquirirla sin entrar en contacto con los objetos y sin comprometer su seguridad. La característica más específica y definitoria de la visión es que la informa­ción sobre los objetos y sobre su posición espacial se obtiene a partir de la luz que emiten o reflejan.

  • El procesamiento de la información

Para Gibson el proble­ma de una teoría de la percepción se reducía a identificar en la estimulación las variables responsables de la constancia perceptiva, los invariantes en re­lación a los cambios en el punto de vista del observador y a los cambios en iluminación. Para nosotros, la identificación de los aspectos relevantes en la estimulación es solamente el primer paso de una cadena de acontecimientos que una teoría de la percepción visual debe tratar de desentrañar. Es necesa­rio tomar en consideración las diferentes fases mediante las cuales el sistema visual procesa la información estimular y la convierte en conocimiento para el organismo del medio ambiente en el que se desarrolla su actividad.

Llevar a cabo este análisis del procesamiento de la información implica describir los diferentes tipos de representaciones que el sistema visual cons­truye y los procesos que permiten la codificación de los estímulos, la progre­siva organización de la escena visual y la construcción de las representaciones fundamentales. El concepto de representación es central en una teoría del procesamiento de información, pero no debe entenderse de forma simplista como una especie de fotografía dentro de la cabeza que es observada por un homúnculo más o menos misterioso, sino como un complejo sistema de correspondencias entre características del medio y códigos neuronales que permiten al sistema visual recuperar internamente la información relevante del medio.

La Figura 5 presenta las principales fases de procesamiento que cabe distinguir en el proceso de consecución de la representación final que nos permite percibir visualmente una escena o un objeto. Las tres primeras corresponden en términos generales a las tres fases propuestas por David Marr que hemos visto anteriormente. La primera está centrada en el análisis de la imagen bidimensional proporcionada por la distribución de luminancia que llega a nuestros receptores y que es objeto del procesamiento visual inicial. La segunda está dedicada a la recuperación del trazado tridimensional de las superficies visibles, y la tercera a la obtención de la representación volumétrica de los objetos en coordenadas centradas en los objetos mismos. Al final de la tercera fase el sistema visual ha sido capaz de obtener una representación perceptiva de los objetos individuales y de la escena concreta presente en la estimulación, pero el procesamiento perceptivo no termina ahí; aún es preciso considerar una fase última de categorización en la que las representaciones perceptivas alcanzan un significado al entrar en relación con el mundo conceptual del observador. En esta última fase, el mundo percibido proporcionado por los sentidos es asimilado e integrado en el sistema de conocimiento del perceptor.

El esquema general de procesamiento que se desarrolla a lo largo de este libro constituye el marco general de una postura constructivista en el sentido de que considera necesario, para poder explicar adecuadamente la percepción visual, tomar en consideración tanto los procesos que el sistema visual pone en funcionamiento para obtener una representación del medio ambiente, como el conocimiento del observador que da significado a lo percibido. Nuestra postura simpatiza con la teoría clásica en su consideración constructivista de la percepción y consideramos necesario tomar en consideración la experiencia de las especies que después de siglos de evolución habrían de originar la especie humana. El sistema responsable de la percepción visual es el resultado de un largo proceso de selección natural.

  • Mecanismos neuronales

Una teoría de la percepción debe prestar atención a las estructu­ras cerebrales que la hacen posible. En la actualidad la relación entre psicología y fisiología del cerebro es cada vez más estrecha. La moderna neurociencia cognitiva permite relacionar los fenómenos perceptivos tradicionalmente estudiados por la psicología y las estructuras cerebrales de una forma que hasta ahora no había sido posible.

 

Fuente:

  • Luna Blanco, M. D., & Tudela Garmendía, P. (2011). Percepción visual (2ª, 1ª reimp. ed.). Madrid: Trotta.

[1] David Hume reduce todo conocimiento, en cuanto tal, a «impresiones» e «ideas». Admite dos tipos de verdades: «verdades de hecho» y «relación de ideas» .Toda idea ha de poder ser reducida a una impresión correspondiente. Cuando una idea surge de la relación entre ideas, su contenido de realidad ha de depender de las impresiones que la motivan. Si no encontramos dichas impresiones se debe rechazar como producto de la mera imaginación sin contenido de realidad alguno.

[2] La «diferencia apenas perceptible» o «diferencia justamente perceptible» (d.j.p.) se refiere al incremento mínimo que debe sufrir un estímulo para que notemos un incremento en la sensación. Se conoce también como «umbral diferencial«. La diferencia justamente perceptible fue estudiada por la psicofísica ya en sus comienzos (siglo XIX) destacando  a este respecto las aportaciones de Weber y de Fechner.

[3] La ley establece que: el menor cambio discernible en la magnitud de un estímulo es proporcional a la magnitud del estímulo. Es fácil de entender con un ejemplo. Si estamos sosteniendo en nuestra mano una masa de 100 gramos, tal vez no lo podamos distinguir de otro de 105 gramos, pero si de uno de 110 gramos. En este caso, el umbral para discernir el cambio de masa es de 10 gramos. Pero en el caso de sostener una masa de 1000 gramos, 10 gramos no serán suficientes para que notemos la diferencia, al ser el umbral proporcional a la magnitud del estímulo. En su lugar, nos hará falta añadir 100 gramos para notar la diferencia. Dicho de otro modo, nuestra capacidad de apreciación ante un cambio se basa en el valor relativo de la variación respecto del valor de partida. Se puede expresar en porcentaje aproximado, que es totalmente subjetivo dependiendo de la sensibilidad de cada individuo.

[4] Hace referencia a las propiedades físicas de los objetos mismos, por ejemplo su tamaño, su forma, la distancia a la que se encuentra del observa­dor, etc.

[5] Hace referencia a las propiedades de la estimulación que actúa sobre nuestros receptores. En el caso de la visión, por ejemplo, el estímulo próximo hace referencia a la imagen del objeto que se proyecta sobre la retina de los ojos.

[6] El Principio de verosimilitud dice que acabamos percibiendo aquellas características de los objetos que, sobre la base de la experiencia previa, son más probables.

[7] Concepto utilizado por Helmholtz para explicar la percepción. Según este, a partir de las sensaciones, el ser humano debe interponer un proceso de representación mental entre la respuesta sensorial temprana y el perceptor final.

[8] El término Gestalt proviene del alemán y significa configu­ración o forma total. El término designa de forma adecuada el interés de esta teoría por centrar la investigación perceptiva en el estudio de las relaciones que estructuran las distintas partes de una escena, más que en los elementos sensoriales que supuestamente la componen

[9] La fenomenología es un método de exploración, que tiene por objetivo investigar la realidad de un modo diferente al que usaría el método científico-natural, que creía que el sujeto que investiga puede ser objetivo respecto al objeto de estudio. La fenomenología es una disciplina que insta a las personas a distanciarse de su forma usual de pensar, para poder apreciar la diferencia entre lo que se está percibiendo y sintiendo realmente en el momento, y lo que es residuo del pasado. Es la búsqueda de la comprensión basada en lo que es obvio o revelado por la situación.

[10] Se dice que un sistema es isomórfico con otro respecto de sus relaciones espaciales si cada punto en uno de ellos corresponde a un punto en el otro y las relaciones topológicas de orden espacial de los puntos es la misma en los dos sistemas. Este concepto topológico se puede extender al tiempo, a la cualidad y a la intensidad como hicieron los gestaltistas. En pocas palabras, para los teóricos de la Gestalt existía una perfecta correspondencia entre los acontecimientos físicos del funcionamiento cerebral y los acontecimientos mentales. El isomorfismo es, por tanto, una forma especial de paralelismo psicofísico.

[11] Afirma la tendencia de la experiencia perceptiva a adoptar las formas más simples posibles. Las partes de una figura que tiene «buena forma», o indican una dirección o destino común, forman con claridad unidades autónomas en el conjunto.

[12] Es aquel estímulo presentado por un investigador y no controla la conducta.

[13] El estímulo funcional es el resultado de la acción del sujeto sobre el estímulo nominal, así el estímulo funcional es el que controla la conducta.

[14] Término que indica el patrón global de la estimulación, por oposición a aspectos parciales de la misma, como son las sensaciones. Las sensaciones se definen en términos de luminancia, mientras que la conformación óptica se mide en términos de los márgenes existentes entre áreas de diferente luminancia. Las luminancias cambian con cambios en la iluminación, mientras que la conformación óptica permanece invariante ante esos cambios.

[15] El término propiedad funcional para tradu­cir el término inglés affordance acuñado por Gibson. que significa ofrecer o proporcionar, para referirse a aquellos aspectos de los objetos que hacen referencia a un posible uso de los mismos por parte de un observador o a una relación determinada entre objeto y observador.

[16] La posibilidad de subdividir un sistema en otros subsiste-mas componentes, cada uno de ellos dotado de un input, de una función y de un output.

[17] Se denomina feedback a la instancia de retroalimentación o respuesta en el proceso de comunicación.

[18] Se llama automático a un conjunto o a una secuencia de operaciones que se pone en funcionamiento ante la sola presencia de un estímulo. La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba a abajo. Un proceso automático puede formar parte de un sistema perceptivo de forma innata o como resultado de la práctica. En la me­dida en que un proceso automático depende de la práctica, su automaticidad debe entenderse como una cuestión de grado, no como una propiedad del tipo todo o nada.

[19] Cuando las circuns­tancias requieren un control de la atención, por ejemplo que se trate de una secuencia nueva, o que la situación en la que se van a llevar a cabo las operaciones sea delicada o peligrosa para el organismo.

[20] La base teórica del procedimiento sustractivo consiste en admitir la presencia de diversos procesos cognitivos que actúan en la ejecución de una tarea y que se reflejan en la longitud del tiempo necesario en la realización de dicha ejecución. El tiempo de reacción del proceso total resulta de la suma de los tiempos de reacción correspondientes a los diversos procesos cognitivos que se implican.

[21] La ciencia cognitiva surgió como una empresa multidisplinar en la que convergió el interés por investigar los procesos cognitivos de disciplinas aparentemente tan dispares como la psi­cología cognitiva, la neurociencia, la inteligencia artificial, la lingüística, la filosofía de la mente y la antropología.

[22] En el caso de la caja registradora las preguntas típicas de este nivel tendrían que ver con ruedas dentadas o con circuitos electrónicos; en el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuro­nas si se trata de un sistema biológico.

[23] Son características que representan el volumen de espacio que una forma determinada ocupa. Constituyen las unidades volumétricas más simples a partir de las cuales se construye la representación final de un objeto.

[24] Una red neuronal está compuesta por un conjunto de unidades elementales de procesamiento parecidas a las neuronas del cerebro que están conectadas entre sí de una forma determinada.

[25] Cuando la activación de una unidad provoca un aumento en el nivel de activación de la otra.

[26] Cuando el nivel de activación de la segunda disminuye como consecuencia de la activación de la primera.

[27] Con este nombre se denomina en la actualidad a la empresa inter­disciplinaria que investiga la relación entre procesos psicológicos y estructu­ras cerebrales mediante la utilización de técnicas de neuroimagen.

[28] Dentro del objetivo general de supervivencia y de reproducción que caracteriza el comportamiento de cualquier organismo, la visión proporciona información precisa y a distancia sobre los objetos y sobre la posición espacial de los mismos en el medio ambiente a partir de la luz que los objetos emiten o reflejan. Mediante esta información el organismo es capaz de dirigir las acciones que garantizan su supervivencia.

Deja un comentario

diecinueve − tres =

Ir al contenido