Investigadores de la Universidad de Aston y la Universidad de York han descubierto nuevos conocimientos sobre cómo el cerebro humano realiza juicios de percepción del mundo exterior.
El estudio, publicado el 8 de mayo en la revista PLOS ONE, exploró los mecanismos computacionales utilizados por el cerebro humano para percibir el tamaño de los objetos en el mundo que nos rodea.
La investigación, dirigida por el profesor Tim Meese, de la Facultad de Optometría de la Universidad de Aston, y el Dr. Daniel Baker, del Departamento de Psicología de la Universidad de York, nos brinda más información sobre cómo nuestro sistema visual puede aprovechar el « desenfoque » para inferir la escala perceptiva. pero que lo hace crudamente.
Es bien sabido que para derivar el tamaño del objeto a partir del tamaño de la imagen retiniana, nuestro sistema visual necesita estimar la distancia al objeto. La imagen retiniana contiene muchas señales pictóricas, como la perspectiva lineal, que ayudan al sistema a derivar el tamaño relativo de los objetos. Sin embargo, para derivar el tamaño absoluto, el sistema necesita conocer la escala espacial.
Al tener en cuenta el desenfoque de desenfoque, como las partes borrosas de una imagen fuera de la profundidad de enfoque de una cámara, el sistema visual puede lograr esto. Las matemáticas detrás de esto han sido bien resueltas por otros, pero el estudio hizo la pregunta : ¿explota la visión humana estas matemáticas?
El equipo de investigación presentó a los participantes pares fotográficos de escenas ferroviarias a gran escala sujetas a varios tratamientos de desenfoque artificial y modelos a pequeña escala de escenas ferroviarias tomadas con una exposición prolongada y una apertura pequeña para disminuir el desenfoque por desenfoque. La tarea consistía en detectar qué fotografía de cada par era la escena real a gran escala.
Cuando el desenfoque artificial se orientó correctamente con el plano del suelo (el plano horizontal que representa el suelo sobre el que está parado el espectador) en las escenas a gran escala, los participantes se engañaron y creyeron que los modelos pequeños eran las escenas a gran escala. Sorprendentemente, esto no requirió la aplicación de gradientes realistas de desenfoque. Simples bandas uniformes de desenfoque en la parte superior e inferior de las fotografías lograron efectos de miniaturización casi equivalentes.
Tim Meese, profesor de ciencias de la visión en la Universidad de Aston, dijo : « Nuestros resultados indican que la visión humana puede explotar el desenfoque de desenfoque para inferir la escala perceptiva, pero lo hace de manera cruda, más un análisis heurístico que métrico. En general, nuestros hallazgos brindan nuevos conocimientos sobre los mecanismos computacionales utilizados por el cerebro humano en los juicios de percepción sobre la relación entre nosotros y el mundo exterior ».
Daniel Baker, profesor titular de psicología en la Universidad de York, dijo : « Estos hallazgos demuestran que nuestra percepción del tamaño no es perfecta y puede verse influenciada por otras propiedades de una escena. También destaca la notable adaptabilidad del sistema visual. Esto podría tener relevancia para comprender los principios computacionales que subyacen a nuestra percepción del mundo. Por ejemplo, al juzgar el tamaño y la distancia de los peligros al conducir ».