‘Critikid’: pensamiento crítico e ilusiones mentales para niños

El logotipo de 'Critikid' con una ilusión óptica.
El logotipo de ‘Critikid’ con una ilusión óptica.

Por Stephanie Simoes.

Las ilusiones ópticas, como la famosa ilusión de Müller-Lyer que representa dos líneas de igual longitud (aparece en la parte superior del recuadro del logotipo de Critikid, a la derecha), nos enseñan que no siempre podemos confiar en nuestras impresiones inmediatas de lo que vemos. Nos muestran que para hacer juicios precisos debemos aplicar un análisis pausado y cuidadoso y, a veces, incluso utilizar herramientas de medición.

Los enigmas con soluciones contrarias a la intuición o ilusiones mentales, como me gusta llamarlas, ayudan a demostrar que lo mismo ocurre con lo que pensamos. Para hacer juicios precisos no podemos confiar siempre en nuestra intuición; tenemos que pensar las cosas pausada y cuidadosamente, y quizá incluso hacer pruebas en el mundo real.

Administro en las redes sociales cuentas en las que se fomenta el pensamiento crítico y a menudo publico ilusiones mentales para demostrar que nuestra intuición puede ser engañosa. Los acertijos que parecen ponerlo de manifiesto con más efectividad (a juzgar por la cantidad de reacciones que se producen) son los que requieren el uso de la inferencia bayesiana.

La inferencia bayesiana y la biblioteca peculiar

El teorema de probabilidad de Thomas Bayes nos enseña cómo juzgar la probabilidad de algo cuando recibimos nueva información al respecto. La inferencia bayesiana requiere actualizar nuestros juicios de probabilidad al obtener nueva información. No hace falta conocer la fórmula del teorema de Bayes para comprender la idea; unos pocos experimentos mentales pueden familiarizarnos con el concepto.

Imaginemos que hay una bolsa opaca que contiene una canica roja y otra azul. Las probabilidades de sacar una canica roja son, por supuesto, del 50 %. Cerramos los ojos, sacamos una canica y la ponemos a la espalda sin mirarla. ¿Qué probabilidades hay de que la canica que queda en la bolsa sea roja? Siguen siendo del 50 %. Pero ¿si miramos a nuestra espalda y vemos que la canica sacada antes es azul? Las probabilidades de que la canica de la bolsa sea roja ascienden de pronto al 100 %. Nada ha cambiado en la canica de la bolsa, pero la información que teníamos sí ha cambiado, así que nuestro juicio de probabilidad se actualiza en consecuencia.

La clave para entender la inferencia bayesiana es que la nueva información cambia los juicios de probabilidad incluso si nada más cambia.

Como educadora de niños, siempre estoy buscando maneras de explicarles ideas complejas. He aquí una historia que escribí (similar en estructura a la de la canica), que hace esta idea accesible a los niños:

Entras en una biblioteca de lo más peculiar. Esta biblioteca solo tiene dos tipos de libros: la mitad son novelas de ciencia ficción y la otra mitad, novelas románticas. Los libros no están organizados de ninguna manera, están colocados en las estanterías al azar. Lo más curioso de todo es que ¡el bibliotecario obliga a todo el mundo a ponerse una venda en los ojos al entrar! Con la venda puesta, vas tropezando por la biblioteca y coges a ciegas un libro de un estante. ¿Qué probabilidades hay que de hayas escogido una novela de ciencia ficción? (Seguramente, el niño dirá que el 50 %). Te tocan en el hombro y oyes la voz de tu amigo. «Chist –susurra–. ¡Me he colado sin venda!». Antes de que puedas preguntarle cómo logró pasar delante del bibliotecario, prosigue: «¡Guau, ese libro que llevas tiene una nave espacial muy chula en la cubierta!». Bien, ¿qué probabilidades hay ahora de que hayas cogido una novela de ciencia ficción? (Seguramente el niño dirá que muchas más). Sin embargo, el libro no ha cambiado. Sigues teniendo en la mano el mismo libro que tenías antes. Así que ¿cómo han podido cambiar las probabilidades si el libro no ha cambiado? [El niño puede comprender que la clave es la información].

Estos ejemplos de inferencia bayesiana son muy directos y no suscitan mucha resistencia, pero otros más complejos (como el problema de Monty Hall) sí la suscitan muchas veces.

El problema de Monty Hall

Imagínate que estás en un concurso de la tele. Tienes que elegir una entre tres puertas. Tras una de ellas, hay un coche nuevo; tras las otras dos, hay cabras. Ganarás lo que haya detrás de la puerta que escojas. Eliges una puerta confiando en ganar el coche, pero el presentador del concurso abre otra puerta, una que sabe que tiene una cabra detrás. Entonces el presentador te da la opción de cambiar tu elección. ¿Qué deberías hacer? ¿Deberías mantenerte en la puerta que elegiste al principio? ¿Deberías cambiar? ¿O no hay diferencia?

El problema de Monty Hall.
El problema de Monty Hall.

La respuesta intuitiva para la mayoría de la gente –especialmente, aquellos que no están familiarizados con el teorema de Bayes– es que no hay diferencia. Fue también mi respuesta la primera vez que me topé con este problema. Después de todo, una vez abierta la primera puerta sólo quedan dos, así que parece que las probabilidades deberían ser del 50/50.

La verdad, sin embargo, es que te conviene mucho cambiar. Si cambias, tienes dos tercios de posibilidades de ganar el coche; si no cambias, tus posibilidades son de un tercio. Si no me crees, haz la prueba con un amigo y tres cartas, o usa un simulador en línea del problema de Monty Hall. Si haces suficientes pruebas, verás que ganas alrededor de dos tercios de las veces cuando cambias y solo un tercio de las veces cuando no cambias.



Puedes introducir a los niños en este problema con el juego de la taza del caramelo. Coges tres tazas opacas y un puñado de caramelitos. Sin que ellos lo vean, pones un caramelo bajo una de las tazas. Plantea la misma situación que en el problema de Monty Hall: pide a tu niño que escoja una taza, levanta la taza que no tiene el caramelo y pregúntale al niño si quiere cambiar. Repítelo varias veces y ten un papel cerca para ir anotando los resultados. ¿Cuántas veces ganan el caramelo si cambian? ¿Cuántas veces lo ganan si no cambian? Asegúrate de probar ambos escenarios muchas veces.

Tus niños comprenderán que es mejor cambiar. Este juego es una valiosa herramienta educativa no solo porque introduce a los niños en el teorema de Bayes de un modo accesible y divertido, sino también porque demuestra la importancia de hacer un gran número de pruebas a la hora de evaluar la probabilidad de un evento.

Aunque los simuladores en línea y el juego de la taza del caramelo puedan demostrar que cambiar es lo que más te interesa, eso no hace que la respuesta sea menos contraria a la intuición. ¿Cómo hacer que tenga sentido? La forma en que fui capaz de comprender este problema fue imaginar la situación con cien puertas en vez de tres.

Estás en un concurso. Tienes que escoger una entre cien puertas. Tras una de ellas, hay un coche nuevo; detrás de las otras noventa y nueve, hay cabras. Te llevarás lo que haya tras la puerta que elijas. Escoges una puerta, pero el presentador abre otras noventa y ocho puertas, tras las que él sabe que hay cabras. Ahora solo dos puertas permanecen cerradas. El presentador te da la opción de cambiar. ¿Qué deberías hacer? ¿Debes quedarte con la puerta que escogiste? ¿Debes cambiar? ¿O no hay diferencia?

Ahora está claro que deberías cambiar. Cuando escogiste una puerta al principio, solo tenías 1/100 oportunidades de escoger la ganadora. La probabilidad de que la otra puerta cerrada contenga el coche es de 99/100.

No fui la primera en encontrar mucha resistencia al exponer la respuesta al problema de Monty Hall. Marilyn vos Savant, que entre 1985 y 1989 mantuvo en el Libro Guinness de los récords mundiales el récord del cociente de inteligencia más alto, publicó el problema y su solución en su columna «Pregúntale a Marilyn», en la revista Parade, en 1990. En respuesta, Vos Savant recibió, según sus estimaciones, alrededor de 10.000 cartas de lectores diciendo que estaba equivocada (Tierney 1991).

Incluso adultos muy inteligentes que tienen mucho tiempo para pensar en este acertijo tienen dificultades con él. Por eso el problema de Monty Hall y otros acertijos parecidos demuestran hasta qué punto nuestra intuición puede confundirnos.

El acertijo del Bate y la Pelota

Cuando digo intuición, me estoy refiriendo a nuestro pensamiento rápido, automático, o lo que Daniel Kahneman denomina pensamiento Sistema 1 en Pensar rápido y despacio (Kaheman 2011). Esto contrasta con nuestro pensamiento más lento, más reflexivo, que Kahneman llama pensamiento Sistema 2. El Sistema 1 es rápido, pero no siempre muy preciso. El Sistema 2 tiene más probabilidades de llevarnos a la respuesta correcta, pero funciona lentamente.

Daniel Kahneman, en 2009. Foto: nrkbeta.
Daniel Kahneman, en 2009. Foto: nrkbeta.

El clásico acertijo del bate y la pelota nos proporciona una demostración sencilla. Trata de responder a esta pregunta lo más rápido posible: Un bate y una pelota cuestan 1,10 dólares. El bate cuesta 1 dólar más que la pelota. ¿Cuánto cuesta la pelota? ¡Rápido! ¿Cuál es la respuesta? Ahora tómate tu tiempo y piensa despacio en ello. Para muchas personas, la respuesta intuitiva (es decir, diez centavos) es distinta de la respuesta correcta (es decir, cinco centavos).

No comparto acertijos con soluciones contrarias a la intuición con el objetivo de afirmar que nuestra intuición resulta inútil o para sugerir que no debamos hacerle caso. Hay una buena razón evolutiva para tener la capacidad de pensar rápido, incluso a costa de la precisión. Si entras en una sala y ves algo que se parece a una serpiente, tu intuición se pondrá en marcha y te dirá que retrocedas. Si la figura resulta ser una cuerda te habrás equivocado, pero estarás a salvo. Eso es mejor que haber acertado, pero haberte envenenado a consecuencia de un mordisco recibido durante un pausado y cuidadoso análisis de la figura. En situaciones urgentes, la velocidad suele ser más importante que la precisión.

Si bien nuestra intuición tiene un propósito, se vuelve problemática si nos aferramos a sus juicios incluso cuando tenemos tiempo para pensar pausada y racionalmente acerca de algo. En el acertijo del bate y la pelota, nuestra respuesta racional puede fácilmente invalidar nuestro juicio intuitivo. Sin embargo, hay ocasiones en que resulta difícil dejar a un lado nuestra respuesta intuitiva. El problema de Monty Hall es uno de esos ejemplos. Nuestros juicios intuitivos, por tanto, no son solo aquellos que alcanzamos rápidamente, sino también aquellos que creemos correctos.

Ilusiones mentales en la vida diaria

Enfrentarnos a ilusiones mentales en forma de acertijos nos ayuda a identificar esas ilusiones cuando nos encontramos con ellas en la vida cotidiana.

Practico el boxeo y no se me da muy bien. Habitualmente, fallo en las secuencias de pegada (directo de izquierda, directo de derecha, gancho, etcétera). A veces lo hago particularmente bien, y el entrenador dice: «¡Buen trabajo!». Después, parece que cometo errores. Antes asumía que sus elogios me hacían sentir demasiada presión para hacerlo bien y eso me llevaba a hacerlo peor la siguiente vez. Sin embargo, ahora me doy cuenta de que esa suposición era probablemente una ilusión mental. Es mucho más probable que mis fallos tras los elogios sean un caso de regresión a la media. Este es el principio según el cual los resultados extremos suelen ir seguidos por otros más típicos. Una actuación excepcionalmente buena o mala es probable que vaya seguida por algo más cercano a una actuación dentro de la media… y mi actuación típica en boxeo implica muchos errores.

Otro momento en el que podemos encontrarnos con ilusiones mentales es cuando evaluamos riesgos. Por ejemplo, una guía publicada por la Administración de Alimentos y Medicamentos de Estados Unidos (2011) afirma que la evaluación de riesgos puede depender de cómo se presente la información. En un ejemplo, a algunos participantes se les dijo que «diez pacientes de cada cien» que probaron cierto medicamento experimentaron un efecto secundario específico, mientras que a otros participantes se les dijo que ese mismo efecto lo experimentó «el 10 % de los pacientes». Algunos participantes percibieron que el medicamento tenía más riesgo cuando se presentaba en términos de frecuencia que comparado con un porcentaje. «Diez por ciento» y «diez de cien» tienen el mismo significado. Pero, al igual que las formas en los extremos de las líneas pueden hacer que dos líneas iguales parezcan de distintas longitudes, el modo en que se presentan los datos puede conducir a distintas interpretaciones intuitivas.

Conocer la existencia de las ilusiones ópticas las hace más fáciles de detectar. Hemos visto tantas que todos sabemos que no podemos confiar en nuestros juicios inmediatos acerca de lo que vemos. Deberíamos ser igualmente conscientes de que no siempre podemos confiar en lo que nuestra mente percibe como correcto. Igual que necesitamos pensar con detenimiento (y quizá incluso una regla) a la hora de analizar correctamente las longitudes relativas de las líneas, necesitamos pensar pausada y cuidadosamente para transitar por el mundo de las ilusiones mentales y minimizar las ocasiones de que nos engañen.

Referencias

Fischhoff, Baruch; Brewer, Noel T.; y Downs, Julie S. [Eds.] (2011): «Communicating risks and benefits: an evidence-based user’s guide». Administración de Alimentos y Medicamentos (FDA). Silver Spring. 234 páginas.

Kahneman, Daniel (2011): Pensar rápido, pensar despacio (Thinking, fast and slow). Debate. Traducción de Joaquín Chamorro Mielke. Barcelona, 2012. 672 páginas.

Tierney, John (1991): «Behind Monty Halls’ doors: puzzle, debate and answer». The New York Times. Nueva York). 21 de julio. 

Stephanie Simoes es la fundadora de Critikid, página dedicada a enseñar pensamiento crítico a niños y adolescentes. Es creadora de cursos interactivos sobre lógica, comunicación, alfabetización en medios y análisis de datos. También comparte contenido de pensamiento crítico para adultos en las redes sociales (@critikid).


Publicado originalmente bajo el título de «Critikid: critical thinking and mind illusions for kids» en el volumen 49, número 3 (mayo / junio de 2025) de Skeptical Inquirer, la revista del Centro para la Investigación Escéptica (CSI).

Traducción de José Luis Piquero.