AI microcity

domingo, 20 de abril de 2025

Title: The Invisible Gorilla: How Human Bias Shapes the Artificial Intelligence We Create

 

Title: The Invisible Gorilla: How Human Bias Shapes the Artificial Intelligence We Create

Introduction

In a famous psychological experiment, participants watched a video of people passing a basketball and were asked to count the number of passes made by one team. During the video, a person in a gorilla suit walks through the scene, pauses, beats their chest, and leaves. Astonishingly, nearly half of the viewers failed to notice the gorilla at all. This phenomenon, known as the "invisible gorilla," has become a powerful symbol of selective attention—our tendency to miss obvious information when we're focused on something else.

What started as a cognitive experiment now holds significant implications in the realm of technology, especially in the development of artificial intelligence (AI).

https://www.vox.com/future-perfect/2023/3/29/23659874/ai-existential-risk-alignment-chatgpt-openphil


http://www.youtube.com/watch?v=v85t9HGGcMo

What Is Human Bias and Why Does It Matter?

Cognitive biases are mental shortcuts that help us make decisions quickly. While often useful, they can also lead to systematic errors. Some of the most common include:

·       Confirmation bias: favoring information that confirms existing beliefs

·       Selective attention: focusing on one element and ignoring others

·       Halo effect: letting an overall impression influence specific judgments

These biases shape not only how we perceive the world but also how we collect, interpret, and act on information.

https://www.independent.co.uk/tech/ai-destroy-humanity-chatgpt-bard-b2447684.html

How Does This Bias Transfer to AI?

AI systems are not inherently biased. They learn from data—and that data comes from humans. If the training data contains human biases (which it often does), the AI learns and replicates them.

For example:

·       A hiring algorithm may favor certain genders or schools if historical data is biased

·       Facial recognition software might perform poorly on darker skin tones if not trained with diverse samples

·       A financial model could overemphasize particular markets if the data reflects biased market assumptions

Like the gorilla experiment, the AI may "miss" key information—because we missed it while feeding the system.

http://www.youtube.com/watch?v=SpYyV1XvNDg



The Real Risk: Automated Decisions Based on Biased Perceptions

In today's world, AI supports or even makes crucial decisions in finance, healthcare, law, and more. Bias in these systems can lead to:

·       Misdiagnosed patients due to unbalanced clinical data

·       Legal recommendations skewed by limited case types

·       Credit denials rooted in historic inequalities

AI doesn’t just amplify our strengths—it also mirrors our weaknesses.

: https://hai.stanford.edu/research/alignment-problem


Towards a More Responsible AI

To address these issues, we must:

1.     Design with diversity: Ensure diverse, multidisciplinary teams build AI systems

2.     Audit the data: Continually evaluate and clean training datasets

3.     Educate for awareness: Teach bias literacy across industries

4.     Promote transparency: Make models explainable and interpretable



http://www.youtube.com/watch?v=Za4un-2Vx9M


Conclusion: Seeing the Gorilla in the Age of AI

The invisible gorilla teaches us a crucial lesson: just because something isn’t seen doesn’t mean it isn’t there. In artificial intelligence, we must pay attention not only to what systems can do but also to how and why they do it.

Understanding human bias is a foundational step toward building more fair, inclusive, and responsible AI technologies.

“El gorila invisible: cómo nuestros sesgos afectan la inteligencia artificial que estamos creando”

 

“El gorila invisible: cómo nuestros sesgos afectan la inteligencia artificial que estamos creando



http://www.youtube.com/watch?v=uvBt7dTJ5FY

http://www.youtube.com/watch?v=v85t9HGGcMo

  Introducción

En un famoso experimento psicológico, un grupo de personas observa un video en el que varios jugadores pasan una pelota. Se les pide que cuenten cuántos pases hace un equipo. En medio del video, un gorila camina entre los jugadores, se detiene, se golpea el pecho y se va. Sorprendentemente, casi la mitad de los observadores no ven al gorila. Este fenómeno, conocido como “el gorila invisible”, se ha convertido en un símbolo poderoso del sesgo de atención y de cómo los humanos pueden pasar por alto información evidente cuando están concentrados en una tarea.

Pero lo que comenzó como un experimento de psicología hoy tiene implicancias profundas en el mundo de la tecnología, particularmente en la inteligencia artificial (IA).

 ¿Qué es el sesgo humano y por qué importa?

Los sesgos cognitivos son atajos mentales que usamos para tomar decisiones rápidamente. Son parte de nuestra evolución y muchas veces nos resultan útiles. Pero también pueden llevarnos a cometer errores sistemáticos. Entre ellos:

  • Sesgo de confirmación: buscar solo información que confirma nuestras creencias.
  • Atención selectiva: como en el caso del gorila, centrarnos en un aspecto e ignorar otros.
  • Efecto halo: permitir que una impresión general influya en decisiones concretas.

Estos sesgos no solo afectan nuestra percepción, sino también cómo recopilamos, interpretamos y usamos los datos.

http://www.youtube.com/watch?v=SpYyV1XvNDg

https://www.nationalgeographic.com.es/ciencia/que-pasaria-si-inteligencia-artificial-se-saliera-control_20428

 ¿Cómo se transfiere este sesgo a la inteligencia artificial?

Los modelos de IA no nacen sesgados. Son alimentados y entrenados por humanos, con datos generados por humanos. Si esos datos reflejan sesgos (y casi siempre lo hacen), entonces los modelos aprenderán y replicarán esos sesgos.

Por ejemplo:

  • Un modelo de contratación entrenado con datos históricos puede favorecer a candidatos de ciertos géneros o universidades.
  • Un sistema de reconocimiento facial puede funcionar mejor con ciertos tonos de piel si no fue entrenado con una muestra diversa.
  • Una IA financiera puede sobreponderar ciertos activos o sectores si los datos reflejan una visión de mercado sesgada.

Como en el experimento del gorila, la IA podría “no ver” algo importante… simplemente porque nosotros tampoco lo vimos al entrenarla.

https://elpais.com/opinion/2023-11-27/el-auge-de-la-inteligencia-artificial-oportunidad-o-amenaza-para-la-humanidad.htm


 El riesgo real: decisiones automáticas basadas en percepciones sesgadas

En un mundo donde cada vez más decisiones importantes —financieras, médicas, legales— son apoyadas o incluso tomadas por IA, el sesgo no es solo un error técnico, es un riesgo social.

Imaginemos:

  • Diagnósticos médicos sesgados por falta de datos clínicos diversos.
  • Asistentes legales que priorizan precedentes no representativos.
  • Plataformas de crédito que excluyen a grupos por patrones históricos injustos.

La IA, entonces, no solo amplifica nuestras fortalezas cognitivas, también refleja nuestras debilidades.

 Hacia una IA más consciente y responsable

¿Qué podemos hacer?

  1. Diseñar con diversidad: incluir equipos interdisciplinarios y multiculturales al desarrollar IA.
  2. Auditar los datos: revisar constantemente la calidad y equilibrio de los datos que alimentan los modelos.
  3. Educar en sesgos: formar a profesionales en psicología cognitiva, ética y pensamiento crítico.
  4. Fomentar la transparencia: que los modelos expliquen cómo llegaron a una conclusión.




🧬 Conclusión: Ver el gorila, también en la era digital

La lección del gorila invisible es clara: no ver algo no significa que no esté ahí. En el mundo de la IA, es urgente prestar atención no solo a lo que los modelos pueden hacer, sino a cómo y por qué lo hacen.

Comprender el sesgo humano es el primer paso para construir tecnologías más justas, inclusivas y responsables.