AI microcity

domingo, 20 de abril de 2025

“El gorila invisible: cómo nuestros sesgos afectan la inteligencia artificial que estamos creando”

 

“El gorila invisible: cómo nuestros sesgos afectan la inteligencia artificial que estamos creando



http://www.youtube.com/watch?v=uvBt7dTJ5FY

http://www.youtube.com/watch?v=v85t9HGGcMo

  Introducción

En un famoso experimento psicológico, un grupo de personas observa un video en el que varios jugadores pasan una pelota. Se les pide que cuenten cuántos pases hace un equipo. En medio del video, un gorila camina entre los jugadores, se detiene, se golpea el pecho y se va. Sorprendentemente, casi la mitad de los observadores no ven al gorila. Este fenómeno, conocido como “el gorila invisible”, se ha convertido en un símbolo poderoso del sesgo de atención y de cómo los humanos pueden pasar por alto información evidente cuando están concentrados en una tarea.

Pero lo que comenzó como un experimento de psicología hoy tiene implicancias profundas en el mundo de la tecnología, particularmente en la inteligencia artificial (IA).

 ¿Qué es el sesgo humano y por qué importa?

Los sesgos cognitivos son atajos mentales que usamos para tomar decisiones rápidamente. Son parte de nuestra evolución y muchas veces nos resultan útiles. Pero también pueden llevarnos a cometer errores sistemáticos. Entre ellos:

  • Sesgo de confirmación: buscar solo información que confirma nuestras creencias.
  • Atención selectiva: como en el caso del gorila, centrarnos en un aspecto e ignorar otros.
  • Efecto halo: permitir que una impresión general influya en decisiones concretas.

Estos sesgos no solo afectan nuestra percepción, sino también cómo recopilamos, interpretamos y usamos los datos.

http://www.youtube.com/watch?v=SpYyV1XvNDg

https://www.nationalgeographic.com.es/ciencia/que-pasaria-si-inteligencia-artificial-se-saliera-control_20428

 ¿Cómo se transfiere este sesgo a la inteligencia artificial?

Los modelos de IA no nacen sesgados. Son alimentados y entrenados por humanos, con datos generados por humanos. Si esos datos reflejan sesgos (y casi siempre lo hacen), entonces los modelos aprenderán y replicarán esos sesgos.

Por ejemplo:

  • Un modelo de contratación entrenado con datos históricos puede favorecer a candidatos de ciertos géneros o universidades.
  • Un sistema de reconocimiento facial puede funcionar mejor con ciertos tonos de piel si no fue entrenado con una muestra diversa.
  • Una IA financiera puede sobreponderar ciertos activos o sectores si los datos reflejan una visión de mercado sesgada.

Como en el experimento del gorila, la IA podría “no ver” algo importante… simplemente porque nosotros tampoco lo vimos al entrenarla.

https://elpais.com/opinion/2023-11-27/el-auge-de-la-inteligencia-artificial-oportunidad-o-amenaza-para-la-humanidad.htm


 El riesgo real: decisiones automáticas basadas en percepciones sesgadas

En un mundo donde cada vez más decisiones importantes —financieras, médicas, legales— son apoyadas o incluso tomadas por IA, el sesgo no es solo un error técnico, es un riesgo social.

Imaginemos:

  • Diagnósticos médicos sesgados por falta de datos clínicos diversos.
  • Asistentes legales que priorizan precedentes no representativos.
  • Plataformas de crédito que excluyen a grupos por patrones históricos injustos.

La IA, entonces, no solo amplifica nuestras fortalezas cognitivas, también refleja nuestras debilidades.

 Hacia una IA más consciente y responsable

¿Qué podemos hacer?

  1. Diseñar con diversidad: incluir equipos interdisciplinarios y multiculturales al desarrollar IA.
  2. Auditar los datos: revisar constantemente la calidad y equilibrio de los datos que alimentan los modelos.
  3. Educar en sesgos: formar a profesionales en psicología cognitiva, ética y pensamiento crítico.
  4. Fomentar la transparencia: que los modelos expliquen cómo llegaron a una conclusión.




🧬 Conclusión: Ver el gorila, también en la era digital

La lección del gorila invisible es clara: no ver algo no significa que no esté ahí. En el mundo de la IA, es urgente prestar atención no solo a lo que los modelos pueden hacer, sino a cómo y por qué lo hacen.

Comprender el sesgo humano es el primer paso para construir tecnologías más justas, inclusivas y responsables.