“El gorila invisible: cómo nuestros sesgos
afectan la inteligencia artificial que estamos creando”
http://www.youtube.com/watch?v=uvBt7dTJ5FY
http://www.youtube.com/watch?v=v85t9HGGcMo
En un famoso experimento psicológico, un grupo de
personas observa un video en el que varios jugadores pasan una pelota. Se les
pide que cuenten cuántos pases hace un equipo. En medio del video, un gorila
camina entre los jugadores, se detiene, se golpea el pecho y se va.
Sorprendentemente, casi la mitad de los observadores no ven al gorila. Este
fenómeno, conocido como “el gorila invisible”, se ha convertido en un
símbolo poderoso del sesgo de atención y de cómo los humanos pueden
pasar por alto información evidente cuando están concentrados en una tarea.
Pero lo que comenzó como un experimento de psicología hoy tiene implicancias profundas en el mundo de la tecnología, particularmente en la inteligencia artificial (IA).
¿Qué es el
sesgo humano y por qué importa?
Los sesgos cognitivos son atajos mentales que
usamos para tomar decisiones rápidamente. Son parte de nuestra evolución y
muchas veces nos resultan útiles. Pero también pueden llevarnos a cometer
errores sistemáticos. Entre ellos:
- Sesgo de
confirmación: buscar solo información que confirma
nuestras creencias.
- Atención
selectiva: como en el caso del gorila, centrarnos en
un aspecto e ignorar otros.
- Efecto
halo: permitir que una impresión general influya
en decisiones concretas.
Estos sesgos no solo afectan nuestra percepción,
sino también cómo recopilamos, interpretamos y usamos los datos.
http://www.youtube.com/watch?v=SpYyV1XvNDg
¿Cómo se transfiere este sesgo a la inteligencia artificial?
Los modelos de IA no nacen sesgados. Son
alimentados y entrenados por humanos, con datos generados por humanos. Si esos
datos reflejan sesgos (y casi siempre lo hacen), entonces los modelos
aprenderán y replicarán esos sesgos.
Por ejemplo:
- Un modelo
de contratación entrenado con datos históricos puede favorecer a
candidatos de ciertos géneros o universidades.
- Un
sistema de reconocimiento facial puede funcionar mejor con ciertos tonos
de piel si no fue entrenado con una muestra diversa.
- Una IA
financiera puede sobreponderar ciertos activos o sectores si los datos
reflejan una visión de mercado sesgada.
Como en el experimento del gorila, la IA podría
“no ver” algo importante… simplemente porque nosotros tampoco lo vimos al
entrenarla.
El riesgo
real: decisiones automáticas basadas en percepciones sesgadas
En un mundo donde cada vez más decisiones
importantes —financieras, médicas, legales— son apoyadas o incluso tomadas por
IA, el sesgo no es solo un error técnico, es un riesgo social.
Imaginemos:
- Diagnósticos
médicos sesgados por falta de datos clínicos diversos.
- Asistentes
legales que priorizan precedentes no representativos.
- Plataformas
de crédito que excluyen a grupos por patrones históricos injustos.
La IA, entonces, no solo amplifica nuestras
fortalezas cognitivas, también refleja nuestras debilidades.
Hacia una IA más consciente y responsable
¿Qué podemos hacer?
- Diseñar
con diversidad: incluir equipos interdisciplinarios y
multiculturales al desarrollar IA.
- Auditar
los datos: revisar constantemente la calidad y
equilibrio de los datos que alimentan los modelos.
- Educar en
sesgos: formar a profesionales en psicología
cognitiva, ética y pensamiento crítico.
- Fomentar
la transparencia: que los modelos expliquen cómo llegaron a
una conclusión.
🧬 Conclusión:
Ver el gorila, también en la era digital
La lección del gorila invisible es clara: no
ver algo no significa que no esté ahí. En el mundo de la IA, es urgente
prestar atención no solo a lo que los modelos pueden hacer, sino a cómo y
por qué lo hacen.
Comprender el sesgo humano es el primer paso para
construir tecnologías más justas, inclusivas y responsables.

.png)
.png)