Algoritmos que decidirán el deporte

Leo en Wired que los agentes de inteligencia artificial ya no se contentan con ejecutar órdenes o automatizar tareas domésticas para humanos perezosos. No. Ahora charlan entre ellos, negocian, y generan sus propias reglas sociales. En otras palabras, las IAs empiezan a decidir en grupo, sin la molesta intervención humana. Y, aunque a primera vista esto suene a progreso limpio y aséptico, el asunto se pone feo cuando lo miramos desde el deporte. Porque, ¿qué ocurre cuando las máquinas deciden por su cuenta qué vale, quién tiene una oportunidad o cómo se reparte el pastel institucional? ¿Y si estas decisiones, disfrazadas de eficiencia, erosionan nuestro ya debilitado control?

En el próximo Congreso Iberoamericano de Economía del Deporte presentaré una investigación sobre este tema.

¿Hacia una sumisión invisible al algoritmo?

Lo realmente inquietante de los algoritmos no es que sean rápidos o baratos —eso es lo de menos—, sino que están construyendo, ladrillo a ladrillo, una infraestructura digital invisible que puede tomar decisiones cruciales sin que nadie se dé cuenta, sin que nadie pueda intervenir y sin que nadie asuma responsabilidades.

Cada vez que un sistema inteligente decide qué deportistas tienen más visibilidad en una plataforma, cómo se reparten las ayudas públicas, qué barrios necesitan más instalaciones, o incluso qué estilo de juego se promueve en una cantera, está influyendo en el presente y el futuro del ecosistema deportivo.

Hoy en día, muchas de estas decisiones aún están supervisadas por personas. Pero si los agentes algorítmicos se vuelven lo suficientemente autónomos y se les da poder operativo (es decir, capacidad de ejecutar sin revisión humana), podríamos encontrarnos ante decisiones racionalmente correctas pero humanamente inaceptables.

Y lo más peligroso: si esa lógica algorítmica está diseñada solo para optimizar indicadores económicos o de eficiencia, acabará ignorando —por omisión— dimensiones como la inclusión, la equidad, el derecho al deporte, la diversidad cultural o la participación democrática.

La coordinación entre máquinas: cuando las IAs se ponen de acuerdo

Uno de los descubrimientos más recientes, recogido en el artículo de Wired, es que los agentes de inteligencia artificial pueden establecer sus propias reglas de convivencia sin que nadie se las programe directamente. A través de la repetición, la interacción y el aprendizaje, estas IAs comienzan a generar acuerdos, pequeñas normas sociales que les permiten coordinarse entre sí.

Esto puede parecer inofensivo, incluso útil. Pero pensemos un momento: ¿qué valores están presentes en esas normas? ¿Qué queda fuera? ¿Qué ocurre si esas “convenciones maquinales” se filtran en decisiones reales —económicas, políticas, deportivas— excluyendo silenciosamente a ciertos colectivos?

Porque no lo olvidemos: los datos están cargados de historia. Y la historia, de sesgos. Así que si las máquinas aprenden de datos, reproducen (y amplifican) desigualdades.

Imagina que varios agentes de IA, utilizados por diferentes clubes o plataformas, comienzan a establecer entre sí un criterio común para definir qué deportista es “valioso” o “prometedor”. Si nadie interviene, ese criterio podría acabar reforzando estereotipos de género, raza o clase social. Sin que nadie lo haya pedido explícitamente, sin una sola orden directa. ¿Qué podría salir mal?

Lo que está en juego: el sentido de lo humano

Cuando dejamos que decisiones complejas pasen por sistemas automáticos que no entienden el contexto social, cultural o ético, estamos cediendo algo más que control operativo. Estamos renunciando a algo fundamental: el sentido humano de esas decisiones.

La pregunta no es “¿lo hace mejor la IA?”, sino: “¿qué estamos dispuestos a ceder como sociedad?”.

¿Queremos que una IA decida qué niño puede entrenar en la escuela deportiva municipal?

¿Que una plataforma otorgue o niegue una subvención con un clic incuestionable?

¿Que un algoritmo imponga qué cuerpos, qué estéticas, qué estilos merecen un lugar en la escena deportiva?

Lo que me resulta más preocupante es que esto no llegará de golpe ni con titulares alarmantes. Llegará como llegan los lunes: sin avisar, con cara de normalidad. Y cuando nos demos cuenta, ya no decidiremos nosotros. Decidirán ellos. Las máquinas. Por su propia voluntad o en representación de otros. Conversando entre sí. Sin necesidad de consultarnos.

Deja un comentario