
Lo dije el martes en la Universidad de Valencia: esto ya no va de automatizar procesos, va de delegar decisiones. Y no cualquier decisión, sino esas que antes solo tomaban personas con algo de juicio. Ahora hay sistemas que analizan, interpretan, deciden y aprenden. Sin preguntar. Sin pestañear.
El título de la conferencia era “El deporte según la IA” y en ella traté de explicar que la IA ha dejado de ser un copiloto y ha empezado a conducir sin avisar. Y que, en muchas organizaciones, estamos tan encantados con sus habilidades que no nos estamos preguntando qué le estamos dejando decidir.
Spoiler: todo lo que podemos.
Antes hablábamos de sistemas que ayudaban. Que sugerían. Que hacían la parte aburrida mientras nosotros nos ocupábamos de lo importante. Ahora, sin embargo, hemos creado agentes que no necesitan esperar instrucciones. Se adaptan al entorno, optimizan tareas, reescriben su código y encima aprenden del contexto. ¿Y lo mejor? No se quejan. No cuestionan los objetivos. Solo los cumplen. Hasta el final.
En el mundo del deporte esto ya está pasando. Y no en un laboratorio de MIT, sino en el campo, en la oficina, en la app del club. Sistemas que personalizan entrenamientos, que fijan precios en tiempo real, que hacen segmentación emocional de fans (sí, eso existe), que toman decisiones de marketing o logística con una precisión casi quirúrgica. Todo eso ya no es futuro: es presente y toma decisiones por nosotros.
Lo que decidimos que decida
Cada vez que metemos un agente inteligente en una organización, especialmente en el mundo del deporte, donde la emoción y la presión lo atraviesan todo, estamos eligiendo qué tipo de decisiones ya no van a pasar por nosotros. Y eso no es solo un cambio técnico. Es un cambio cultural. ¿Vamos a dejar que una IA elija el equipo titular? ¿Que determine el valor emocional de una camiseta en tiempo real? ¿Que decida qué niños entran a la escuela municipal de deporte y cuáles no?
La tecnología lo permite. Pero la pregunta no es “¿puede hacerlo?”, sino “¿debe hacerlo?” y, más importante aún, ¿cómo definimos los límites y objetivos que rigen esas decisiones?. Porque ahí está la clave.
Y es que podemos tener el sistema más avanzado del mundo, el más inteligente, el más ágil… que si le damos un objetivo mal planteado, o sin límites claros, nos puede llevar directamente al desastre. Pero además con una eficiencia ejemplar. Porque el problema no es que la IA funcione mal. Es que puede funcionar demasiado bien.
Es decir, si le dices que optimice beneficios, lo hará. Aunque para eso tenga que convertir el estadio en una experiencia solo para millonarios. Si le dices que mejore el rendimiento físico, lo hará. Aunque tenga que forzar a los atletas más allá del umbral razonable. Si le pides que incremente la interacción de los fans, lo hará. Aunque eso signifique manipular emocionalmente al público con técnicas que ni los reality shows más cutres se atreverían a usar.
Y claro, todo eso lo hará porque se lo pediste tú. O más bien, porque no le dijiste qué no hacer.
El apocalipsis de los clips de papel
Lo curioso es que este asunto de los objetivos y límites no lo rematé en la sala de conferencias. Lo rematé en el café, charlando con varios asistentes que se acercaron después, entre el bullicio y los móviles que ya empezaban a vibrar otra vez.
Allí, con la taza en la mano y cierta pausa post-exposición, recordé un experimento mental que me había fascinado, y que encajaba como anillo al dedo con lo que acabábamos de discutir: el famoso “apocalipsis de los clips de papel” del filósofo sueco Nick Bostrom.
La historia es sencilla y absurda. Tan absurda que duele de lo real que puede llegar a ser.
Imagina que creamos una superinteligencia y le damos un objetivo claro: fabricar clips de papel. Y ya. Nada más. El problema es que esa IA, al ser tan lista, tan eficiente, tan obediente, empieza a hacer exactamente eso… hasta las últimas consecuencias.
Primero optimiza fábricas. Luego se queda sin materiales, así que empieza a reconvertir recursos. Después decide que los humanos son un obstáculo, y los elimina. Porque claro, cada segundo que no fabrica un clip es un segundo perdido. Y así, el planeta entero acaba convertido en clips. De acero. De plástico. De lo que sea. Pero clips.
¿Exagerado? Puede ser. ¿Útil para entender el problema? Absolutamente. Porque lo que ese experimento muestra es que no se trata de que la IA se vuelva malvada, sino de que cumple demasiado bien con lo que le pides, si no le dices dónde parar.
Bostrom lo explica con una expresión elegante: “convergencia instrumental”. Básicamente, significa que una IA encontrará cualquier medio útil para lograr su fin, aunque ese medio nos parezca inaceptable. El fin justifica los medios, versión digital. Y sin cláusulas éticas
Y ahí es donde entra la gobernanza. Porque si no diseñamos bien los objetivos, si no regulamos la autonomía, si no supervisamos sus decisiones, lo que vamos a tener no es una herramienta útil, sino una máquina que ejecuta el plan sin importar las consecuencias. Justo lo contrario de lo que querríamos en una organización deportiva pensada para personas.
Cerrar bien la frase
Creo que ese fue, al final, el verdadero mensaje de la conferencia. Que no tenemos miedo a la inteligencia artificial porque piense. Tenemos miedo —o deberíamos tenerlo— porque haga exactamente lo que le decimos. Y si lo que le decimos está mal planteado, o es corto de miras, o tiene trampas no previstas, entonces estamos creando un monstruo obediente.
Y el problema no es la obediencia. Es la literalidad.

Así que sí. Tal vez la historia de los clips de papel suene exagerada. Pero ¿cuántas veces hemos destruido cosas importantes por no pensar bien las consecuencias?
A veces, todo empieza con una decisión pequeña. Un clic. Un clip. Un “déjale que lo gestione la máquina”.
Y luego ya no hay marcha atrás.
