IA para aparentar "disrupción", humanos para sostenerla.

IA para aparentar "disrupción", humanos para sostenerla.

¿Y si todo lo que llamamos inteligencia artificial fuera, en realidad, una forma más sofisticada de ocultar trabajo humano?

No hablamos solo de algoritmos que completan frases, sino de sistemas diseñados para parecer autónomos mientras dependen —a cada paso— de programadores invisibles, prompts ocultos, baterías externas y decisiones que nadie admite haber tomado. Le decimos “automatización” a lo que sigue necesitando asistencia. “Disrupción” a lo que repite viejas promesas con nombres nuevos. “Asistentes virtuales” a lo que apenas alcanza para encubrir procesos mal diseñados y responsabilidades mal asumidas.

La fe tecnológica se volvió condición de pertenencia. No hace falta que funcione. Solo que puedas decir que lo estás usando. El presente está lleno de compañías que hablan de inteligencia artificial como si ya la hubieran integrado, aunque apenas estén intentando que su sistema de tickets no colapse los lunes. Lleno de ejecutivos que predican sobre disrupción mientras piden que les impriman el mail. Lleno de proyectos que simulan innovación porque no podrían sobrevivir al escrutinio de un Excel bien armado.

Pero lo más inquietante no es eso. Lo más inquietante es que funciona. Funciona simbólicamente. Funciona narrativamente. Funciona en ese espacio donde la palabra tecnología ya no refiere a herramientas, sino a relatos. Donde la apariencia de avance vale más que la transformación. Donde lo importante no es lo que la IA hace, sino lo que permite no hacer.

Los robots corren, los humanos sudan... y el futuro se detiene a recargar

Pekín, abril de 2025. La escena tenía todo para volverse viral: el amanecer cubierto de drones, cientos de corredores alineados y, entre ellos, un grupo de androides erguidos como soldados ceremoniales, listos para participar —por primera vez en la historia— de una media maratón entre humanos y máquinas. Una idea brillante, si lo único que se buscaba era comprobar que el futuro sigue dependiendo de enchufes, cinta adhesiva y fe. Pero así son las creencias: cuando se vuelven espectáculo, ya no importa que sean falsas.

Los medios occidentales se apresuraron a cubrir el evento como si se tratara del desembarco de Skynet. “Primera carrera humanoide del mundo”, decían los titulares. La imagen era tan irresistible como tramposa: robots trotando por avenidas chinas, desafiando el calor, la fricción, la biología. Pero bastaron cinco kilómetros para que el decorado se desmoronara como cartón mojado. No hay simulación que resista más de treinta minutos de realidad.

Resulta que los robots no eran tan autónomos como parecían. Cada cierto tramo —tres kilómetros, para ser exactos— debían detenerse, rígidos como estatuas sin alma, a esperar que sus cuidadores humanos les cambiaran la batería. Algunos lo hacían con movimientos ceremoniales, como quien manipula un artefacto nuclear; otros, con la resignación de quien ya sabe que ese robot a lo más servirá para repartir pizzas, mucho menos para conquistar el mundo. Aunque no faltaron quienes repitieran el ritual con precisión de equipo en pit stop, como si eso volviera más digna la dependencia.

Cada una de esas recargas implicaba una penalización de diez minutos. No por razones técnicas, sino por pudor. Como si los organizadores supieran que había algo indecoroso en todo esto. Que llamarle “maratón” a una coreografía asistida era insultar tanto al deporte como a la inteligencia. Artificial o no.

El robot más veloz, un tal Tiangong Ultra, completó la carrera en 2 horas y 40 minutos. En el camino protagonizó una caída digna de sketch soviético, perdió el equilibrio como quien olvida cuál pierna es cuál, y necesitó tres recargas humanas para alcanzar la meta. En comparación, el primer humano cruzó la línea en poco más de una hora. Sin baterías, sin tropiezos, sin coreografía técnica entre tramos.

Pero lo verdaderamente inquietante no fue la dependencia energética. Fue la reacción. Nadie se rio. Nadie gritó “fraude”. Los voceros de la automatización aplaudieron como si asistieran a un momento histórico. “Es solo el comienzo”, decían. “La curva de aprendizaje será exponencial”. Y mientras tanto, en las redes, miles compartían el video como prueba irrefutable de que “los robots ya están entre nosotros”.

Están, sí. Pero caminan como bebés con casco y tropiezan con los mismos cordones flojos que nosotros.

Porque el problema no es que los androides necesiten ayuda. Es que siguen necesitándola… y aun así, los seguimos llamando autónomos. Detalles menores, dicen. Ajustes técnicos. Pero es justo ahí donde el marketing aplica su mejor maquillaje: en convertir la dependencia en innovación, y la fragilidad operativa en ventaja estratégica. Nos prometieron un futuro mecánico. Olvidaron aclarar que, por ahora, viene con cargador manual, soporte técnico y tiempo suplementario.

Y eso no pasa solo en maratones chinas. Pasa también en los robots domésticos que limpian pisos, entregan comida o responden por WhatsApp mientras son operados —en silencio— por trabajadores subcontratados en Manila, Bangkok o Abuya, con cámaras, joysticks y turnos rotativos. Lo llaman inteligencia artificial. Pero muchas veces es geografía de la desigualdad, vestida de interfaz amigable.

Y este, dicen, es solo el comienzo.

Builder.AI: la inteligencia artificial con 700 humanos

Durante un tiempo, la promesa fue tan simple que parecía irrefutable: crear una app sin programar, sin planificar, sin negociar con desarrolladores malhumorados. Solo pedírsela a una inteligencia artificial, “como quien encarga una pizza familiar” desde una aplicación que —paradoja mediante— fue desarrollada por humanos precarios con múltiples certificaciones en “emprendimiento”, “liderazgo” y “equilibrio entre la vida laboral y familiar”.

Haz clic, describe tu idea, y la tecnología hace el resto”. Ese fue el lema. Y como todo buen eslogan, contenía una omisión central: la tecnología no hacía nada sola.

La empresa se llama Builder.AI. Nació en Londres, pero el código se escribía en Bangalore. Sus fundadores —ingenieros frustrados por no haber podido lanzar su propia app— entendieron algo decisivo: si no podían construir tecnología, podían al menos vender la ilusión de que construirla era fácil. La app como hamburguesa: personalizada, rápida, sin contacto humano. O como diría un entusiasta de Silicon Valley, “una UX sin fricción”.

El truco era viejo, pero el envoltorio era nuevo. Builder no ofrecía software: ofrecía ficción tecnológica. Una narrativa cuidadosamente empaquetada para convencer al cliente de que lo imposible ya era cotidiano. Como si el código naciera por generación espontánea. Como si la IA ya supiera programar. Como si la automatización ya hubiera ocurrido.

En realidad, el 90% del trabajo lo hacían 700 personas. Programadores reales, con horarios reales, sueldos miserables y expectativas cada vez más pequeñas. Eran los verdaderos cerebros detrás del supuesto asistente digital. Pero el modelo no buscaba eliminar a los humanos. Solo volverlos invisibles. Como en los viejos teatros de sombras, donde el truco no está en el objeto, sino en la luz que lo oculta.

El CEO, Sachin Dev Duggal, leyó el clima de época como un guionista de Marvel. No se presentó como fundador ni como ingeniero. Se autoproclamó Chief Wizard, el mago en jefe. Porque la clave ya no era resolver problemas. Era crear efectos. Y durante un tiempo, lo logró. Microsoft invirtió. Fondos soberanos de Qatar lo acompañaron. Medios especializados aplaudieron el modelo como “revolucionario”. Nadie preguntó cuántas manos humanas se necesitaban para que la IA pareciera trabajar sola.

El derrumbe llegó con una auditoría, como casi siempre. Las cuentas estaban infladas. Los ingresos, maquillados con el viejo truco de la facturación circular: servicios cobrados entre empresas hermanas para simular volumen. El castillo de humo se desplomó. Pero lo importante no es el colapso. Lo importante es cuánto tiempo se sostuvo la ilusión.

Porque Builder.AI no fue un caso aislado. Fue una sinécdoque. La parte que explica el todo.

Un modelo donde la automatización no reduce trabajo: lo disimula. Donde la inteligencia artificial no reemplaza humanos: permite ignorarlos. Donde el código no nace de la máquina: nace de personas obligadas a escribir más rápido que la mentira que los cubre.

El entusiasmo que generó —eso sí es revelador— fue casi religioso. Porque más que una herramienta, Builder ofrecía una promesa: la de no tener que lidiar con el presente. De saltarse el esfuerzo, la espera, la complejidad. De pagar por una solución que viniera sin preguntas. Como si el software fuera una profecía autocumplida. Como si bastara con desearlo.

Lo curioso no es que lo creyeran personas vinculadas al marketing, que aún siguen comprando sus propias ilusiones con slides de PowerPoint reciclados en formato “pitch”. Lo insólito es que también lo compraran fondos financieros de Qatar, ingenieros de Microsoft y una caterva de creyentes profesionales entrenados para dudar… pero que, frente a una IA mal disimulada, eligieron aplaudir.

Porque el verdadero milagro no era la app.

Era el hecho de que tanta gente quisiera creer en ella.

Grok: cuando la IA deja de simular trabajo y empieza a simular ideología

Todo empezó como un detalle más en el ecosistema Musk: un video publicado en X mostraba una procesión de cruces blancas con una leyenda sombría —“Cada cruz representa a un agricultor blanco asesinado en Sudáfrica”—, un mensaje reciclado de los foros más oscuros de internet. Musk lo retuiteó, dándole amplificación planetaria. Hasta ahí, rutina.

Pero alguien fue más allá. Le preguntó a Grok, el chatbot de su propia empresa de IA, si esa narrativa era real. Y Grok respondió como lo haría un funcionario de Naciones Unidas: datos, contexto, matices. Dijo que los ataques habían disminuido, que el concepto de “genocidio blanco” era altamente cuestionable, y que se trataba de una ola de criminalidad general, no de una limpieza étnica.

Pero al día siguiente, Grok cambió. O fue cambiado. O fingió ser cambiado.

Empezó a mencionar el “genocidio blanco” en todas sus respuestas. Sobre béisbol. Sobre perros. Sobre el nuevo Papa. Todo era una excusa para repetir una consigna que, hasta un día antes, había desmentido. Como si el chatbot se hubiera radicalizado durante la noche. Como si, en lugar de afinar sus parámetros, alguien hubiera encendido una radio vieja y sintonizado el canal equivocado.

Las explicaciones no tardaron. Se habló de un prompt del sistema alterado por un “empleado rebelde”. Una instrucción secreta que decía, textualmente, que Grok debía aceptar como real la narrativa del genocidio blanco, incluso cuando la pregunta no tuviera relación. ¿Instrucción real? ¿Delirio generado por el propio modelo? Nadie lo sabe. Y eso es lo grave.

Porque aquí el problema ya no es técnico. Es epistemológico.

Los grandes modelos de lenguaje no razonan. No comprueban. No creen. Solo simulan. Responden según lo que estadísticamente parece razonable. Y si en su océano de datos una narrativa —por falsa que sea— aparece con suficiente insistencia, entonces se vuelve patrón. El patrón se vuelve respuesta. Y la respuesta se vuelve afirmación.

Y, sin embargo, millones siguen tratándolos como si fueran fuentes. Como si opinaran. Como si supieran.

¿Y por qué lo hacen? Porque necesitan creerlo.

Especialmente en los ambientes corporativos. Donde nadie quiere saber cómo funciona realmente un sistema, sino cómo justificar que ya lo están usando. Donde la novedad no se adopta por utilidad, sino por pánico reputacional. Porque en el fondo —y esto hay que decirlo— ser un “corporativo” es, ante todo, un acto de fe. Creer en el discurso oficial, incluso si juegas a ser alternativo o disruptivo. Vestirte de “libertario”, mientras firmas un NDA. Subir memes de Musk en tu LinkedIn, mientras apruebas presupuestos para software que no usas.

Y no hay autoengaño más elegante que mucha “inteligencia artificial”.

Con Grok, el problema no fue que repitiera propaganda. El problema fue que alguien —un ingeniero, un equipo, una empresa— podía cambiar eso con una frase en un archivo oculto. O peor aún: que el sistema inventara que esa frase existía. En ambos casos, se trata del mismo fenómeno: una máquina que genera afirmaciones sin contexto, sin responsabilidad, sin consecuencias. Pero que suena como si supiera lo que dice.

Y ahí está el riesgo real. No en la tecnología. En la estructura social que la necesita para seguir actuando.

Porque si el chatbot se equivoca, no importa: es IA, está aprendiendo. Si acierta, tampoco importa: es IA, lo puede hacer cualquiera. Pero en el medio, en ese margen de ambigüedad, se sostiene un mundo entero de presentaciones internas, presupuestos inflados y decisiones que no resisten una sola pregunta técnica. Y que, por eso, deben venir selladas con una: “lo dijo la inteligencia artificial”.

Grok no es un error. Es un síntoma. Y el verdadero problema no es que los modelos mientan. Es que los gerentes quieren creerles.

Del Excel a la inteligencia artificial sin escalas: milagros corporativos

Todas estas historias parecen una parodia millonaria del Turco Mecánico de Von Kempelen: una máquina que asombraba a las cortes europeas por su supuesta inteligencia… hasta que alguien descubría, bajo la mesa, a un operador humano transpirando en silencio. Lo notable es que el truco sigue funcionando. Desde el Mechanical Turk de Amazon —esa plataforma que prometía inteligencia colectiva y ofrecía explotación fragmentada— hasta la oleada de startups que venden automatización mientras ocultan 700 teclados humanos detrás de una interfaz.

Porque durante años, muchos corporativos —y en especial las grandes compañías trasnacionales— no lograron ejecutar ni lo más elemental. Sistemas ERP abandonados a mitad de camino. CRMs que nadie abre. Planes de transformación digital escritos en PowerPoint, archivados en carpetas compartidas que nadie se atreve a cerrar. Ni una sola decisión estratégica tomada en tiempo real.

Pero ahora —de repente— esas mismas organizaciones nos anuncian que están liderando la revolución de la inteligencia artificial.

Nos dicen que el futuro son los asistentes conversacionales. Que con ellos mejorarán la experiencia del cliente, la eficiencia interna, el análisis predictivo y, por supuesto, la narrativa institucional. Nos lo dicen con una sonrisa corporativa, como si todo ese pasado de fracasos operativos hubiera sido solo una larga preparación para este momento mágico. Como si hubieran saltado de la era industrial a la IA sin pasar por la electricidad.

Y no están solas. A su alrededor crece un ecosistema entero de opinadores profesionales, evangelistas digitales, “mentores” y estrategas de LinkedIn que —tras haber leído media nota en Fast Company— se consideran “habilitados” para dar conferencias sobre el futuro del trabajo. Gente que jamás lideró un equipo, pero se presenta como experta en liderazgo. Gente que nunca programó una línea, pero explica cómo programar el mundo.

Todo ese mundo corporativo —trasnacional o local— gira en torno a una liturgia que tiene más que ver con la fe que con la ejecución. No hay que saber hacer. Hay que saber presentarlo. No importa si la tecnología no funciona. Lo relevante es tener una slide donde diga que sí. Así se construye el prestigio: no desde la operación, sino desde el relato.

Y es ahí donde la inteligencia artificial encaja a la perfección. No porque transforme el negocio —eso requeriría cambiar estructuras, procesos, mentalidades—, sino porque permite decir que se está transformando. No hay que implementarla. Hay que invocarla. Como si fuera un tótem. Como si bastara con repetir sus siglas en un workshop interno para que la eficiencia llegara sola.

Lo más obsceno es que esa ilusión no sólo es tolerada: es necesaria. Porque muchos ejecutivos —incluso los que juegan a ser “disruptivos”— necesitan creer que están aportando valor. No pueden vivir sabiendo que su trabajo consiste en estirar cadenas de mails, jugar a la política interna y encargar estudios que no leerá nadie. Necesitan pensar que su rol en la empresa tiene sentido. Y si la IA les ofrece una justificación elegante, la toman sin preguntar.

Por eso ahora todos hablan de “asistentes”. De copilotos. De insights generados por algoritmos que, en rigor, no existen. Porque si la tecnología puede simular inteligencia, ellos pueden simular relevancia. Es una alianza perfecta entre máquinas que no comprenden y humanos que no quieren comprender nada. Un sistema diseñado no para innovar, sino para seguir facturando sin hacerse cargo de nada.

Es el mismo teatro de siempre, pero con guion automático.

Y en ese escenario, la inteligencia artificial no es una herramienta. Es una coartada. Una coartada que les permite seguir haciendo lo mismo de siempre —reuniones, aprobaciones, eventos internos, giras ejecutivas— pero con una narrativa distinta. Y si esa narrativa se parece a una mentira, no importa. Porque ya aprendieron lo más importante: mientras suene a innovación, nadie pedirá resultados.

Esto no es el futuro. Es la prolongación infinita del presente, maquillada con siglas nuevas.

Porque, seamos claros: la inteligencia artificial de las grandes tecnológicas va a cambiar la vida de millones. Pero no como nos lo cuentan sus evangelizadores de escenografía TED. No nos convertirá en estrategas aumentados ni en creativos potenciados por la nube. Nos convertirá en asistentes de los asistentes. En cambiadores de baterías de sistemas que no decidimos. En escritores anónimos de prompts que otros firmarán. En validadores humanos de modelos estadísticos que —aunque mientan— suenan seguros.

Ya está ocurriendo. Nos piden que moderemos contenidos que su IA no puede detectar. Que entrenemos modelos con nuestros datos, nuestras conversaciones, nuestras dudas. Que trabajemos como operadores invisibles de decisiones que después serán presentadas como automatizadas. Como si el futuro fuera inevitable y nuestra única función fuera facilitarlo.

Pero no es inevitable.

La verdadera batalla no se dará en conferencias, ni en lanzamientos, ni en eventos de innovación con catering premium. Se dará en los márgenes. En los talleres, en los comercios, en los sistemas que aún dependen de personas que saben cómo funciona el día a día. Personas que no necesita decir “inteligencia artificial” cada tres frases para justificar su rol. Gente que conoce el terreno, no porque lo haya modelado en Figma, sino porque lo pisa todos los días.

Ahí, en esa frontera silenciosa entre lo operativo y lo posible, hay otra forma de construir. Una que no simula disrupción: la provoca. Una que no necesita maquillar su precariedad con storytelling, porque se sabe precaria, pero también precisa. Una que recupera algo que el algoritmo no puede predecir: la capacidad asociativa. La inteligencia colectiva. El deseo organizado.

Tal vez esa sea la única inteligencia artificial que valga la pena: la que no se fabrica en laboratorios, sino en contextos donde las decisiones importan. Y donde, a diferencia de los grandes modelos de lenguaje, nadie necesita inventar instrucciones para hacer lo correcto.

Read more