Desde la Niebla de la Guerra al algoritmo de selección

Una obsesión antigua
El conflicto actual en en el Medio Oriente no es el primero que sigo con obsesión. Ni será, probablemente, el último. Hay quienes leen novelas, otros siguen religiosamente los mercados, cosa que también hago desde hace un lustro. Lo mío —desde hace décadas— ha sido la guerra. No como espectáculo, tampoco como ejercicio de indignación moral, sino como campo de estudio. Como una forma brutal, pero precisa, de comprender cómo se organiza el mundo.
Empecé a observar conflictos armados cuando aún se hablaba de la Guerra Fría en tiempo presente. Luego vinieron las guerras de liberación, las invasiones preventivas, los atentados, los golpes blandos. La lista no es corta ni selectiva. Incluye los grandes nombres —Afganistán, Irak, Siria, Ucrania— pero también los conflictos menos visibles: las guerras mineras en el Congo, la limpieza sectaria en Etiopía, las masacres cíclicas en Sudán del Sur, los reacomodos silenciosos en el Sahel. Cada uno, a su manera, dejó marcas: en el lenguaje, en la forma de justificar el daño, en el tipo de cuerpo que se volvía prescindible.
No me interesa la épica ni la condena. Me interesa el diseño. Las razones que se invocan, los métodos que se perfeccionan, las doctrinas que se ajustan para que la violencia se vuelva gobernable. He seguido la transición de las guerras convencionales a las guerras híbridas. He visto cómo la línea entre civil y combatiente se desdibuja. Cómo la lógica del dron reemplaza al combate cuerpo a cuerpo. Cómo el campo de batalla se convierte en laboratorio.
Por eso, cuando se habla de las guerras actuales, no estoy reaccionando a un conflicto puntual. Estoy siguiendo una continuidad. Una línea que comenzó mucho antes y que, en ciertos aspectos, ha madurado técnicamente más allá de cualquier otra guerra contemporánea.
En ese camino, me familiaricé con muchas de las narrativas oficiales que emergen durante y después de cada conflicto. Entendí con claridad la idea de la niebla de la guerra, ese término acuñado por Carl von Clausewitz para describir la incertidumbre y la confusión que rodean el campo de batalla, y que dificulta toda toma de decisiones. También vi cómo esa niebla fue reinterpretada por Robert McNamara durante la guerra de Vietnam —donde el exceso de datos no evitaba el fracaso— y cómo, décadas después, Donald Rumsfeld la convirtió en fórmula epistemológica: “hay cosas que sabemos que sabemos, cosas que sabemos que no sabemos, y cosas que no sabemos que no sabemos”.
Desde esa familiaridad adquirida con los códigos de la violencia organizada, intento observar con precisión una maquinaria que ha dejado de operar como doctrina política para funcionar como sistema automatizado. Para entender cómo llegamos hasta aquí —hasta ese umbral en que el daño colateral, obsesión persistente en mis desvelos, deja de ser una excepción y se convierte en regla— es necesario comenzar por algo más elemental: cómo se justificó, durante décadas, la muerte de civiles. Solo entonces podremos describir y entender con claridad lo que ocurre actualmente en Gaza.
Cómo se explicó la muerte de civiles
Durante los últimos treinta años, la muerte de civiles en Gaza—y antes en otros conflictos— ha sido una constante. A veces miles, otras decenas, pero siempre presentes. Y frente a esa recurrencia, se consolidaron distintas formas de explicación. Algunas nacieron de los gobiernos, otras de observadores neutrales, otras de organismos internacionales o voces críticas. No todas eran cínicas. Algunas eran incluso honestas. Pero todas compartían una premisa común: que esas muertes eran, en el fondo, indeseadas.
El escudo humano
La primera explicación —la más difundida, repetida desde Tel Aviv hasta los platós de CNN— sostenía que Hamás utiliza a la población civil como escudo. Que lanza cohetes desde patios residenciales, que se oculta en hospitales y escuelas, que instrumentaliza a los propios palestinos como barrera moral frente al ataque israelí. En esa lógica, Israel no ataca a civiles, sino a combatientes ocultos, y cualquier víctima colateral sería responsabilidad del grupo armado que transformó un barrio en campo de batalla.
El caos urbano
La segunda explicación era más técnica, casi higiénica. No se hablaba de enemigos cobardes ni de estrategias de camuflaje, sino de limitaciones operativas. La guerra urbana, se decía, es inherentemente caótica. Los sensores fallan. Las coordenadas se corrompen. La inteligencia llega tarde. Incluso con la mejor voluntad, ningún ejército puede evitar del todo el daño colateral en espacios densamente poblados. Aquí, el problema no era moral, sino logístico.
La represalia como doctrina
Una tercera lectura, más incómoda, más minoritaria, afirmaba que esas muertes no eran errores sino mensajes. Que se trataba de una estrategia disuasiva, dirigida no sólo contra Hamás sino contra toda su base social. Una forma de castigo colectivo que buscaba quebrar el tejido civil que sostiene la resistencia. Esta idea, más política que táctica, no surgía de rumores, sino de declaraciones explícitas. Durante más de dos décadas, distintos funcionarios israelíes —con Benjamín Netanyahu a la cabeza— repitieron una misma fórmula con glacial consistencia: 'el precio debe ser insoportable para los palestinos'. Insoportable si decidían quedarse, insoportable si osaban resistir.
La eliminación directa de civiles
Por último, una cuarta interpretación, más radical, pero no menos persistente, acusaba directamente al Estado israelí de ejecutar civiles: por venganza, por racismo estructural, por la deshumanización inherente a décadas de ocupación. Esta posición fue sostenida por organizaciones palestinas, académicos, activistas, y algunos pocos periodistas israelíes como Gideon Levy. Pero su alcance era limitado fuera de ciertos círculos. No porque no se creyera posible, sino porque le faltaba lo que toda acusación necesita para volverse hegemonía: un sistema. Un diseño. Una demostración estructural de que la muerte del civil no era un efecto, sino un objetivo.
Hasta aquí llegaban las explicaciones. Una mezcla de culpa externa, limitación tecnológica, estrategia disuasiva y acusación ética. Nadie cuestionaba del todo la idea de que, al menos en su forma básica, la doctrina israelí buscaba limitar el daño. Nadie, hasta ahora.
El mito fundacional: precisión y ética del targeting
Durante años, la moral israelí del combate no se impuso por el volumen de fuego, sino por su justificación tecnológica. No era la fuerza lo que se exhibía, sino el control. Matar no era un acto impulsivo, sino un cálculo preciso. Una necesidad, no una voluntad. Así nació el concepto —tan repetido, tan funcional— del misil inteligente.
Ese misil no sólo impactaba: absorbía la culpa. Permitía destruir sin barbarie, ejecutar sin brutalidad, intervenir sin que la escena recordara a Faluya o Grozni. Cada vez que se hablaba de él, se hablaba también de su contrario: del terrorista sin reglas, del combatiente que no distingue entre civil y soldado. El misil israelí, en cambio, venía a restaurar la frontera perdida entre guerra y crimen.
El modelo fue tan eficaz que moldeó incluso los asesinatos selectivos. Las operaciones del Mossad —legendarias, cinematográficas, envueltas en misterio y eficacia— no eran leídas como actos de violencia estatal, sino como expresión de una capacidad quirúrgica superior. Se mataba, sí, pero con sobriedad. No había humillación ni exceso, solo un mensaje preciso, una neutralización elegante. El enemigo caía en un hotel, en un estacionamiento, en su dormitorio. Y la escena se cerraba con una lección: Israel no grita, ejecuta.
Esa estética de la eficiencia moral se volvió doctrina. Fue trasladada al plano militar abierto. Cada bomba lanzada era acompañada de un argumento: que se había confirmado el blanco, que se había hecho todo lo posible por evitar daños colaterales, que era una reacción a una amenaza inminente. Y cuando los muertos eran demasiados, aparecía la otra mitad del relato: que el enemigo se escondía entre civiles, que el mundo no entendía lo que era combatir en un entorno urbano densamente poblado, que se trataba de una guerra sin alternativas.
La precisión se convirtió, así, en una ética. No se trataba sólo de destruir al enemigo, sino de demostrar que se lo hacía sin placer, sin odio, sin error. El misil inteligente no era una herramienta: era una coartada.
Y como toda coartada bien construida, funcionaba incluso cuando fallaba. Si un ataque mataba a una familia entera, la culpa no era del misil: era del civil que no se alejó, del error del sensor, del enemigo que obligó a disparar. El diseño de la narrativa estaba completo. La violencia podía justificarse incluso cuando producía horror, porque el horror —en ese marco— siempre era responsabilidad de otro.
Lo que no se preveía es que esa coartada moral dependía de una condición fundamental: que el sistema aún contuviera a la voluntad humana. Que alguien —en algún momento— decidiera. Pero el documento que acompaña estas líneas* viene a demostrar que esa era ya no existe.
Que la guerra de precisión ha sido reemplazada por otra cosa.
Y que el misil ya no es inteligente.
Es autónomo.
Cambio de fase: cuando la ética fue sustituida por código
Durante años, la idea de precisión funcionó como consuelo moral. Permitía creer que la violencia seguía gobernada por decisiones humanas, por dilemas operativos, por una tensión —todavía viva— entre eficacia y moral. Incluso sus críticos más agudos aceptaban esa premisa: el problema no era la herramienta, sino el uso.
Pero el documento técnico que acompaña este artículo desmonta esa certidumbre. No es una denuncia emocional. Es un texto seco, pensado para ingenieros militares. No discute, describe. Y en su descripción revela un quiebre: lo que ocurre en Gaza no es continuidad, sino mutación. La guerra ya no es asimétrica: es algorítmica.
Tres sistemas definen esta arquitectura: Lavender, Where’s Daddy y Gospel. Uno clasifica humanos, otro confirma presencias, el tercero evalúa estructuras. Si los datos coinciden, se ejecuta un ataque. La deliberación desaparece. No hay juicio: hay cálculo. La muerte no es decidida, es aplicada.
El operador ya no decide. Aprueba. Lo que antes podía ser exceso, ahora es cumplimiento. La ética no fue derrotada: fue reemplazada por código.
La responsabilidad no desaparece. Se traslada. Ya no recae sobre quien dispara, sino sobre quien diseñó el sistema. El civil que antes era error, hoy es variable de optimización. Si su presencia eleva el impacto, se convierte en parte del objetivo. No como daño colateral. Como función.
La guerra, así, se vuelve secuencia. No hay tragedia, ni excepción. Solo una fórmula ejecutada con eficiencia.
Lavender: convertir en blanco al colateral
Lavender no identifica culpables: clasifica patrones. A cada persona en Gaza, al total de la población, se le asigna un puntaje de riesgo entre 1 y 100, basado en vínculos, localización nocturna, actividad digital o simple cercanía. Ese número, invisible y no apelable, puede ser letal.
No hace falta haber disparado. Basta con dormir en la casa equivocada, compartir señal con un teléfono marcado, vivir en el barrio erróneo. Lavender ha sido entrenado con millones de registros etiquetados por inteligencia humana. Pero no busca confirmar acciones: busca correlaciones. No requiere prueba, solo recurrencia.
Cuando el puntaje supera cierto umbral —85, según fuentes—, se activa la cadena de ataque. Otros sistemas verifican presencia en domicilio, contexto horario, acompañantes. Si todo coincide, se ejecuta. Sin advertencia. Sin interrogatorio. Sin error, porque no hay verdad que verificar: solo scores.
El blanco ya no es quien hace, sino quien se parece. La sospecha no es individual: es estadística. Y, por tanto, irrevocable.
Lavender no se rige por la presunción de inocencia ni por la responsabilidad individual. Evalúa cada cuerpo como nodo funcional dentro de una red. Si el patrón coincide, se elimina. No por equivocación.
Por diseño.
Where’s Daddy: confirmar la presencia, autorizar el ataque
Where’s Daddy no delibera: corrobora. Recibe un nombre —asignado por Lavender— y verifica si ese individuo está en casa. Lo hace cruzando señales de celular, conexiones WiFi, imágenes térmicas. Si la coincidencia es alta, marca ON TARGET. Y la orden puede ejecutarse.
El nombre del sistema no es una metáfora. Fue diseñado para detectar si “papá está en casa”, porque si él está, probablemente también lo están su familia y su entorno. El impacto colateral, lejos de ser un accidente, se convierte en multiplicador táctico.
No hay imágenes, ni biografías, ni contexto. Solo una interfaz con coordenadas, nivel de prioridad y estado binario: presente o no confirmado. En menos de cinco segundos, la validación está lista.
El operador no interroga, no duda, no sopesa. Hace clic. Y el clic no es decisión: es trámite. Where’s Daddy es la segunda capa de un sistema en cadena. Si hay blanco y está localizado, se dispara. No como castigo. Como procedimiento.
Gospel: cuando un edificio respira demasiado
Gospel no busca personas. Analiza estructuras. Evalúa fachadas, techos, consumo eléctrico, temperatura. Si un edificio muestra patrones de actividad irregular —movimiento, calor, luz— lo marca con un valor operativo. Si ese valor supera cierto umbral, recomienda destruirlo.
No importa si hay personas adentro. No se necesita ver armas. Basta con que el algoritmo reconozca un patrón parecido a otro ya clasificado como hostil. Lo que antes era un hogar, una clínica o un taller, se vuelve un nodo. Y si el nodo “respira demasiado”, se neutraliza.
Gospel puede cruzar datos con Lavender y Where’s Daddy. Si el edificio alberga personas marcadas, o si hay confirmación de presencia, la carga recomendada aumenta. No para castigar. Para colapsar.
El operador recibe una ficha técnica: coordenadas, puntaje, historial térmico. Y con un clic, lo que era una estructura se convierte en escombro.
No por error. Como objetivo.
Integración: cuando el sistema se hace sistema
Lavender etiqueta personas. Where’s Daddy confirma su presencia. Gospel evalúa el valor operativo del edificio donde están. No actúan por separado. Se encadenan. Como engranajes en una coreografía sin pausa. Y lo que surge no es un software, sino una maquinaria de eliminación automatizada.
No hay deliberación, solo umbrales. Si el score es alto, si hay confirmación de presencia, si el edificio califica, se dispara. El operador ya no decide: valida. El sistema ya no pregunta: ejecuta. La ética no fue omitida. Fue desactivada.
La responsabilidad, así, se disuelve. No por falta de culpables, sino por falta de eventos discernibles. Cada ataque ya no es una decisión. Es una función. Una iteración. Un flujo que se ejecuta como un CRM de la guerra.
Y como toda plataforma, escala. Porque el sistema en Gaza no fue hecho para una guerra. Fue diseñado como prototipo. Como modelo exportable. Como la versión alfa de una arquitectura donde el enemigo no es quien actúa, sino quien se parece.
Daño colateral como estrategia conductual
Durante décadas, “daño colateral” fue un eufemismo. Permitía asumir la muerte de civiles sin asumir culpa. Era un error estadístico, no una intención. Un residuo lamentable, no un recurso táctico.
Pero en Gaza, ese concepto ha mutado. Ya no es una consecuencia. Es una función. El documento técnico adjunto no lo enmascara: si un civil está vinculado —por parentesco, vecindario o señal de celular— a un objetivo clasificado, su presencia no reduce el valor del ataque. Lo incrementa. Porque su muerte no es una falla: es un multiplicador. Infunde temor. Fractura redes. Desorganiza familias.
El civil, así, deja de ser víctima y se convierte en vector. No por error. Por diseño. Ya no es un costo: es parte del beneficio táctico.
La historia conocía este principio. Campañas coloniales, represalias sistemáticas, operaciones de tierra arrasada. Lo nuevo es la lógica algorítmica que lo formaliza. La muerte del civil ya no necesita justificarse: se calcula. Se pondera. Se integra al sistema como una optimización más.
No se trata ya de matar al enemigo. Sino de alterar el ecosistema que lo rodea.
Cuando el laboratorio se exporta
Lo más perturbador de este nuevo paradigma no es que exista. Es que funciona. Que produce resultados medibles, iterables, optimizables. Y como todo sistema que demuestra eficacia operativa, está listo para ser exportado. Lo que hoy se despliega en Gaza no es solo una estrategia de guerra: es una tecnología de control poblacional, probada a gran escala, con capacidad de adaptación a otros territorios.
Ya no se trata únicamente de drones ni de bombas guiadas. Se trata de un sistema de gestión del comportamiento humano en zonas hostiles. Un sistema que, con suficientes datos, puede modelar decisiones, inducir desplazamientos, predecir patrones. Y sobre todo: eliminar con precisión matemática a quienes, según el diseño algorítmico, representan una amenaza futura. No real. No actual. Futura.
El problema es que esa definición de amenaza ya no depende de actos, sino de correlaciones. De vínculos sociales, de recorridos digitales, de presencias reiteradas en ciertos lugares. El enemigo ya no es quien actúa, sino quien podría hacerlo. Y eso transforma no solo la guerra, sino la noción misma de culpabilidad, de castigo, de derecho a existir.
Lo más grave no es que el sistema sea inhumano. Es que es perfectamente humano en su lógica instrumental: busca maximizar el efecto y reducir los riesgos. Solo que lo hace sin preguntas. Sin interrupciones. Sin el temblor que alguna vez supimos asociar al momento de matar.
Y ahí, justamente, ocurre el giro.
De Clausewitz a Lavender: cuando el enemigo es una variable
Hoy, justo al publicar estas líneas, un misil impactó una cafetería en la costa de Gaza. No era un centro operativo. No había milicianos. Era un punto de encuentro para activistas, periodistas y trabajadores de ONG. Entre los heridos, una joven periodista palestina, ampliamente reconocida por su labor crítica e independiente. Más de veinte personas murieron. Decenas quedaron atrapadas entre el humo, los vidrios y los gritos. La BBC reportó que el ejército israelí se negó a comentar. Nosotros ya sabemos por qué: no fue un error. Fue un ajuste de parámetros.
La cafetería Al-Baqa se había convertido en un espacio habitual para periodistas, activistas y teletrabajadores, al ofrecer acceso a internet, asientos y estaciones de trabajo distribuidas a lo largo de la costa mediterránea de Gaza. Era, en cierto modo, un enclave de vida civil en medio de los bombardeos.
Desde hace más de un año, los sistemas automatizados del ejército israelí incorporaron una nueva categoría de objetivo colateral: cualquier persona con educación superior o formación profesional. La lógica es nítida. No basta con destruir edificios: hay que impedir que alguien los reconstruya. No basta con quebrar la infraestructura: hay que eliminar la posibilidad de liderazgo.
Este hecho revela que nuestras viejas creencias sobre el daño colateral —ese residuo ético, esa violencia que el discurso militar fingía no buscar pero siempre acababa aceptando— ya no aplican. Durante años pensé que lo insoportable era esa zona gris. Pero el verdadero quiebre ocurre cuando el residuo se convierte en función. Cuando la muerte ya no es una consecuencia no deseada, sino una categoría parametrizable.
Lo había intuido antes. En Yemen. En el Sahel. En Xinjiang. Pero solo ahora —leyendo con detenimiento los documentos que describen esta arquitectura— comprendí que la ética no fue desplazada por cinismo, sino por diseño. Y el juicio humano, por código.
Porque si el algoritmo decide quién vive y quién muere, si la vida se pondera como un riesgo anticipado, si la muerte se programa como una salida lógica, entonces ya no hay guerra. Hay un entorno controlado. Un laboratorio sin anestesia. Una maquinaria sin remordimiento. Una operación sin enemigos, solo variables.
Eso fue lo que vi esta vez. Y por eso fue distinto. Porque esta vez, ya no hay niebla de guerra. Hay claridad matemática. Y ese cálculo —precisamente ese— es lo más oscuro de todo.
Documento adjunto: