Cómo cuatro siglos de encuentros improbables y mentes brillantes crearon, contra todo pronóstico, la inteligencia artificial
Una historia colectiva — de Pascal (1642) a Claude (2026) — contada por sus conexiones causales.
214 hitos verificados · 322 relaciones causales · ~270 mentes brillantes · 203 fuentes formales.
En 1847, un profesor sin doctorado de la Irlanda rural llamado George Boole intenta convertir el pensamiento en álgebra para descubrir las leyes divinas de la mente. Muere a los 49 años sin ver jamás una aplicación práctica de su trabajo. Noventa años después, en el MIT, un estudiante de máster de 21 años llamado Claude Shannon — sin saberlo — se da cuenta de que el álgebra de Boole es exactamente el lenguaje de los relés telefónicos. Sin esa coincidencia imprevisible, sin esa serendipia entre dos vidas que jamás se cruzaron, no habría transistor, ni internet, ni ChatGPT. El Hilo Invisible de la IA es la historia de cómo, a través de conexiones humanas y coincidencias improbables, 214 hitos y unas 270 mentes terminaron dando forma a algo que ninguna de ellas buscaba. Casi siempre persiguiendo preguntas equivocadas, construyeron —sin proponérselo y para nuestro futuro— la inteligencia artificial que está transformando el mundo.
El progreso técnico no es una sucesión de genios solitarios. Es un grafo causal de inteligencia colectiva en el que cada idea espera décadas a su próximo eslabón. La IA actual no la inventó OpenAI ni Google: la construyeron — sin saberlo, sin coordinarse, sin proponérselo — 270 personas durante 380 años.
Este libro no es un manual técnico. Es una historia humana llena de coincidencias increíbles, de personas que persiguieron preguntas equivocadas y obtuvieron respuestas correctas, de talentos que murieron jóvenes sin saber que cambiarían el mundo.
Mentes separadas por siglos, océanos y disciplinas, persiguiendo preguntas casi siempre equivocadas, terminaron tejiendo —sin saberlo— la inteligencia artificial que hoy transforma el mundo.
Si Boole no hubiera intentado leer la mente de Dios, no habría transistor. Si Pitts no hubiera huido de casa a los 15 años, no habría redes neuronales. Si Shannon no hubiera leído a Boole noventa años después, todo se habría detenido ahí. Los grandes avances no suelen ser lineales, sino acumulaciones accidentales de intentos dispersos.
El Hilo Invisible no es una tesis, es una observación: cada vez que la humanidad ha avanzado de verdad, ha sido por accidente, colectivamente, persiguiendo otra cosa.
Un hilo que no se teje en los nombres, sino entre ellos: una única conversación de la especie, sostenida durante casi cuatro siglos sin saberlo. Reconocerla puede cambiar lo que viene.
El mercado editorial actual de IA es dominantemente apocalíptico (Suleyman Coming Wave, Bostrom Superintelligence, Tegmark Life 3.0). Falta una voz que reconcilie al lector general con su propia tecnología. Este libro no es ni utópico ni distópico: es realista con esperanza, porque los datos justifican la esperanza.
| Comp title | Año | Foco | Lo que le falta |
|---|---|---|---|
| Walter Isaacson · The Innovators | 2014 | Biográfico, USA-céntrico | Pre-IA · biografías encadenadas, sin grafo causal estructural |
| James Gleick · The Information | 2011 | Shannon-céntrico, teoría info | Una sola disciplina · sin IA |
| George Dyson · Turing's Cathedral | 2012 | Manhattan / IAS Princeton | Solo 1940-1955 |
| Yuval N. Harari · Homo Deus | 2016 | Especulación filosófica | Poca técnica · sin demostración cuantitativa |
| Ethan Mollick · Co-Intelligence | 2024 | Uso pragmático de IA | Sin profundidad histórica |
| Mustafa Suleyman · The Coming Wave | 2023 | IA como amenaza | Especulativo · sin grafo causal |
Ningún libro existente demuestra cuantitativamente la tesis de la inteligencia colectiva en computación con un mapa causal explícito. Este lo hace.
Los competidores cuentan biografías (Isaacson) o ideas (Gleick). Este libro cuenta conexiones. Y demuestra — con 322 aristas — que la conexión es la unidad básica del progreso, no el inventor.
La narrativa popular empieza en 1946 con ENIAC. Es falsa. Empieza en 1642 con la Pascalina y atraviesa Irlanda, Viena, Polonia, Rusia, Japón, Brasil y Holanda antes de llegar a Silicon Valley. Este capítulo deconstruye la narrativa heroica americana y propone leer la historia como un grafo, no como una lista de inventores. Datos contra anécdota.
Presenta el método del libro. 214 hitos, 322 conexiones, 15 columnas temáticas. El progreso no es lineal — es un tejido. El lector aprende a "leer" el grafo y los 5 tipos de relación causal (causal · habilita · continúa · paralelo · puente). Doble página con el grafo entero desplegado.
Identifica los cinco patrones que se repiten 380 años: (1) Descubrimiento simultáneo (Cook + Levin para NP, Kilby + Noyce para el chip). (2) El eslabón dormido (algoritmos esperando hardware: backprop 26 años). (3) El cruce de disciplinas (Shannon: lógica + electricidad). (4) La deuda heredada (Lean 4 vive de Church 1936). (5) El accidente útil (CUDA nació para Quake, sirvió para GPT).
George Boole publicó en 1847 buscando "las leyes del pensamiento" para entender la mente divina; murió a los 49 años, pobre y autodidacta, sin ver una sola aplicación práctica. Noventa años después, en el MIT, Claude Shannon — 21 años, estudiante de máster — escribió en su tiempo libre una tesis de 60 páginas que fundió la lógica de Boole con los relés telefónicos. Esa tesis es la cosa más influyente jamás escrita por un estudiante. Dos vidas que jamás se cruzaron — separadas por un siglo y un océano — escribieron juntas el plano del mundo digital sin saberlo.
Un solo cerebro escribió la arquitectura de los ordenadores actuales (1945), inventó el método Monte Carlo en Los Alamos (1947), formalizó el minimax que vence al ajedrez (1928) y diseñó autómatas autoreplicantes 70 años antes de los virus de software (1948). Cómo un emigrado húngaro definió cuatro disciplinas distintas — y por qué su biografía es la prueba viva de la tesis cross-disciplinar.
Turing intentó responder al Entscheidungsproblem de Hilbert (1928). Para hacerlo tuvo que inventar la máquina universal — el ordenador. La respuesta a "qué NO puede hacer la lógica" forzó la existencia de la máquina que calcula. Y Church (independientemente, simultáneamente, en el mismo edificio de Princeton) llegó al mismo resultado por otro camino.
1952. Una matemática de la Marina decide que es absurdo escribir código en binario. Inventa el primer compilador (A-0). La industria la ignora durante 7 años. Sigue. En 1959 lidera CODASYL → COBOL. El 70% de las transacciones bancarias actuales corren en su lenguaje. (También fue Hopper quien sacó literalmente una polilla del relé del Mark II en 1947 y pegó el insecto en el cuaderno de log con la nota "first actual case of bug being found" — desde entonces, los errores de programa se llaman bugs.)
Bell Labs, 1969. Dos ingenieros que querían jugar a Space Travel construyen un sistema operativo en una semana. Cincuenta años después, ese sistema corre en el 100% de los servidores web, en tu Mac, en tu Android, en tu iPhone, y en cada centro de datos que entrena IA. Cómo una decisión técnica (modular, en C, simple) se convirtió en infraestructura civilizatoria sin que nadie lo planeara.
La cosa más colaborativa que ha construido la humanidad — internet — nació de la paranoia militar de la Guerra Fría. El primer mensaje de la historia de internet fue "LO" — pretendían enviar "LOGIN" pero el sistema cayó tras dos caracteres. Veinte años después, Tim Berners-Lee añade hipertexto en CERN para que los físicos compartan papers — y rechaza patentarlo: el conocimiento no debe tener precio. Cómo una infraestructura militar se convirtió en la mayor herramienta de cooperación pacífica de la historia: por la decisión moral de un físico inglés.
1970. Edgar Codd, ingeniero de IBM, publica un paper de 11 páginas. Inventa la idea de "tabla". Cincuenta años después, esa abstracción sostiene la economía mundial: cada banco, cada Amazon, cada Netflix. Y entonces, en 2024, Anthropic publica MCP — los datos vuelven a cambiar de forma para servir a los LLMs. Cómo la forma de los datos define lo que el cómputo puede hacer.
1999, GeForce 256. 2006, CUDA. 2012, AlexNet entrena en dos GPUs gamer y gana ImageNet. 2024, Nvidia vale 3 billones de dólares. John Carmack escribió en 1999 una función de raíz cuadrada inversa con una constante mágica — 0x5f3759df — que nadie entiende del todo, para que Quake 3 corriera en tarjetas baratas. Veinte años después, esa misma matemática vectorial ejecuta GPT-5. El boom actual de IA está literalmente financiado por décadas de adolescentes comprando juegos de disparos. Una de las pruebas más bellas de la tesis del libro: la salvación viene de donde menos la esperas.
La IA actual nace en una cocina de Chicago en 1943. Allí, Warren McCulloch (neurocientífico) y Walter Pitts (matemático autodidacta de 18 años, vagabundo al que McCulloch acogió en su casa) escriben "A Logical Calculus of the Ideas Immanent in Nervous Activity". Proponen el primer modelo matemático de neurona artificial. Sin ese paper — escrito por un científico y un sin techo en una mesa de cocina — no existe ChatGPT. 43 años después, Rumelhart, Hinton y Williams publican backpropagation en Nature. Queda en el cajón 26 años porque no había hardware. En 2012 dos GPUs gamer enchufadas a Caffe arrancan AlexNet — y todo. En 2024 Hinton recibe el Nobel — 70 años después de McCulloch y Pitts. El progreso requiere que convergan ideas, materia, tiempo. Y, a veces, la generosidad de un científico que abre su cocina a un vagabundo.
1928, Hilbert plantea el Entscheidungsproblem. 1931, Gödel responde: hay verdades indemostrables. 1936, Turing y Church inventan el ordenador para responder. 2024, DeepMind lanza AlphaProof: un LLM combinado con Lean 4 resuelve 4 de 6 problemas IMO 2024 — medalla de plata olímpica. El círculo de 96 años se cierra: la lógica que dio nacimiento al ordenador hoy se demuestra por el ordenador.
1961: Unimate suelda coches en GM. 60 años de robots con brazos atornillados haciendo una sola cosa. 2024: Sergey Levine publica π0 — la primera red neuronal que generaliza entre brazos, gripers, manos humanoides. La cadena: 60 años de mecánica + 70 años de IA + 25 años de simulación → convergencia. Hoy un robot puede aprender una tarea nueva mirando un vídeo.
1981: Feynman propone construir un ordenador cuántico. 1985: Deutsch lo formaliza. 1994: Shor demuestra que un cuántico podría romper RSA. 2019: Google reclama supremacía con Sycamore. 2024: Willow demuestra qubits lógicos. 2027 (esperado): IBM Cockatoo — primer ordenador cuántico tolerante a fallos. 40 años de progreso lentísimo seguidos por una posible inflexión inminente.
No son "más rápido" y "más lento". Son distintos. El clásico procesa 0s y 1s. El cuántico procesa superposiciones que colapsan en medición. Por qué este libro dedica una parte entera a cuántica aunque hoy no use ningún producto cuántico: porque entender los DOS paradigmas es entender el siglo XXI.
Capítulo de síntesis: visualización del grafo completo, página doble. El lector ve por primera vez la geografía del progreso. Y los datos: el 73% de los hitos tienen entre 2 y 5 personas implicadas. Solo el 8% son verdaderamente uniautoría. La media de tiempo entre idea y aplicación masiva es de 22 años.
Newton dijo "estoy sobre los hombros de gigantes" — y citaba a Hooke, Galileo, Kepler. Hoy, ¿sobre quiénes están los hombros de OpenAI, Anthropic, DeepMind? La respuesta tiene 214 nombres y la mitad llevan muertos décadas. Muchos murieron jóvenes (Boole 49, Turing 41, Lovelace 36, Galois 20). Si la inteligencia colectiva es el verdadero motor del progreso, ¿qué le debemos colectivamente a quienes la construyen?
1981. Mi padre, José Ortet, técnico de IBM, llega a casa con cajas de tarjetas perforadas. Yo tengo 8 años y juego con ellas como si fueran cartas. 45 años después, la primera versión de este libro la escribió un modelo de lenguaje entrenado en 10 trillones de tokens. La cadena que conecta esas dos escenas es exactamente la que cuenta este libro. Cada generación recibe el regalo de las anteriores. La nuestra recibe el más grande.
A diferencia de la mayoría de propuestas, el material está hecho. La página companion está en vivo desde abril 2026:
zoopa.es/files/historia-computacion-hitos-20260423.html
github.com/carlosortet/historia-computacion
El website actúa como puerta de entrada para el libro:
CEO Zoopa · Director 498 Advance · The European Intrepid Lab
Carlos Ortet es CEO de Zoopa, agencia de innovación con sede en Barcelona y Madrid. Clientes: CaixaBank, Banco Sabadell, Danone, Ford, Inter Miami, LIDL Europe.
Director de 498 Advance (498A), división de I+D en IA que pioneró la disciplina del GEO — Generative Engine Optimization (la SEO de la era LLM). Inventor de:
| Insider de la IA actual | Trabaja diariamente con LLMs · conoce el estado del arte sin teorizar |
| Pedigree histórico | Su padre, José Ortet, fue técnico IBM 30+ años · creció con tarjetas perforadas y manuales SY-codes |
| Comunicador profesional | Clientes le contratan para traducir IA al lenguaje del C-suite |
| Network europeo | Conexiones LIDL Europe (Berlín), CERN (Ginebra), Inter Miami (USA) |
| Audiencia preexistente | Tráfico orgánico ya generándose en el companion del libro |
| Speaking circuit activo | €3-5k por charla actualmente · el libro multiplicaría |
| Factor | Razón |
|---|---|
| Narrativa única | Primer libro que cuenta la historia como grafo causal demostrado, no como sucesión |
| Tesis políticamente resonante | "Los gigantes son comunidades" alinea con momento cultural anti-individualista |
| Tesis económicamente útil | Empresas necesitan entender el patrón para invertir en colectivos, no en estrellas |
| Visualidad ya probada | El website demuestra que la información se puede hacer hermosa; trasladable a libro |
| Tono Smart Brevity | Frases cortas, sin floritura — ritmo lector moderno (no Penrose, no Hofstadter) |
| Referencias verificadas | 203 fuentes formales · prevención total de fact-checking malo |
| Edad de autor | 50s, mid-career — credibilidad ejecutiva sin pomposidad académica |
| Hook IA en título | Discoverability Amazon · alineado con vocabulario del lector general 2026-2030 |
80 horas anuales post-lanzamiento dedicadas a press tour, podcasts, programas de radio, conferencias.
Newsletter mensual desde el website companion · actualización continua del website como activo perenne (cada año se añaden hitos del año anterior).
El autor co-financia las ilustraciones si el editor lo requiere.
Acceso a CaixaBank, Banco Sabadell, Danone, LIDL Europe, Inter Miami para corporate gifting batches.
El libro existe ya, en parte, en formato website. Lo que pedimos al editor es: dignificarlo en libro, distribuirlo a lectores que no saben aún que lo necesitan, y monetizar conjuntamente una conversación que va a durar décadas.
La historia que cuenta no envejecerá. La conexión Boole→Shannon seguirá siendo cierta dentro de un siglo. La tesis de la inteligencia colectiva irá ganando relevancia conforme la IA generativa nos obligue a redefinir qué significa "autor".
Este es el libro de fondo de las próximas dos décadas de divulgación tech.