← Volver a la página principal
Recurso del Libro
Biblioteca del Arquitecto
Fuentes, papers y referencias técnicas
Aquí tienes las fuentes, ordenadas desde los cimientos hasta las fronteras más recientes, conectando la ciencia con los conceptos clave de cada capítulo.
Papers Fundacionales (La Lógica)
Vaswani et al. (2017) — Attention Is All You Need
Paper | arXiv:1706.03762Qué cambió: La arquitectura Transformer. Es la "Técnica de Estudio" del Chef (su mecanismo de Atención). Sin este paper, la Cocina del Infierno no tendría horno, limitándose a procesar ingredientes sueltos sin entender la receta.
Ma et al. (Microsoft, 2024) — The Era of 1-bit LLMs
Paper | arXiv:2402.17764Qué cambió: La eficiencia extrema. Propone modelos de 1-bit que consumen hasta 70 veces menos energía, permitiendo que un "Chef de Estrella Michelin" cocine en "Hornos Caseros" (un ordenador local), desafiando el dogma de que hace falta una central nuclear para tener inteligencia.
Hoffmann et al. (2022) — Chinchilla (Compute-Optimal Models)
Paper | arXiv:2203.15556Qué cambió: La eficiencia sobre el tamaño. Refuta el "Dogma del Gigantismo" (Capítulo 1), demostrando que para cocinar mejor no se necesita un Chef más grande (más parámetros), sino mejores ingredientes (más datos de calidad).
Wei et al. (2022) — Chain-of-Thought Prompting
Paper | arXiv:2201.11903Qué cambió: El origen del "piensa paso a paso". Es la base científica de la "I" (Instrucciones) en el método D.I.R.E.C.T.O.R., demostrando que obligar al Chef a razonar en voz alta reduce drásticamente las alucinaciones.
Yao et al. (2023) — Tree of Thoughts
Paper | arXiv:2305.10601Qué cambió: Del pensamiento lineal al ramificado. Permite al modelo explorar múltiples futuros posibles antes de responder, una capacidad esencial para el rol de "Estratega" en la Colmena (Capítulo 10).
Wang et al. (2023) — Self-Consistency
Paper | arXiv:2203.11171Qué cambió: El "Panel de Consenso". En lugar de quedarse con la primera respuesta, genera varias y busca la más consistente, imitando el Juicio Socrático que exigimos en la fase de "Test".
Park et al. (2023) — Generative Agents
Paper | arXiv:2304.03442Qué cambió: El nacimiento de la arquitectura de agentes. Es el plano técnico del "Equipo Invisible" (Capítulo 10), demostrando que la interacción social compleja y la memoria a largo plazo pueden ser simuladas.
Morris et al. (Google DeepMind, 2023) — Levels of AGI
Paper | arXiv:2311.02462Qué cambió: La hoja de ruta oficial. Define los KPIs exactos (Niveles 0 a 5) que validan la tesis sobre el Sintetismo Económico y el reemplazo laboral (Capítulo 6).
Papers Aplicados (La Técnica)
Schulhoff et al. (2024) — The Prompt Report
Paper | arXiv:2406.06608Su legado: La obra que convirtió la magia en ciencia. Primer esfuerzo académico global que catalogó y estandarizó las 58 técnicas de prompting dispersas, inaugurando la ingeniería de flujo moderna.
CodiumAI (2024) — Code Generation with AlphaCodium
Paper | arXiv:2401.08500Qué demuestra: El "Flow Engineering". Prueba que un flujo iterativo supera masivamente al prompt único (44% vs 19% de éxito), validando la transición de "pedir deseos" a "diseñar flujos" (Capítulo 8).
Jacob et al. (Google, 2025) — Repeat After Me
Paper | arXiv:2512.14982Qué valida: El "Eco Digital" (Bonus Track, Capítulo 8). Demuestra matemáticamente que repetir la instrucción principal al final del prompt mejora drásticamente la obediencia del modelo.
Anthropic (2024) — Contextual Retrieval
Paper | anthropic.com/researchQué resuelve: El problema del "Cadáver en el Byte 2048" (Capítulo 2). Optimiza la recuperación de fragmentos para que el modelo no pierda el contexto cuando lee documentos muy largos.
Microsoft (2024) — GraphRAG
Paper | microsoft.com/researchQué resuelve: "Conectar los puntos". Supera la búsqueda simple usando grafos de conocimiento, permitiendo al modelo entender relaciones ocultas en los datos empresariales.
Prime Intellect / Stanford (2025) — RAG 2.0
Paper | arXiv:2512.24601Qué resuelve: La evolución de la memoria. Trata el texto largo como una base de datos dinámica, reparando definitivamente la tubería de datos del Horizonte Técnico (Capítulo 2).
Moumoula et al. (2025) — Programming Language Confusion
Paper | arXiv:2503.13620Qué revela: El conflicto "Prosa vs. Código". Valida científicamente la necesidad del Protocolo de Entropía (Capítulo 11) al demostrar cómo el lenguaje natural contamina la lógica rígida de programación.
Anthropic (2024) — Equipping Agents for the Real World
Paper | anthropic.comQué cambió: El "Empleado Digital". Confirma el paso de "Operador" a "Director" (Capítulo 7): la IA ya no solo escribe texto, sino que usa el ordenador para ejecutar acciones reales.
Abramson et al. (2024) — AlphaFold 3
Paper | Nature.comQué cambió: La IA programando la naturaleza. Es la prueba tangible del "Umbral Biológico" (Prólogo), demostrando que el espejo digital ya refleja la estructura de la vida.
Banluesombatkul et al. (Stanford, 2025) — SleepFM
Paper | Nature.com / arXivQué inaugura: La medicina predictiva y la Omnimodalidad. Usa señales del sueño para predecir fallos cardíacos, validando que el sistema puede leer el "lenguaje del cuerpo" mejor que un médico humano.
Lee et al. (2023) — A Principal Odor Map
Paper | bioRxivQué logró: El "MP3" de los olores. La digitalización y teletransporte de los sentidos físicos.
Fronteras y Límites (El Desafío Estructural)
Google Research (2024/2025) — Titans: Learning to Memorize at Test Time
Paper | arXiv:2501.00663Qué cambia: El fin de la amnesia. Propone una "Memoria Neuronal" que aprende en tiempo real, la única solución técnica real al "Eterno Presente de Leonard Shelby" (Capítulo 3).
C2PA — Coalition for Content Provenance and Authenticity
Estándar | c2pa.orgQué define: La solución técnica a "La Verdad ha Muerto" (Capítulo 5). Certifica criptográficamente el origen humano o sintético de un contenido, convirtiendo el hardware en notario.
Shumailov et al. (2024) — The Curse of Recursion
Paper | arXiv:2305.17493Qué demuestra: El "Colapso del Modelo". Valida la necesidad de "Inflación Biológica": si la IA come su propia "basura sintética" (metáfora del yogur), sufre un colapso de varianza y se vuelve inútil.
Berglund et al. (2023) — The Reversal Curse
Paper | arXiv:2309.12288Qué revela: El diagnóstico de Leonard Shelby. Explica por qué la IA parece estúpida: aprende estadísticas unidireccionales ("A es B") pero es incapaz de deducir la inversa ("B es A") si no se le enseña explícitamente.
Zhou (2019/2025) — Abductive Learning (ABL)
Paper | arXiv:1905.12275El futuro: La "Trinidad Lógica". La arquitectura híbrida necesaria para que la máquina deje de alucinar y empiece a razonar como un detective (Deducción + Inducción + Abducción).
Informes y Lecturas
FMI (2024) — Gen-AI: Artificial Intelligence and the Future of Work
Informe FMI Official
El contexto: Cuantifica la exposición del 60% de los empleos, proporcionando la base macroeconómica para la advertencia sobre el tsunami laboral.
Lecturas Complementarias
- Suleyman, M. — The Coming Wave (2023)
- Mollick, E. — Co-Intelligence (2024)
- Tegmark, M. — Life 3.0 (2017)
- Sutton, R. — The Bitter Lesson (2019)