Master Tangle Lab

Un recorrido desde Condorcet y Prigogine hasta los sistemas sociotécnicos del MIT. Cómo piensan los grupos, cómo aprenden las máquinas, cómo se auto-organizan los sistemas complejos.

90 semanas 8 bloques 18+ unidades 27 autores
Explorar el programa
↓ scroll
Fase 1
Fundamentos — Semanas 1–48
Bloque I · Semanas 1–14

Cómo piensan los grupos

Las 4 condiciones de Surowiecki, cascadas informacionales, conformidad, polarización y arquitecturas de decisión. De Condorcet a Kahneman.

Entrar al bloque →
Bloque II · Semanas 15–24

IA y Machine Learning

Optimización, bias-varianza, clasificación, redes neuronales y sesgos algorítmicos. Evaluar cuándo la IA agrega valor genuino vs. cuándo encubre errores sistemáticos.

Entrar al bloque →
Bloque III · Semanas 25–30

Inteligencia Híbrida

Qué ocurre cuando juicio humano e IA convergen en un mismo sistema. Independencia vs. conformidad, gobernanza, explicabilidad y confianza calibrada.

Entrar al bloque →
Bloque IV · Semanas 31–48

Pensamiento Sistémico y Complejidad

Cibernética, estructuras disipativas, auto-organización, dinámica de sistemas, redes, autopoiesis, pensamiento complejo. De Wiener y Prigogine a Senge, Morin y Dahleh.

Entrar al bloque →
Fase 2
Aplicación y síntesis — Semanas 49–90
Bloque V · Semanas 49–54

Proyecto Integrador

Aplicar bloques 1–4 en un sistema híbrido real: un problema concreto donde inteligencia colectiva, algorítmica y sistémica se potencien mutuamente.

Entrar al bloque →
Bloque VI · Semanas 55–69

Los 6 Shifts

Seis ejes de transformación global analizados con las herramientas de los bloques anteriores. Qué tipo de liderazgo requieren las organizaciones ante complejidad creciente.

Entrar al bloque →
Bloque VII · Semanas 70–78

Educación en un mundo complejo

Cómo diseñar sistemas de aprendizaje que preparen para la complejidad en lugar de simplificarla hasta destruir su naturaleza.

Entrar al bloque →
Bloque VIII · Semanas 79–90

Capstone

Un proyecto de investigación original que integre inteligencia colectiva, IA, complejidad y pensamiento sistémico sobre un problema que te importe genuinamente.

Entrar al bloque →
Programa completo

El mapa del territorio

Syllabus, autores, bibliografía, estructura pedagógica y todos los recursos del programa. 27 pensadores, 240 años de ideas, un solo hilo conductor.

Sobre este curso

Este es un programa de autoformación diseñado para una sola persona: alguien que viene de la filosofía y quiere entender cómo piensan los grupos, cómo aprenden las máquinas, cómo se auto-organizan los sistemas complejos y qué ocurre cuando todo eso se combina. No es un curso de ingeniería disfrazado de filosofía, ni un curso de filosofía que menciona la IA de pasada. Es un intento de pensar seriamente — con rigor formal cuando hace falta y con profundidad conceptual siempre — los problemas que surgen cuando la inteligencia deja de ser asunto de individuos aislados.

El programa dura aproximadamente 90 semanas (~22 meses) con una dedicación de 6 a 8 horas semanales. Está organizado en dos fases y ocho bloques, más un componente transversal de vigilancia intelectual (el Radar Semanal). Cada unidad sigue una estructura de tres sesiones: teoría con visualización interactiva, práctica guiada con simulación manipulable, y evaluación de dominio con quiz y checklist.

* * *

Por qué este curso existe

Hay una pregunta que cruza transversalmente la filosofía, la ciencia política, la economía, la inteligencia artificial y las ciencias de la complejidad: ¿bajo qué condiciones un sistema compuesto por agentes limitados puede producir resultados que superan las capacidades de cualquiera de sus partes?

Condorcet la formuló en 1785 como un teorema sobre jurados. Adam Smith la intuyó como "la mano invisible". Hayek la articuló como el problema del conocimiento disperso. Surowiecki la popularizó como "la sabiduría de las multitudes". Woolley la midió empíricamente como el "factor c". Prigogine la encontró en la termodinámica de sistemas lejos del equilibrio. Maturana y Varela la reconocieron en la autopoiesis de los sistemas vivos. Meadows la formalizó como dinámica de sistemas con puntos de apalancamiento. Y hoy, la misma pregunta reaparece en machine learning (¿por qué los ensembles superan a los modelos individuales?), en redes neuronales (¿cómo emerge el aprendizaje de conexiones simples?), y en gobernanza de IA (¿cómo diseñar sistemas híbridos humano-máquina que sean más inteligentes que cualquiera de sus componentes?).

Este curso intenta recorrer esa pregunta desde sus raíces hasta sus implicaciones contemporáneas, sin aplanar la complejidad ni convertirla en un eslogan.

* * *

Estructura del programa

El programa tiene dos fases. La Fase 1 (Fundamentos) construye las bases conceptuales y formales en cuatro bloques: inteligencia colectiva, machine learning, inteligencia híbrida humano-IA, y pensamiento sistémico y complejidad. La Fase 2 (Aplicación y síntesis) aplica estos fundamentos a dominios concretos: un proyecto integrador, transformaciones globales, educación en mundos complejos, y un proyecto capstone de investigación original.

Fase 1 — Fundamentos (semanas 1–48)

Los cuatro bloques de la Fase 1 están diseñados para leerse secuencialmente. El Bloque 1 establece las condiciones bajo las cuales los grupos son inteligentes (y por qué fracasan). El Bloque 2 introduce las herramientas formales del aprendizaje automático. El Bloque 3 examina qué ocurre cuando humanos e IA interactúan en un mismo sistema de decisión. Y el Bloque 4 retrocede para mostrar el marco más amplio: la teoría de sistemas complejos que subyace a todo lo anterior — desde la cibernética de Wiener hasta los sistemas sociotécnicos del MIT.

Fase 2 — Aplicación y síntesis (semanas 49–90)

La segunda fase no introduce conceptos nuevos. Aplica los fundamentos a problemas reales. El Bloque 5 es un proyecto integrador que combina los cuatro bloques anteriores. El Bloque 6 analiza seis transformaciones globales con las herramientas del curso. El Bloque 7 examina cómo diseñar aprendizaje en entornos complejos. Y el Bloque 8 es un proyecto capstone de investigación original.

Programa completo

Semanas Bloque Contenido Unidades
Fase 1 — Fundamentos (semanas 1–48)
1–14 Bloque 1 Cómo piensan los grupos — Las 4 condiciones de Surowiecki, cascadas informacionales, conformidad, polarización, arquitecturas de decisión. De Condorcet a Kahneman. 3 unidades
15–24 Bloque 2 IA y Machine Learning — Optimización y loss functions, bias-varianza, clasificación y fronteras de decisión, redes neuronales, sesgos algorítmicos. De ISLR a Gender Shades. 5 unidades
25–30 Bloque 3 Inteligencia Híbrida — Independencia vs. conformidad en sistemas humano-IA, anclaje, gobernanza, explicabilidad, confianza calibrada. Pescetelli, Woolley, Rudin, EU AI Act. 2 unidades
31–48 Bloque 4 Pensamiento Sistémico y Complejidad — Cibernética y retroalimentación, estructuras disipativas y auto-organización, dinámica de sistemas y puntos de apalancamiento, redes y criticalidad, autopoiesis y pensamiento complejo, organizaciones que aprenden, sistemas sociotécnicos. De Wiener y Prigogine a Senge, Morin y Dahleh. 8 unidades
Fase 2 — Aplicación y síntesis (semanas 49–90)
49–54 Bloque 5 Proyecto integrador — Aplicar bloques 1–4 en un sistema híbrido real: un problema concreto donde inteligencia colectiva, algorítmica y sistémica se potencien mutuamente. Proyecto
55–69 Bloque 6 Los 6 Shifts — Seis ejes de transformación global analizados con las herramientas de los bloques anteriores. Qué tipo de liderazgo requieren las organizaciones ante complejidad creciente. 6 módulos
70–78 Bloque 7 Educación en un mundo complejo — Cómo diseñar sistemas de aprendizaje que preparen para la complejidad en lugar de simplificarla hasta destruir su naturaleza. 3 módulos
79–90 Bloque 8 Capstone — Un proyecto de investigación original que integre inteligencia colectiva, IA, complejidad y pensamiento sistémico sobre un problema que te importe genuinamente. Investigación
Duración 90 semanas (~22 meses)
Dedicación 6–8 horas/semana
Estructura 2 fases · 8 bloques · 18+ unidades interactivas
Transversal Radar Semanal
Componente transversal

Radar Semanal — 30 minutos semanales de vigilancia intelectual. Escaneo de papers, noticias y desarrollos relevantes al programa.

Ver rutina del Radar →

Cómo funciona cada unidad

Cada unidad sigue tres sesiones diseñadas para maximizar retención y transferencia:

A
Sesión A
Teoría y primer contacto
Explicación del concepto central (150–250 palabras) con una visualización SVG interactiva. Paneles laterales desplegables con contexto histórico (800–1500 palabras), teoría profunda (500–1000 palabras), guía de lectura de fuentes primarias (400–800 palabras).
B
Sesión B
Práctica guiada
Simulación interactiva donde manipulas parámetros y observas resultados en tiempo real. El objetivo no es "ver" el concepto sino experimentar cómo se comporta cuando cambias sus condiciones. Panel lateral con ejercicios expandidos y variantes.
C
Sesión C
Evaluación de dominio
Quiz de 4 preguntas con retroalimentación inmediata (umbral: 75%). Checklist de dominio con criterios observables. Solo avanzas cuando puedes explicar el concepto sin material de apoyo.
El objetivo no es que memorices ecuaciones, sino que entiendas la estructura lógica de por qué los grupos a veces son sabios y a veces son peligrosos; por qué los algoritmos a veces generalizan y a veces amplifican sesgos; por qué los sistemas complejos a veces se auto-organizan y a veces colapsan.

Autores y fuentes principales

El curso se apoya en 27 fuentes primarias organizadas cronológicamente. No en resúmenes de terceros ni en explicaciones diluidas. Cada bloque identifica sus textos clave, y el programa incluye guías de lectura específicas para cada uno.

Condorcet, Marquis de 1785 B1

Obras clave

  • Essai sur l'application de l'analyse à la probabilité des décisions rendues à la pluralité des voix (1785, Libro)
  • The Jury Theorem (1785, Teorema matemático)

Importancia para el curso

Condorcet fue el primero en formalizar matemáticamente cómo los grupos pueden ser inteligentes colectivamente. Su teorema del jurado demuestra que si cada votante tiene una probabilidad ligeramente superior al 50% de acertar en una decisión binaria, entonces la probabilidad de que el grupo acierte se aproxima al 100% cuando el grupo crece. Esta es la raíz matemática de toda inteligencia colectiva: transforma la probabilidad individual en certeza colectiva mediante agregación.

Para este curso, Condorcet establece el fundamento teórico riguroso que Surowiecki popularizaría dos siglos después. Sin embargo, Condorcet también identificó implícitamente la paradoja de la votación cíclica, que Arrow formalizaría en 1951, mostrando que no existe sistema de votación perfecto. Esta tensión entre la promesa de la sabiduría colectiva y sus límites inherentes es central a nuestra exploración de arquitecturas de decisión.

Galton, Francis 1907 B1

Obras clave

  • Vox Populi (1907, Artículo en Nature)
  • The Ox Weight Experiment (1907, Observación empírica)

Importancia para el curso

Galton asistió a una feria rural en Devon donde 787 personas intentaban adivinar el peso de un buey vivo. Ninguna persona acertó exactamente, pero la mediana de sus estimaciones fue de 1.208 libras, mientras que el peso real era 1.197 libras — un error de menos del 1%. Este experimento, publicado en Nature como "Vox Populi", fue la primera demostración experimental de que grupos diversos podían ser extraordinariamente precisos colectivamente.

Para este curso, Galton proporciona el puente crucial entre la teoría matemática de Condorcet (1785) y la sistematización de Surowiecki (2004). Su observación es la evidencia original de que no necesitas expertos: necesitas diversidad, independencia y agregación.

Hayek, Friedrich A. 1945 B1

Obras clave

  • The Use of Knowledge in Society (1945, American Economic Review)
  • The Road to Serfdom (1944, Libro)

Importancia para el curso

Hayek argumentó que el conocimiento económico está fundamentalmente disperso y que ningún planificador central puede agregar toda la información relevante. Su teoría de precios como mecanismo de señalización es elegante: los precios comunican información tácita de forma descentralizada, permitiendo que miles de actores independientes tomen decisiones sin coordinación central. Esta es inteligencia colectiva en su forma más pura: la emergencia del orden sin planificador.

Para este curso, Hayek proporciona la crítica más rigurosa al centralismo desde la perspectiva de la teoría de la información. Su argumento es fundamental para entender por qué la descentralización (una de las 4 condiciones de Surowiecki) es crucial.

Arrow, Kenneth 1951 B1

Obras clave

  • Social Choice and Individual Values (1951, Libro)
  • Arrow's Impossibility Theorem (1951, Teorema)

Importancia para el curso

Arrow demostró que no existe ningún sistema de votación que pueda satisfacer simultáneamente cinco axiomas razonables: unanimidad, no dictadura, independencia de alternativas irrelevantes, dominio no restringido, y determinismo. Este resultado es devastador: demuestra que cualquier mecanismo para combinar preferencias individuales en colectivas violará al menos uno de estos principios.

Para este curso, el Teorema de Imposibilidad muestra que la inteligencia colectiva tiene límites fundamentales estructurales. Esto justifica por qué estudiamos arquitecturas de decisión específicas en lugar de buscar "la mejor": cada una sacrifica principios diferentes.

Asch, Solomon 1951 B1

Obras clave

  • Effects of Group Pressure upon the Modification of Judgments (1951, Artículo empírico)
  • Studies of Independence and Conformity (1956, Serie experimental)

Importancia para el curso

Asch colocaba a un participante real con actores que votaban deliberadamente mal en una tarea perceptual obvia. El 75% de los participantes se conformaron al menos una vez con la mayoría claramente errónea. La presión social podía hacer que personas negaran la evidencia perceptual directa.

Si la independencia es una de las 4 condiciones de Surowiecki, los experimentos de Asch muestran cuán frágil es esa independencia. La conformidad no es una aberración patológica — es un comportamiento humano robusto que sistemas de inteligencia colectiva deben proteger activamente.

Moscovici, Serge 1969 B1

Obras clave

  • Polarization and the Risky Shift (1969, con Zavalloni)
  • Social Influence and Social Change (1980, Libro)

Importancia para el curso

Moscovici descubrió que la deliberación grupal no modera posiciones sino que las amplifica: si el grupo inicia ligeramente favorable a una posición, después de deliberar será mucho más favorable. Es amplificación, no moderación. Esto documenta cuándo falla la inteligencia colectiva y prefigura el trabajo de Sunstein sobre cascadas informacionales y cámaras de eco.

Janis, Irving 1972 B1

Obras clave

  • Victims of Groupthink (1972, Libro)

Importancia para el curso

Janis estudió decisiones políticas desastrosas (Bay of Pigs, Pearl Harbor, Challenger) y encontró un patrón: grupos altamente cohesivos, insulares y orientados hacia decisiones rápidas toman juicios notoriamente pobres. Los síntomas — ilusión de invulnerabilidad, presión sobre disidentes, ilusiones de unanimidad — destruyen exactamente la independencia que Surowiecki requiere. Janis propone antídotos arquitectónicos: abogado del diablo, procedimientos que fuercen disidencia, consulta con externos.

Tversky, Amos & Kahneman, Daniel 1974 B1

Obras clave

  • Judgment Under Uncertainty: Heuristics and Biases (1974, Artículo fundacional)
  • Prospect Theory (1979, Teoría económica del comportamiento)

Importancia para el curso

Demostraron que los humanos no juzgamos bajo incertidumbre usando lógica probabilística racional, sino mediante heurísticas — atajos mentales sesgados y sistemáticos. El anclaje, la disponibilidad, la representatividad no son errores ocasionales sino comportamientos predecibles. Esto compromete la independencia de Condorcet no por presión social, sino por cómo nuestras mentes funcionan internamente. Si los sesgos son correlacionados, agregar juicios no produce sabiduría sino error amplificado. Solo si los sesgos son diversos, la agregación los cancela.

Bikhchandani, Hirshleifer & Welch 1992 B1

Obras clave

  • A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascades (1992, Journal of Political Economy)

Importancia para el curso

Formalizaron cómo las cascadas informacionales destruyen la inteligencia colectiva. Cuando los agentes observan las decisiones de quienes los preceden y racionalmente deciden ignorar su propia información privada para seguir a la mayoría, el juicio colectivo se congela en una decisión que puede ser completamente errónea. Es el mecanismo preciso por el cual la independencia de Surowiecki se destruye secuencialmente. Central para la Unidad 1.2 sobre sesgos y cascadas.

Sunstein, Cass R. 2002 B1

Obras clave

  • Republic.com 2.0 (2009, Libro)
  • Infotopia: How Many Minds Produce Knowledge (2006, Libro)

Importancia para el curso

Sunstein examinó cómo las cascadas informacionales, la polarización grupal y las cámaras de eco operan en la era digital. Mostró que internet puede amplificar tanto la sabiduría colectiva (prediction markets, Wikipedia) como la estupidez colectiva (cámaras de eco, radicalización). Su análisis de los mecanismos institucionales que pueden contrarrestar estos efectos es fundamental para las arquitecturas de decisión de la Unidad 1.3.

Surowiecki, James 2004 B1

Obras clave

  • The Wisdom of Crowds (2004, Libro)

Importancia para el curso

Surowiecki sistematizó las 4 condiciones bajo las cuales los grupos son inteligentes: diversidad de opinión, independencia (cada persona juzga sin presión), descentralización (no hay autoridad central), y agregación (existe un mecanismo para combinar juicios). Cuando estas condiciones se cumplen, las multitudes son asombrosamente precisas. Cuando fallan — por conformidad, polarización o cascadas — el juicio colectivo puede ser peor que el individual. Este es el marco central del Bloque 1.

Page, Scott E. 2007 B1

Obras clave

  • The Difference: How the Power of Diversity Creates Better Groups, Firms, Schools, and Societies (2007, Libro)
  • Diversity Prediction Theorem (2007, Teorema)

Importancia para el curso

Page formalizó matemáticamente por qué la diversidad mejora predicción colectiva: el error colectivo = error individual promedio − diversidad de modelos. Esto significa que grupos con alta diversidad de perspectivas (aunque cada perspectiva sea imperfecta) pueden superar a grupos de expertos homogéneos. Es la formalización técnica de la intuición de Surowiecki y la base matemática del "factor c" de Woolley.

Woolley, Anita W. et al. 2010 B1

Obras clave

  • Evidence for a Collective Intelligence Factor in the Performance of Human Groups (2010, Science)
  • Collective Intelligence and Group Performance (2011, Revisión)

Importancia para el curso

Woolley y su equipo llevaron la pregunta de Surowiecki al laboratorio: ¿existe un "factor c" — una capacidad colectiva análoga al CI individual? Encontraron que sí: explica ~20% de la varianza en desempeño grupal. Sorprendentemente, no era predicho por el CI promedio ni por la cohesión. Era predicho por: igualdad de turno de palabra, sensibilidad social, y proporción de mujeres. El factor c emergía de cómo se interactuaba, no de quién estaba en el grupo.

James, Witten, Hastie & Tibshirani 2013 B2

Obras clave

  • An Introduction to Statistical Learning (ISLR) (2013/2023, Libro gratuito)

Importancia para el curso

ISLR es el texto base del Bloque 2. Introduce con rigor accesible los conceptos de statistical learning: optimización, bias-varianza trade-off, clasificación, regresión, árboles de decisión, SVM, redes neuronales. Su virtud es que enseña la lógica estadística antes que el código — exactamente lo que necesita alguien que viene de la filosofía y quiere entender por qué los algoritmos funcionan (y fallan), no solo cómo implementarlos.

O'Neil, Cathy 2016 B2

Obras clave

  • Weapons of Math Destruction (2016, Libro)

Importancia para el curso

O'Neil documentó cómo algoritmos opacos causan daños reales: sistemas de scoring crediticio que perpetúan pobreza racial, modelos de recidivismo que predicen criminalidad por código postal, algoritmos de contratación que discriminan por género. Su concepto de "Weapons of Math Destruction" (WMDs) — modelos opacos, escalables y destructivos — es central a la Unidad 2.5 sobre sesgos algorítmicos.

Buolamwini, Joy & Gebru, Timnit 2018 B2

Obras clave

  • Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification (2018, FAT* Conference)

Importancia para el curso

Demostraron empíricamente que los sistemas comerciales de reconocimiento facial tenían tasas de error dramáticamente diferentes por raza y género: 0.8% para hombres blancos vs. 34.7% para mujeres negras. Gender Shades es el caso empírico más importante del Bloque 2 porque muestra que el sesgo no es abstracto — tiene magnitud cuantificable y consecuencias reales sobre personas reales.

Rudin, Cynthia 2019 B2

Obras clave

  • Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead (2019, Nature Machine Intelligence)

Importancia para el curso

Rudin argumenta que para decisiones que afectan vidas humanas, deberías usar modelos inherentemente interpretables en lugar de entrenar cajas negras y luego intentar explicarlas post-hoc. Los explicadores post-hoc (LIME, SHAP) no revelan cómo el modelo realmente decide — solo racionalizan después del hecho. La transparencia no es lujo, es requisito. Conecta directamente con la gobernanza de sistemas híbridos del Bloque 3.

Pescetelli, Nicolò 2021 B3

Obras clave

  • A Brief Taxonomy of Hybrid Intelligence (2021, Artículo perspectiva)
  • How Can AI Improve Our Lives? Human-AI Collaboration and Decision Making (2021, Capítulo)

Importancia para el curso

Pescetelli sintetiza la pregunta central del Bloque 3: ¿cómo diseñamos sistemas donde humanos e IA colaboran efectivamente? Su taxonomía distingue entre modos suplementario (IA reemplaza), complementario (IA y humano juntos son mejores que cualquiera solo), e integrado (fusión en sistema único). El modo complementario requiere fortalezas distintas y debilidades no-correlacionadas — exactamente lo que la Diversity Prediction Theorem de Page formalizó.

Riedl, Woolley et al. 2025 B3

Obras clave

  • The Potential and Challenges of AI for Collective Intelligence (2025, Nature)
  • COHUMAIN: Evaluating Collective Intelligence in Human-AI Teams (2024, Framework)

Importancia para el curso

Riedl, Woolley y colaboradores (MIT, CMU, Harvard) son los investigadores que están sintetizando todo el curso experimentalmente. Su pregunta: ¿bajo qué condiciones un equipo humano-IA es más inteligente que sus partes? La respuesta es sofisticada: depende de la estructura del problema, la arquitectura de decisión, y crucialmente, la comunicación entre agentes. Pequeños cambios en cómo se comunica información entre humano y máquina pueden multiplicar o dividir la inteligencia colectiva.

Norbert Wiener 1948 B4

Obras clave

  • Cybernetics: Or Control and Communication in the Animal and the Machine (1948, libro)
  • The Human Use of Human Beings (1950, ensayo)

Importancia para el curso

Wiener fundó la cibernética al observar que sistemas complejos — máquinas, organismos, radares — comparten un principio: retroalimentación negativa que mantiene el equilibrio. La información, no la energía, es la moneda de control. Las redes neuronales, la inteligencia colectiva y la optimización dependen todos de retroalimentación iterativa. Sin entender cibernética, no se entiende por qué funcionan estos sistemas.

Ludwig von Bertalanffy 1968 B4

Obras clave

  • General System Theory (1968, libro)

Importancia para el curso

Bertalanffy desarrolló la Teoría General de Sistemas: estructuras isomórficas aparecen en biología, física, economía, ecología. Un organismo, una empresa, un ecosistema, una red neuronal: todos son sistemas que mantienen su integridad a través de intercambios de energía e información. Formalizó homeostasis, equifinalidad, y la noción de que el todo es más que la suma de sus partes. Marco conceptual que unifica todo el curso.

Gregory Bateson 1972 B4

Obras clave

  • Steps to an Ecology of Mind (1972, ensayos)
  • Mind and Nature: A Necessary Unity (1979, libro)

Importancia para el curso

Bateson definió que "la información es una diferencia que genera una diferencia" y argumentó que la mente no reside en el cerebro sino en los circuitos de retroalimentación del sistema. Su análisis del doble vínculo y sus niveles de aprendizaje (0, 1, 2, 3) explican por qué la inteligencia colectiva requiere estructuras de comunicación específicas y por qué la calidad de la interfaz humano-IA determina la inteligencia emergente.

Maturana & Varela 1973 B4

Obras clave

  • Autopoiesis and Cognition (1973, libro)
  • The Tree of Knowledge (1987, libro)

Importancia para el curso

Revolucionaron la teoría de sistemas con el concepto de autopoiesis: sistemas que se auto-producen. Un sistema autopoiético no puede ser controlado desde el exterior, solo "perturbado." Un grupo inteligente, como un organismo vivo, se auto-organiza pero no es controlable de arriba hacia abajo. La inteligencia híbrida humano-IA en su sentido profundo no es la suma humano + máquina, sino un nuevo sistema autopoiético emergente del acoplamiento estructural.

Ilya Prigogine 1977 B4

Obras clave

  • Self-Organization in Nonequilibrium Systems (1977, Nobel Prize)
  • Order Out of Chaos (1984, con Isabelle Stengers)

Importancia para el curso

Prigogine demostró que sistemas lejos del equilibrio pueden espontáneamente generar orden: "estructuras disipativas." La vida misma es una estructura disipativa: mantiene orden interno a costa de aumentar entropía en el entorno. La inteligencia colectiva es disipativa: emerge cuando hay diferencias de información fluyendo. El aprendizaje automático es disipativo: requiere energía computacional masiva para crear estructura. Sin Prigogine, veríamos estos sistemas como máquinas reversibles; con Prigogine, se entiende que son procesos irreversibles que crean información.

Edgar Morin 1977 B4

Obras clave

  • La Méthode (1977–2004, 7 volúmenes)
  • Introducción al Pensamiento Complejo (1990, síntesis pedagógica)

Importancia para el curso

Morin propuso siete principios de complejidad: dialógico (coexistencia de contradictorios sin síntesis hegeliana), recursivo (el producto retroactúa sobre el productor), hologramático (el todo en las partes, las partes en el todo). Un grupo inteligente contiene contradicciones (dialógico), es un sistema donde la inteligencia emergente cambia a sus miembros (recursividad), y sus propiedades están distribuidas en cada miembro (hologramatismo). Sin Morin: "la IA complementa lo humano" es síntesis ingenua. Con Morin: "la IA y lo humano contienen mutuamente contradicciones productivas."

Per Bak 1987 B4

Obras clave

  • Self-Organized Criticality (1987, paper físico)
  • How Nature Works (1996, libro)

Importancia para el curso

Bak descubrió que sistemas complejos se auto-organizan espontáneamente a un estado crítico donde están balanceados entre orden y caos. Su modelo del "montón de arena" es canónico: agregar un grano puede causar una avalancha diminuta o catastrófica. La inteligencia colectiva opera en esta "cercanía del borde del caos": demasiado orden (conformidad extrema) la mata; demasiado caos (desacuerdo total) también. Las redes neuronales aprenden mejor en el borde del caos. Bak explica por qué.

Stuart Kauffman 1993 B4

Obras clave

  • The Origins of Order: Self-Organization and Selection in Evolution (1993, libro)
  • At Home in the Universe (1995, divulgación)

Importancia para el curso

Kauffman usó redes booleanas aleatorias para demostrar que la auto-organización es una fuerza evolutiva tan fundamental como la selección natural. Su concepto de "el borde del caos" — la zona entre orden congelado y caos total donde la complejidad es máxima — es central para entender por qué los sistemas adaptativos (grupos inteligentes, redes neuronales, ecosistemas) funcionan en un régimen específico de parámetros.

Peter Senge 1990 B4

Obras clave

  • The Fifth Discipline (1990, libro)
  • The Dance of Change (1999, libro)

Importancia para el curso

Senge popularizó el pensamiento sistémico para organizaciones: la capacidad de ver patrones de retroalimentación (ciclos reforzadores y balanceadores) que crean comportamientos complejos. Sus "arquetipos sistémicos" — tragedias de los comunes, desplazamiento de carga, límites al crecimiento — aparecen recurrentemente. La inteligencia híbrida no emerge simplemente acoplando humano y máquina; requiere aprendizaje en equipo, modelos mentales alineados, y visión compartida.

Donella Meadows 1999 B4

Obras clave

  • Thinking in Systems: A Primer (2008, publicación póstuma)
  • Leverage Points: Places to Intervene in a System (1999, ensayo seminal)

Importancia para el curso

Meadows identificó 12 "puntos de apalancamiento" — lugares donde una pequeña intervención cambia fundamentalmente el comportamiento del sistema. Van desde parámetros numéricos (bajo impacto) hasta cambiar el paradigma desde el cual el sistema opera (máximo impacto). Su clasificación es la herramienta operacional más poderosa del pensamiento sistémico: permite decidir dónde intervenir en sistemas de inteligencia colectiva, en arquitecturas de IA, o en sistemas híbridos.

Munther Dahleh 2022 B4

Obras clave

  • Sociotechnical Systems Engineering at Scale (2022, MIT IDSS)
  • Dahleh's Triangle (2021, framework conceptual)

Importancia para el curso

Dahleh (MIT IDSS) articula un framework para sistemas complejos modernos acoplando tres dimensiones: sistemas físicos (infraestructura, datos, algoritmos), personas (comportamiento, decisión, psicología social) y política (regulación, gobernanza, incentivos). No puedes diseñar un algoritmo justo sin entender cómo será usado y qué marco regulatorio lo gobierna. La ingeniería de sistemas complejos requiere simultaneidad: no primero el algoritmo y luego las implicaciones sociales. Es co-diseño.