4.1
Bloque 4 · Unidad 4.1 · Sesiones A–C

Cibernética, retroalimentación y sistemas abiertos

¿Cómo mantiene un termostato la temperatura constante sin instrucciones explícitas? ¿Cómo sabe un sistema vivo cuándo debe crecer o contraerse? ¿Qué diferencia un sistema que se autorregula de uno que colapsa? La respuesta está en un descubrimiento que transformó la física, la biología y la teoría de sistemas en el siglo XX.

Sesión A — Cibernética: La Ciencia de la Retroalimentación

Cibernética (del griego kybernétés, timonelero) es la ciencia que estudia cómo los sistemas se controlan a sí mismos mediante retroalimentación. Un sistema es cibernético cuando puede sensing su propio estado y ajustar su comportamiento para mantener una meta o equilibrio.

El bucle de retroalimentación es el mecanismo fundamental. Tiene tres componentes: (1) un sensor que mide el estado actual del sistema, (2) un comparador que contrasta el estado actual con el estado deseado (meta), y (3) un actuador que realiza correcciones. Un termostato es el ejemplo más simple: mide temperatura, compara con el setpoint, y activa/desactiva calor según sea necesario.

Retroalimentación negativa (en la jerga cibernética, "negativa" significa estabilizadora) ocurre cuando la salida del sistema reduce la entrada siguiente. Si la temperatura sube demasiado, se apaga la calefacción; si baja, se enciende. El efecto es convergencia hacia el equilibrio. Casi todos los sistemas biológicos usan retroalimentación negativa: homeostasis, regulación de pH, control hormonal.

Retroalimentación positiva es amplificadora: la salida refuerza la entrada, causando crecimiento exponencial o colapso. Un micrófono cerca de un parlante crea retroalimentación positiva (sonido → amplificador → parlante → micrófono → más sonido). En biología, el parto es un ejemplo: contracciones → más oxitocina → más contracciones. La retroalimentación positiva es peligrosa sin límite: sin circuito de corte, el sistema diverge.

Sistemas abiertos vs. cerrados. Bertalanffy (1968) revolucionó la biología demostrando que los organismos vivos son sistemas abiertos: intercambian energía y materia con el ambiente, pero mantienen una estructura estable. Un sistema cerrado (como una botella sellada) tiende al equilibrio termodinámico muerto. Un sistema abierto, lejos del equilibrio, puede mantener "equilibrio dinámico" o "steady state no-equilibrio": flujo constante de energía que mantiene la organización.

Circularidad causal (Bateson). El pensamiento occidental tradicional es lineal: A causa B causa C. Bateson señaló que los sistemas vivos operan mediante causalidad circular: A afecta B, B afecta C, C afecta A nuevamente. Esta circularidad es lo que permite la autorregulación. Sin ella, no hay mente, no hay vida, no hay complejidad.

Cibernética de segundo orden (von Foerster). La cibernética clásica estudia sistemas desde fuera, como si el observador fuera independiente. Pero von Foerster (1974) preguntó: ¿qué pasa cuando el observador es parte del sistema observado? Si un neurocientífico estudia el cerebro, su propio cerebro es parte del fenómeno. Esta recursión — el sistema observándose a sí mismo — es el fundamento de la autoconciencia y la autoreferencia lógica.

Sesión B — Práctica

Sesión B — Simulación: Control de temperatura con retroalimentación

Manipula un termostato para entender cómo la retroalimentación estabiliza sistemas. Abajo verás una simulación en tiempo real de un cuarto siendo calentado o enfriado por un sistema de control con retroalimentación.

Instrucciones: Establece una temperatura objetivo (setpoint) entre 15 y 30°C usando el slider. El gráfico muestra la temperatura actual (línea azul) versus la temperatura objetivo (línea roja punteada). Luego ajusta tres parámetros:

  • Ganancia (Gain): Qué tan agresivamente el sistema corrige errores. Ganancia baja = cambios lentos; ganancia alta = cambios rápidos.
  • Retardo (Delay): Lag en el sistema de control, en ciclos. Simula que el calor tarda en propagarse.
  • Ruido ambiental: Perturbaciones aleatorias (puertas que se abren, sol que entra). Prueba cómo el sistema responde.
  • Autores

Qué observar: Con ganancia moderada, el sistema converge suavemente. Sube mucho la ganancia y el sistema oscila (overshoot). Agrega retardo y verás amortiguamiento crítico o inestabilidad. Sube al máximo la ganancia con retardo alto: el sistema diverge exponencialmente (la retroalimentación se vuelve positiva efectivamente).

Conexión con el mundo real: Esto explica por qué los gobiernos tardan en responder a crisis (retardo), por qué a veces sobrerreaccionan (ganancia excesiva), y por qué hay ciclos económicos: el sistema tiene demasiado retardo para converger suavemente.

Sesión C — Evaluación

Sesión C — Evaluación de dominio

Dominaste este concepto si: Puedes explicar qué es retroalimentación negativa y por qué estabiliza. Entiendes la diferencia entre un sistema abierto y cerrado. Reconoces la circularidad causal en sistemas reales. Comprendes cómo el observador forma parte del sistema observado.

Quiz de evaluación

Responde correctamente 3 de 4 preguntas (75% mínimo).

Checklist de dominio

De Wiener a von Foerster: 80 años de pensamiento cibernético

Norbert Wiener y el Proyecto de Artillería (1943)

La historia de la cibernética comienza en el MIT durante la Segunda Guerra Mundial. Norbert Wiener, matemático puro que trabajaba en análisis de Fourier, fue asignado a un equipo de investigación para mejorar los sistemas de control de fuego antiaéreo. El problema era notoriamente difícil: un cañón debe predecir dónde estará un avión en movimiento rápido, teniendo en cuenta el lag del disparo y la trayectoria de la bala.

La solución convencional era calcular tablas ballísticas con anticipación. Pero los aviones eran más rápidos cada año. Wiener tuvo una idea radical: en lugar de tablas estáticas, diseñar un sistema que se autocorrigiera observando el error de los disparos anteriores. Si el cañón apunta mal, el siguiente ajuste lo corrige. Feedback.

Wiener trabajó junto con Julian Bigelow, ingeniero, y con Warren McCulloch, neurofisiólogo. McCulloch estudió redes neuronales abstractas; Wiener vio que el cerebro y las máquinas de control compartían un principio común: la realimentación de información para autogobierno. De allí nació el término "cibernética" en 1948.

El Libro Fundador: "Cybernetics" (1948)

Wiener publicó Cybernetics: Control and Communication in the Animal and the Machine. El primer capítulo es revolucionario: propone que la información es tan fundamental como la energía o la materia. Un sistema vivo, una máquina, una organización — todos son sistemas de procesamiento y comunicación de información. La vida no es una sustancia mística; es patrón. Y el patrón se mantiene mediante retroalimentación.

En la Francia de la posguerra, un lógico llamado Jean-Louis Couffignal acuñó "cibernética" independientemente. Wiener y Couffignal se encontraron en conferencias; su convergencia validó la idea. Rápidamente, cibernética pasó de ser una especulación matemática a una ciencia reconocida.

Ludwig von Bertalanffy: Los Sistemas Abiertos (1930s–1968)

Mientras Wiener estaba en MIT, en Austria, Ludwig von Bertalanffy trabajaba en biología experimental. Observó algo incómodo para la física clásica: los organismos vivos no se comportan como sistemas cerrados. No tienden al equilibrio termodinámico (muerte). En cambio, mantienen una "constancia dinámica": intercambian materia y energía con el ambiente, pero preservan su estructura y función.

Bertalanffy propuso la "General Systems Theory" (1968): un marco donde sistemas abiertos en todas partes — células, organismos, ecosistemas, sociedades — siguen principios comunes. No son máquinas (cerradas, predecibles), sino sistemas que se autoorganizan. Un árbol crece, se adapta a luz, lluvia, plagas — no porque tenga instrucciones genéticas para cada situación posible, sino porque responde dinámicamente al ambiente.

Wiener y Bertalanffy nunca se encontraron, pero sus ideas convergieron: la cibernética (Wiener: control mediante feedback) es el mecanismo que permite a los sistemas abiertos (Bertalanffy) mantener su orden.

Gregory Bateson: La Mente Circular (1950s–1980s)

Gregory Bateson fue antropólogo, pero no un antropólogo convencional. Trabajó en Bali, observó rituales y comunicación animal, y preguntó: ¿qué es la mente? La respuesta ortodoxa: mente es un atributo de individuos. Bateson propuso algo radicalmente distinto: la mente es patrón circular. Una mente existe donde hay información circulando en bucles de retroalimentación.

En "Steps to an Ecology of Mind" (1972), Bateson escribió sobre la "Cybernetic Explanation" — la idea de que causa-efecto lineal es un modelo pobre. El verdadero mecanismo es causalidad circular. Cuando das feedback a alguien, no "causas" su respuesta; contribuyes a un patrón donde su acción afecta tu siguiente acción, que afecta la suya. Dos personas en conversación son un sistema cibernético: feedback infinito, mutuamente constituyente.

Bateson influyó profundamente en familia terapia (si la familia es un sistema con bucles de feedback, entonces no culpes al individuo "problemático"; estudia el patrón). Su trabajo es puente entre cibernética e investigación cualitativa.

Heinz von Foerster: El Observador en el Sistema (1960s–2002)

Heinz von Foerster era físico e ingeniero austriaco. En 1956 cofundó el Biological Computer Laboratory (BCL) en la Universidad de Illinois. El BCL fue un espacio único: físicos, biólogos, ingenieros, psicólogos trabajaban juntos. Von Foerster buscaba entender cómo el cerebro genera orden a partir del caos.

Su gran insight fue la "second-order cybernetics" (1970s): la cibernética clásica estudia sistemas como si el observador fuera externo, neutral. Pero en realidad, el acto de observar cambia el sistema. Un neurocientífico midiendo neuronas afecta qué neuronas se activan. Un terapeuta escuchando a un paciente co-crea la narrativa. No hay neutralidad.

Von Foerster formalizó esto: si un sistema incluye su propio modelo (recursión), entonces tiene autoconciencia. Es decir, conciencia no es una propiedad mágica del cerebro humano; es una consecuencia matemática de la recursión suficiente. Un robot con sensor de sensores (feedback sobre feedback) es, en cierto sentido, consciente.

En sus últimos años, von Foerster fue activista por la paz. Creía que la cibernética de segundo orden era clave para entender conflicto: los contendientes son recursivos, cada uno se percibe a sí mismo como reacción al otro. La salida no es victoria (pensamiento lineal), sino cambio de patrón (pensamiento cibernético).

Confluencia: Las Conferencias Macy (1946–1953)

El punto de convergencia fue una serie de conferencias en Nueva York, organizadas por la Fundación Josiah Macy Jr. Asistieron Wiener, McCulloch, von Neumann (lógica y computación), Weaver (información), von Foerster (temprano), Fremont-Smith (bioquímico). Cada conferencia duró días. El objetivo: entender círculos cerrados de causación (feedback loops).

Los Macy Conferences produjeron el primer marco formal para cibernética. Wiener, McCulloch y von Neumann coescribieron papers fundamentales. El grupo estableció que feedback, información, y circularidad causal eran conceptos universales — no solo en máquinas, sino en cerebros, células, ecosistemas, sociedades.

Después de las Macy Conferences, cibernética se dividió en dos ramas: (1) cibernética aplicada — control automático, ingenería de sistemas, (2) cibernética de segundo orden — filosofía, psicología, sistemas sociales. Ambas ramas permanecen vivas hoy.

Teoría profunda: Formalismo de bucles de retroalimentación

Definición formal de un bucle de retroalimentación

Un sistema cibernético tiene al menos estos componentes:

Ecuación de bucle cerrado: En tiempo discreto (ciclos):

y[n+1] = y[n] + α·(u[n] − β·y[n]) + noise
u[n] = K·(r − y[n])   (feedback proporcional)

Donde α es la "sensibilidad térmica" (qué tan rápido responde la temperatura a corriente), β es "disipación" (qué tan rápido pierde calor al ambiente), K es la ganancia del controlador, y r es el setpoint.

Retroalimentación negativa: Estabilización

Si y sube demasiado, el error e se vuelve negativo, so u disminuye, so y comienza a descender. La salida reduce la entrada siguiente. Matematicamente, la ganancia en bucle cerrado es:

Ganancia en bucle cerrado = 1 / (1 + K·H)

Si K·H > 0 y es grande, la ganancia se aproxima a cero. Esto significa: perturbaciones externas tienen menos efecto. Si quieres mantener 20°C y el sol calienta el cuarto, una K grande (ganancia alta del controlador) compensa rápidamente. La retroalimentación negativa reduce el efecto de perturbaciones — esa es su función principal: robustez.

Retroalimentación positiva: Amplificación y divergencia

Si K·H < 0 (feedback invierte la señal), o si la dinámica es tal que y refuerza u, entonces el sistema amplifica perturbaciones. La ganancia en bucle cerrado es:

Ganancia en bucle cerrado = 1 / (1 − K·H)

Si K·H → 1, el denominador → 0, y la ganancia → ∞. El sistema se vuelve inestable. Una pequeña perturbación se amplifica exponencialmente. Microffone → parlante es ejemplar: K·H > 1, so el sonido crece sin límite (hasta que hardware saturates o algo falla).

La retroalimentación positiva es peligrosa en control; pero es el mecanismo detrás de crecimiento exponencial, cambio de fase, bifurcación. En ecología, si depredadores crecen → más control de presas → más comida para depredadores → más crecimiento, tienes ciclo predador-presa (amortiguado, no divergente). Pero sin predadores, conejos con retroalimentación positiva: cada conejo se reproduce → más conejos → más reproducción → infinito (hasta que recursos colapsan).

Sistemas abiertos vs. cerrados (Bertalanffy)

Sistema cerrado: No intercambia materia ni energía con el ambiente. Tiende al equilibrio termodinámico (entropía máxima, orden cero). Segunda ley de la termodinámica: la entropía aumenta hasta el máximo. Ejemplo: botella sellada herméticamente. Eventualmente, todo converge a temperatura uniforme, sin estructura, sin vida.

Sistema abierto: Intercambia energía y materia. Puede mantener orden (baja entropía interna) porque expulsa entropía al ambiente. Un organismo come (entra energía), metaboliza (ordena esa energía), excreta (expulsa entropía). Matemáticamente, dS/dt < 0 internamente (orden crece) mientras que dS_total/dt > 0 (entropía total crece).

La diferencia es profunda: un sistema cerrado es determinista hacia un estado final único (equilibrio muerto). Un sistema abierto es sensible a condiciones iniciales y dinámicas — puede evolucionar a múltiples "steady states" (equilibrios dinámicos). Los organismos son ejemplar: genes iguales, ambientes distintos → organismos distintos. Sensibilidad a feedback inicial.

Causalidad circular (Bateson, von Foerster)

Causalidad lineal: A causa B causa C. Una dirección. Encuentra la "causa raíz" y soluciona.

Causalidad circular: A afecta B, B afecta C, C afecta A. Sin punto de entrada. Pregunta "¿qué causó el conflicto?" en una pareja es un error categórico — es un ciclo. Él se retrae (acción A) porque ella es crítica (acción B). Ella es crítica porque él se retrae. No hay "causa raíz"; solo patrón mutuo. La terapia de familias exitosa reconoce esto y cambia el patrón, no busca culpables.

En lógica, causalidad circular genera paradoja: "esta oración es falsa." Pero von Foerster mostró que la recursión controlada (con delay o amortiguamiento) no colapsa lógicamente — produce autorreferencia y autoconciencia. El cerebro es recursivo; no es paradoja, es características.

Cibernética de segundo orden: El observador dentro del sistema

Primer orden: Estudio un sistema externo. Soy neutral. Mido temperatura. Mis mediciones no afectan el sistema. (Esto es ilusión, pero útil a veces.)

Segundo orden: Reconozco que mi acto de medición afecta el sistema. Mi dispositivo absorbe calor. Mi presencia asusta al animal. Mi pregunta sesga la respuesta del entrevistado. Más importante: mi modelo del sistema es parte del sistema. Si sé que eres observado, comportándote distinto. Entonces mi modelo de tu comportamiento afecta tu comportamiento real. Recursión.

Formalmente, en segundo orden, incluyes al observador en el diagrama de bucles. Es decir:

Consecuencia: no hay conocimiento objetivo "afuera" de la observación. Toda conocimiento es participatory. Ciencia no es descubrimiento de hechos preexistentes; es co-creación entre observador y observado. Esta es una revolución epistemológica. Von Foerster fue rechazado por positivistas, pero ha ganado influencia en ciencias cognitivas, psicología, y filosofía de física cuántica (donde el observador sí afecta el resultado, según Heisenberg).

Cómo estudiar: Recursos y lecturas recomendadas

Lecturas fundamentales (en orden de dificultad)

1. Wiener, N. (1948) "Cybernetics: Control and Communication in the Animal and the Machine"

Dónde: Archive.org tiene versión libre. O busca en biblioteca digital de tu universidad.

Qué leer: Prefacio + Capítulo 1 ("Intellectual Lineage of Cybernetics") + Capítulo 2 ("Feedback and Control"). El resto es técnico (ecuaciones diferenciales). Los primeros dos capítulos son accesibles y definen el campo.

Qué buscar: La analogía que Wiener hace entre máquinas de control y sistemas biológicos. Cómo define feedback. Por qué dice que información es fundamental (no energía).

Nota: Wiener escribe en 1948, cuando "cibernética" es palabra nueva. Él está emocionado, el libro tiene tono ensayístico. No es riguroso, es apasionante.

2. Bateson, G. (1972) "Steps to an Ecology of Mind"

Capítulo clave: "Cybernetic Explanation" (ensayo corto, ~20 páginas).

Dónde: Libro completo en librerías. El ensayo también circula online.

Qué leer: Todo el ensayo. Es accesible, hermoso, no técnico.

Qué buscar: Distinción entre "causa lineal" y "causalidad circular". Cómo Bateson critica la visión mecanicista. La idea de que la mente es patrón, no sustancia.

Conexión: Bateson toma las ideas de Wiener y las filosofiza. Cómo se aplican a antropología, terapia familiar, ecología.

3. Von Foerster, H. (1960) "On Self-Organizing Systems and Their Environments"

Dónde: Google Scholar busca "On Self-Organizing Systems von Foerster". PDF circula en ResearchGate.

Duración: Corto, denso (10 páginas). Requiere esfuerzo.

Qué leer: Introducción + sección sobre "Stability and Instability". El resto es muy técnico (teoría de Lyapunov).

Qué buscar: Cómo von Foerster formaliza la idea de que un sistema puede auto-organizarse si tiene retroalimentación. Cómo evita caos.

4. von Bertalanffy, L. (1968) "General System Theory"

Dónde: Libro, relativamente disponible en librerías viejas. Publicado en español como "Teoría General de los Sistemas".

Qué leer: Capítulo 1 ("Objective, Scope and History of General Systems Theory") + Capítulo 2 ("Some System Concepts"). No necesitas el resto (es catalogación de ejemplos).

Qué buscar: La crítica de von Bertalanffy a la física clásica cuando se aplica a organismos vivos. La idea de "equifinality" (distintos caminos al mismo equilibrio). Sistemas abiertos.

Conexiones con otros temas del curso

Bloque 1 (Inteligencia colectiva): Un grupo es un sistema cibernético. Si no hay retroalimentación (nadie escucha a otros), no hay inteligencia colectiva. Si hay retroalimentación negativa fuerte (jerarquía rígida que sofoca discrepancias), tampoco. El equilibrio es feedback controlado.

Bloque 2 (Machine Learning): El descenso de gradiente (gradient descent) es retroalimentación: compara pérdida actual con pérdida anterior, ajusta pesos para reducir pérdida. Es un algoritmo cibernético. Las redes neuronales son sistemas que se auto-optimizan mediante feedback.

Bloque 3 (Inteligencia híbrida): Humano + IA es un bucle de retroalimentación. Humano → IA → outputs → humano observa → ajusta → IA → ... Si no hay feedback del humano al sistema, la IA diverge (no calibra a lo que el humano desea).

Lecturas contemporáneas (aplicadas)

Meadows, D. (2008) "Thinking in Systems: A Primer" — Excelente introducción moderna. Usa ejemplos actuales (clima, economía). Mucho más accesible que los clásicos. Recomendado como introducción antes de Wiener si encuentras a Wiener duro.

Pask, G. (1975) "Conversation Theory" — Cómo von Foerster aplicó cibernética de segundo orden a educación. Si te interesa pedagogía (relevante para este curso), leer secciones sobre feedback en aprendizaje.

Ejercicio de lectura crítica

Cuando leas a Wiener, pregúntate: ¿Dónde están los límites de su metáfora? Él compara cerebro y máquina. ¿Tienen ambos la misma estructura de feedback? ¿Qué diferencias hay? Von Foerster diría que la diferencia es la recursión (el cerebro se observa a sí mismo; la máquina requiere observador externo). ¿Es convincente? Piensa en ejemplos modernos: ¿una IA que monitorea su propio error es auto-consciente?

Ejercicio expandido: Diseña un sistema cibernético

Variante A: Gestión de emociones en una relación de pareja

Escenario: Dos personas en pareja. Ella siente que él se retrae emocionalmente. Él siente que ella es demasiado demandante. Atrapados en ciclo.

Tarea: Diagrama este sistema como un bucle de retroalimentación. Identifica:

Insight terapéutico: El pensamiento lineal diría: "Él es el problema (causa), ella es la víctima (efecto)." O vice versa. Cibernético dice: es un ciclo. Para romperlo, no culpes; cambia el patrón. Ejemplo: en lugar de retraerse, él se comunica tempranamente ("estoy abrumado, necesito espacio, pero te amo"). Ella cambia sensor/respuesta. El ciclo se rompe.

Variante B: Regulación del pH en una célula

Escenario: Una célula bacteriana mantiene pH interno ~7 aunque el ambiente sea ácido (pH 4) o alcalino (pH 9).

Tarea: Investiga cómo lo hace (busca "bacterial pH homeostasis"). Luego diagrama:

Insight biológico: Los seres vivos no están en equilibrio; están en "steady state dinámico" — lejos del equilibrio, mantenidos por feedback. El momento en que la retroalimentación falla, la célula muere. Evolución favoreció sistemas con retroalimentación robusta.

Variante C: Gobernanza de una organización

Escenario: Una empresa quiere mantener "innovación óptima": ni estancada (no innova), ni caótica (innova sin control). Necesita retroalimentación sobre qué proyectos funcionan.

Tarea: Diseña un sistema de feedback para una empresa con 100 empleados. Define:

Insight de gobernanza: Muchas organizaciones fracasan porque no tienen claro su setpoint (metas conflictivas), o sensor (no miden lo correcto), o retardo es demasiado alto (grandes empresas tardas en responder). Startups tienen ganancia alta y retardo bajo, pero a veces son demasiado erráticas (overshoot).

Desafío integrador: Reconoce un bucle en tu vida

Encuentra un sistema en tu vida cotidiana donde hay retroalimentación. Puede ser:

Pregunta: ¿Es positiva o negativa la retroalimentación? ¿Converge a equilibrio o diverge? ¿Hay límites naturales? ¿Puedes intervenir para cambiar el bucle?

Reflejo meta: Este ejercicio es cibernética de segundo orden. Estás observando un sistema (la retroalimentación en tu vida). Tu acto de observarlo → cambio en tu comportamiento → el sistema cambia. No eres neutro; eres parte del bucle.