01
Texto Teórico Completo

Inteligencia Colectiva

Todo lo que necesitas saber sobre cómo los grupos piensan, fallan y deciden — de Condorcet a Surowiecki, de cascadas informacionales a mercados de predicción.

📚 Tabla de Contenidos

  1. Parte 1: Fundamentos — ¿Qué es la inteligencia colectiva?
  2. Parte 2: Cuando la inteligencia colectiva falla — Sesgos y cascadas
  3. Parte 3: Arquitecturas de decisión colectiva
  4. Parte 4: Resúmenes de fuentes primarias
  5. Parte 5: Conexiones con el resto del curso
  6. Parte 6: Recursos y lecturas recomendadas

Parte 1: Fundamentos — ¿Qué es la inteligencia colectiva?

Definición y pregunta central

Inteligencia colectiva es la capacidad de un grupo de pensar, aprender, resolver problemas y tomar decisiones de forma más acertada que cualquiera de sus miembros individuales. No es simplemente el promedio de las opiniones, ni es un "grupo-mente" sobrenatural. Es un fenómeno emergente que surge cuando las condiciones son correctas.

La pregunta central que orienta este bloque es: ¿Bajo qué condiciones un grupo divergente es más inteligente que sus expertos? Y su corolario: ¿Cuándo y por qué los grupos fracasan miserablemente?

Una historia breve: de Condorcet a Surowiecki

El Marqués de Condorcet (1785)

Antes de que James Surowiecki acuñara "inteligencia colectiva" en 2004, el matemático y filósofo francés Nicolás de Condorcet escribió un tratado fundamental sobre jurados. En 1785, durante la Ilustración, Condorcet buscaba justificar matemáticamente por qué la democracia debía funcionar.

Su insight fue radical: si cada miembro de un jurado tiene mejor que 50% de probabilidad de votar correctamente (digamos, 55%), entonces conforme crece el jurado, la probabilidad de que la mayoría vote correctamente se aproxima a 100%. No por magia, sino por las matemáticas de la probabilidad.

Supón un jurado de 3 personas, cada una con p=0.55 de votar bien:

P(mayoría correcta) = P(3 correctos) + P(2 correctos) = 0.55³ + 3 × 0.55² × 0.45 = 0.166375 + 0.409875 = 0.576 (57.6%)

Ahora, con un jurado de 101 personas (p=0.55):

P(mayoría correcta) ≈ 0.9934 (99.34%)

Condorcet descubrió el poder exponencial del número: con suficientes votos independientes, casi cualquier grupo converge a la verdad. Pero su teorema tiene un supuesto crucial: independencia genuina. Si los votos no son independientes (si las personas se influyen mutuamente), el teorema se desmorona.

Francis Galton y la feria de Devon (1906)

Más de un siglo después, Galton—biólogo, estadístico, el mismo que inventó el concepto de "regresión"—asistió a una feria rural en Devon, Inglaterra. Allí, los visitantes pagaban sixpences para adivinar el peso de un buey (un animal vivo, robusto, impredecible).

Galton recopiló 800 estimaciones. Su hipótesis era que iban a ser caóticas, todas incorrectas. En cambio, descubrió algo asombroso:

El peso real del buey: 1,197 libras
El peso promedio estimado por 800 personas: 1,208 libras
Error: 11 libras (0.9%). La mediana fue 1,207 libras.

Galton concluyó: "Podemos justificadamente decir que la multitud, como grupo, era casi tan sabia como el hombre más sabio entre ellos." Esta observación presagió lo que vendría 150 años después.

James Surowiecki y "La sabiduría de las multitudes" (2004)

A principios del siglo XXI, el periodista James Surowiecki observó el mismo patrón en contextos modernos: redes de expertos, mercados bursátiles, predicciones de cine, diagnósticos médicos colaborativos. En su libro The Wisdom of Crowds (2004), sintetizó este patrón en cuatro condiciones que un grupo necesita para ser colectivamente inteligente.

Surowiecki no solo describía anécdotas. Enlazaba Galton con Condorcet, con estudios modernos de comportamiento, y con casos de empresas que fallaban cuando ignoraban esta sabiduría. El libro se convirtió en referencia obligada para economistas, psicólogos, gestores de empresas y, años después, para investigadores de machine learning.

Las cuatro condiciones de Surowiecki

Surowiecki argumenta que para que un grupo sea colectivamente inteligente, debe cumplir cuatro condiciones. No son suficientes solas; todas son necesarias. Profundicemos en cada una.

1. Independencia (Independence)

Cada miembro del grupo piensa y decide con base en su propia información y análisis, no en lo que otros dicen o piensan.

Esta es la condición más crítica y a menudo la que primero se viola. Independencia no significa que las personas no se comuniquen. Significa que, antes de comunicar, cada una tiene su propio juicio. El orden importa: primero vota, luego comunica, luego vuelve a votar es muy diferente a: primero discute, luego vota.

¿Por qué es tan importante? Considera el teorema de Condorcet: el poder exponencial del voto mayoritario se sostienes solo si cada voto es independiente. Si 100 personas ven a una persona famosa votar sí, y copian su voto, no tienes 100 votos independientes. Tienes 1 voto original más 99 que dependen de ese voto.

En términos matemáticos, si los votos no son independientes sino correlacionados (correlación ρ > 0), la convergencia a la verdad se ralentiza drásticamente. Con ρ = 0.3, un jurado de 1,000 personas puede ser tan efectivo como uno de 100 personas independientes. La dependencia cancela el poder del número.

Ejemplos de violación de independencia:

  • Conformidad normativa: En una sala de reuniones, todo el mundo acuerda con el CEO porque teme represalias o quiere aparentar lealtad.
  • Cascadas informacionales: Las primeras 3 personas dicen "A", la 4ª cree que debe haber razón ("si 3 personas dicen A, debo estar equivocado") y dice A, aunque su información privada decía "B".
  • Información imperfecta observada: Ves que otra persona votó sí, así que asumes que tiene información que tú no tienes, aunque en realidad su voto es tan aleatorio como el tuyo.

La independencia es delicada: necesitas que las personas tengan acceso a información parcialmente diferente, pero no que sean aisladas las unas de las otras. Es un equilibrio frágil.

2. Diversidad (Diversity)

El grupo incluye personas con diferentes perspectivas, antecedentes, conocimientos y métodos de pensamiento.

Diversidad no es simplemente "tener gente de diferentes razas" (aunque eso importa). Es diversidad cognitiva: personas que piensan diferente, que cometieron errores en direcciones diferentes, que tienen experiencias variadas en problemas similares.

Aquí entra Scott Page, economista de Michigan, con su Diversity Prediction Theorem:

Collective Error = Average Individual Error − Diversity of Prediction

En otras palabras: el error del grupo depende tanto de cuán buenos sean los individuos como de cuán diferentes sean sus predicciones. Si todos adivinan lo mismo (diversidad baja), no hay beneficio colectivo aunque sean expertos. Si sus adivinanzas difieren pero son parcialmente correctas, sus errores se cancelan.

Ejemplo concreto: en un grupo que estima la población de Francia (9 millones es la respuesta correcta):

Persona A: 8 millones (error de -1 millón)
Persona B: 10 millones (error de +1 millón)
Promedio: 9 millones (error colectivo: 0)

vs.

Persona C: 8 millones (error de -1 millón)
Persona D: 8 millones (error de -1 millón)
Promedio: 8 millones (error colectivo: -1 millón)

El grupo A es colectivamente perfecto aunque ninguno es experto. El grupo B es uniformemente malo a pesar de que ambos tengan el mismo nivel de error individual.

Distinción crítica: Independencia ≠ Diversidad
100 personas pueden ser independientes pero cognitivamente idénticas (todas ingenieros de una misma empresa, entrenados idénticamente). Tendrán decisiones independientes pero baja diversidad. Igualmente, un grupo puede ser muy diverso (abogado, chef, matemático, artista) pero sus votos pueden estar correlacionados si todos ven que el abogado levanta la mano primero y copian.

3. Descentralización (Decentralization)

No hay una autoridad central que controle la información ni dicta cómo deben pensar los miembros. La información está distribuida.

La descentralización permite que el conocimiento local resurja. Si solo una persona (CEO, experto) tiene acceso a cierta información, esa información se pierde si esa persona no está en la sala. En sistemas descentralizados, el conocimiento está esparcido.

Ejemplo: en una empresa donde el CEO toma todas las decisiones, si el gerente regional sabe que en su ciudad hay un cambio regulatorio importante, pero el CEO no está informado, la decisión corporativa será subóptima. Si el sistema es descentralizado y ese gerente puede actuar sobre su conocimiento local, el sistema es más robusto.

Hayek (1945) lo articuló así: "El sistema de precios es el mecanismo descentralizado que permite que miles de productores compartan información sin que haya una agencia central orquestando todo." Los precios son descentralizados: si hay escasez de madera, el precio sube, y sin que nadie lo ordene, los carpinteros usan menos madera, los silvicultores plantan más árboles. La información se transmite sin punto central.

4. Agregación (Aggregation)

Existe un mecanismo para sintetizar las opiniones individuales en una decisión colectiva.

Aggregación es técnica. Puede ser un voto mayoritario simple ("ganador toma todo"), un promedio aritmético (para números continuos), un mercado de predicción (donde el precio de equilibrio revela la probabilidad colectiva), o más.

El mecanismo de agregación importa enormemente. A veces la mayoría simple es sesgada. A veces el promedio aritmético es robusto. A veces un sistema de ponderaciones (dando más peso a expertos) es mejor. Veremos esto en detalle en la sección sobre "Arquitecturas de decisión colectiva."

El caso del USS Scorpion (1968)

El USS Scorpion, un submarino nuclear estadounidense, desapareció en 1968 en el Océano Atlántico. El gobierno necesitaba localizarlo para recuperarlo y entender qué pasó.

John Craven, científico de la Marina, reunió a un equipo heterogéneo de expertos: oceanógrafos, ingenieros navales, especialistas en torpedos, oficiales de submarinos. Ninguno sabía exactamente dónde estaba el Scorpion. Pero cada uno tenía perspectivas parciales:

  • El oceanógrafo conocía patrones de corrientes oceánicas.
  • El ingeniero naval sabía cuánto tiempo podría haber viajado con diferentes velocidades.
  • El especialista en torpedos sabía de dónde provenía un ruido detectado por satélite.

Craven utilizó el método de Delphi, un protocolo donde expertos hacen estimaciones independientes, se comunican, y refinan. Después de varias rondas, el grupo convergió a una zona de búsqueda. El Scorpion fue encontrado a menos de 260 km de la predicción colectiva final.

Ningún experto individual lo habría localizado. Fue la combinación de independencia (cada uno escribía estimaciones antes de saber qué pensaban los otros), diversidad (perspectivas parcialmente diferentes), descentralización (sin almirante dictando la respuesta), y agregación (método Delphi sintetizaba) lo que funcionó.

El estudio de Woolley et al. (2010): "Collective Intelligence Factor"

En 2010, Anita Woolley (entonces en Carnegie Mellon) y colegas publicaron un estudio en Science que reveló algo sorprendente: la inteligencia colectiva no está determinada por la inteligencia individual de los miembros.

El estudio involucró 699 participantes en 152 grupos diferentes. Se midió:

  • Inteligencia individual de cada persona (IQ, tests cognitivos)
  • Desempeño del grupo en tareas diversas (resolución de problemas, juegos, predicciones)
  • Factores sociales: equidad en participación, Theory of Mind (empatía), composición de género

Los hallazgos fueron contracultural:

Correlación entre IQ promedio del grupo y Factor c (inteligencia colectiva): r ≈ 0.06 (casi cero)

Es decir, tener miembros más inteligentes no predice mucho sobre la inteligencia colectiva del grupo.

En cambio, lo que SÍ predecía Factor c era:

  • Equidad en la participación (turn-taking): Si una o dos personas dominan la conversación, Factor c baja. Si el tiempo de habla está equitativamente distribuido, Factor c sube.
  • Theory of Mind social: Grupos con mayor promedio en tests de "leer la mente en los ojos" (ability to infer what others are thinking) tenían Factor c más alto.
  • Diversidad de género: Grupos con mayor proporción de mujeres tendían a tener Factor c más alto. Hipótesis: las mujeres puntúan más alto en Theory of Mind y empujan a grupos hacia conversaciones más igualitarias.

Este hallazgo tiene implicaciones profundas. Sugiere que la inteligencia colectiva depende de dinámicas sociales, no de talento individual bruto. Un grupo de 5 personas mediocres que se escuchan mutuamente y participan equitativamente puede ser más inteligente que un grupo de 5 genios que se pelean por hablar.

Conexión con Machine Learning: Ensemble Methods

La inteligencia colectiva no es un concepto únicamente social. Ha sido formalizada en machine learning como ensemble methods: técnicas que combinan múltiples modelos predictivos débiles para obtener una predicción fuerte.

Algunos ejemplos:

  • Bagging (Bootstrap Aggregating): Entrena múltiples modelos en diferentes subconjuntos de datos. Promedia las predicciones. Funciona porque los errores de diferentes modelos tienden a cancelarse (diversidad).
  • Random Forests: Cientos de árboles de decisión, cada uno entrenado en datos ligeramente diferentes, con características aleatorias. La predicción final es el voto mayoritario (agregación). Funciona porque los árboles son débiles pero diversos.
  • Gradient Boosting: Entrena modelos secuencialmente. Cada nuevo modelo se enfoca en errores del anterior. La predicción final es una suma ponderada.

La matemática subyacente es la de Condorcet y Page: si tienes modelos que son mejor que aleatorio (p > 0.5 en binaria), y sus errores son parcialmente independientes, combinarlos reduce el error exponencialmente con el número de modelos.

Limitaciones tempranas y críticas a Surowiecki

Aunque "The Wisdom of Crowds" fue fundacional, también ha sido criticada:

  • Elección selectiva de casos: Surowiecki describe casos donde funciona la inteligencia colectiva, pero da menos atención a los casos donde colapsa (modas, burbujas especulativas).
  • Condiciones idealizadas: Las cuatro condiciones de Surowiecki son necesarias pero a veces idealistas. En la práctica, rara vez se cumplen todas completamente.
  • Ignorancia del contexto: No todos los problemas son iguales. La inteligencia colectiva funciona bien para estimación numérica (peso del buey) pero es más frágil para decisiones normativas (qué es justo, qué es bello).

A lo largo de este bloque, abordaremos estas limitaciones en detalle, especialmente en la sección sobre cascadas informacionales y sesgos.

Parte 2: Cuando la inteligencia colectiva falla — Sesgos y cascadas

Las cuatro condiciones de Surowiecki no son fáciles de mantener. Tan pronto como se violan, la inteligencia colectiva se transforma en conformidad destructiva. Esta sección estudia los mecanismos de fallo.

Cascadas informacionales (1992)

El modelo de Bikhchandani, Hirshleifer y Welch

En 1992, tres economistas formalizaron matemáticamente cómo grupos racionales pueden tomar decisiones colectivamente irracionales. Su modelo de cascadas informacionales

El modelo es elegante. Imagina que 1,000 personas necesitan decidir entre dos restaurantes: A o B. No saben cuál es mejor. Pero cada persona tiene una "señal privada" (tal vez comió en A antes y le gustó) que les da información. Además, ven que otros eligen.

Personas 1 y 2 llegan independientemente. La Persona 1 ve su señal privada: A parece mejor. Elige A. La Persona 2 ve su señal privada: B parece mejor. Pero ve que la Persona 1 eligió A. Bayesianamente, razona: "Mi señal privada favorece B, pero la Persona 1 también tiene una señal privada, y eligió A. Es probable que su señal favorezca fuertemente A, o simplemente tenía suerte. Si pongo mi señal contra dos señales (su señal + su elección), probablemente debo elegir A."

La Persona 2, a pesar de su señal privada que favoreça B, elige A.

Ahora la Persona 3 llega. Ve: 2 personas eligieron A. Su señal privada también favorece A. Fácil: elige A. Una cascada ha comenzado.

La Persona 100 llega. Ve: 99 personas eligieron A. Su señal privada favorece B. Pero piensa: "Bien, es posible que mi señal sea errónea o atípica. 99 personas eligieron A; es muy improbable que todos estén equivocados. Debo elegir A." Así, ignora su información privada y copia.

El resultado: 1,000 personas en cascada, todas eligiendo A. Pero si en realidad B es mejor, esta cascada es colectivamente ciega. Una cascada racionalizada por cada persona individualmente ("debo creerle al grupo") que es irracional colectivamente.

Condición de cascada: |n_A - n_B| ≥ 2

Matemáticamente, una cascada comienza cuando la diferencia acumulada de personas que han elegido A vs. B es de 2 o más. Una vez que |#A − #B| ≥ 2, y tu señal privada es débil, es racional ignorar tu señal y copiar la mayoría.

Este punto es crucial porque muestra que las cascadas no requieren que todos sean irracionales. Requieren solo:

  1. Que el grupo sea lo suficientemente desequilibrado (2+ diferencia)
  2. Que cada persona sea racional en el sentido bayesiano (actualiza su creencia dadas las señales observadas)
  3. Que la información privada sea relativamente débil o ambigua

Cascadas reputacionales vs. informacionales

Sunstein (2006) extendió el modelo de cascadas distinguiendo dos tipos:

  • Cascadas informacionales: Crees que debes estar equivocado porque muchos otros piensan diferente. Es cognitiva.
  • Cascadas reputacionales: Sabes que podrías estar en lo cierto, pero tienes miedo de las consecuencias sociales si expresas tu opinión. Es conductual.

En una cascada reputacional, tu verdadera creencia podría favorecer a un candidato impopular en tu círculo social, pero callas porque temes el ostracismo o la condena. No es que creas que el grupo tiene razón. Es que tienes miedo.

El experimento de conformidad de Asch (1951)

Solomon Asch fue un psicólogo que curiosamente se preguntó: ¿cuánto puede un grupo presionar a un individuo para que niegue la realidad?

En su experimento clásico, reunió a 8 personas supuestamente para hacer un "test de percepción visual." Les mostraba un línea de referencia y tres líneas de comparación. La tarea era sencilla: decir cuál de las tres se parecía más a la línea de referencia.

De las 8 personas, 7 eran confederados (actores que trabajaban con Asch). Solo 1 era el participante real. En varias rondas, las 7 confederados propositadamente daban respuestas incorrectas.

Los resultados fueron sorprendentes:

75% de los participantes reales conformaron al menos una vez (dieron la respuesta incorrecta que el grupo había dado).

33% conformaron con frecuencia (en la mayoría de los ensayos).

25% nunca conformaron, confiando en su visión sobre el grupo.

Asch luego preguntó a los participantes por qué habían conformado. Las respuestas variaron:

  • Distorsión perceptual (30%): "Realmente vi lo que el grupo vio. Mis ojos deben estar equivocados." El grupo cambió literalmente cómo percibían la realidad sensorial.
  • Distorsión de acción (70%): "Sabía que el grupo estaba equivocado, pero no quería ser diferente. Así que dije su respuesta." El grupo no cambió su percepción, sino su comportamiento.

Asch también descubrió que un solo aliado (otra persona que daba la respuesta correcta) reducía la conformidad de 33% a 5%. El grupo no necesita ser unánime para presionar; una pequeña disidencia reduce dramáticamente el efecto.

Pensamiento de grupo (Groupthink) — Janis (1972)

Irving Janis, psicólogo político, estudió decisiones desastrosas de gobiernos: la invasión de Bahía de Cochinos, la guerra de Vietnam, el desastre del Challenger. Identificó un patrón que llamó groupthink (pensamiento de grupo).

Groupthink ocurre en grupos cohesivos, cerrados, bajo presión de tiempo, con un líder directivo. Los 8 síntomas principales son:

Síntoma Descripción
Ilusión de invulnerabilidad El grupo se siente superior, cree que no puede fallar
Creencias inquebrantables El grupo ignora advertencias, evidencia de que está equivocado
Racionalización Problemas se reinterpretan como oportunidades
Estereotipos del enemigo Oponentes se ven como débiles, estúpidos, malignos
Presión directa Se silencia a disidentes; "no seas traidor"
Guardaespaldas mentales Miembros se auto-censuran para proteger al grupo
Ilusión de unanimidad El silencio se interpreta como consentimiento
Presión sobre disidentes Se ataca a quien cuestiona, "eres un mal compañero"

Caso: Bahía de Cochinos (1961)

En 1961, la administración Kennedy heredó un plan de la CIA para invadir Cuba y derrocar a Fidel Castro. El plan era ejecutado por exiliados cubanos con apoyo de aviones y entrenamiento estadounidense. Kennedy presidió juntas de planificación con sus mejores asesores: Dean Rusk (Secretario de Estado), Robert McNamara (Defensa), Allen Dulles (CIA).

Janis identificó groupthink:

  • Ilusión de invulnerabilidad: "Los cubanos no pueden defenderse. Será rápido."
  • Racionalización: Críticos decían "la inteligencia que tiene la CIA no es confiable," pero fueron ignorados.
  • Presión: Quién cuestionaba el plan era visto como débil o defensor de Castro.
  • Ilusión de unanimidad: Kennedy asumió que todos sus asesores estaban deacuerdo. Algunos tenían dudas pero no las expresaron abiertamente.

El resultado: 1,461 exiliados desembarcaron. Fueron rodeados en 3 días. 114 murieron, 1,100 fueron capturados. El presidente cubano Castro quedó reforzado. La administración Kennedy fue humillada internacionalmente.

Lo fascinante es que Kennedy luego aprendió de Bahía de Cochinos. Cuando enfrentó la Crisis de los Misiles en 1962 (descubrimiento de armas nucleares soviéticas en Cuba), cambió su método:

  • Pidió explícitamente a los asesores que asumieran posiciones opuestas.
  • Salió de algunas reuniones para que su equipo pudiera hablar libremente sin presión presidencial.
  • Buscó el consejo de expertos externos, no solo de sus aliados directos.

El resultado fue mejor. La administración navegó hacia una resolución que evitó la guerra nuclear, aunque tuvo que ceder terreno (Estados Unidos retiró misiles de Turquía). El aprendizaje fue real: diversidad de opinión y apertura a críticas mejora el resultado colectivo.

Polarización grupal (Moscovici & Zavalloni, 1969)

Otro fenómeno: cuando un grupo se reúne, no converge a un consenso "moderado." Tiende a polarizarse: el grupo se mueve hacia posiciones más extremas que sus miembros individuales.

Moscovici y Zavalloni (1969) demostraron esto en experimentos sobre dilemas morales y riesgo. Hallaron que:

  • Si el grupo es en general pro-riesgo, la deliberación lo hace más pro-riesgo aún.
  • Si el grupo es pro-cautela, la deliberación lo hace más cauteloso aún.

Ejemplo: un grupo de ambientalistas discute política climática. Cada miembro cree que es urgente hacer algo. Al conversar, se refuerzan mutuamente. La posición inicial ("necesitamos reducir emisiones 50% en 10 años") se vuelve más extrema ("necesitamos reducir 80% en 5 años, es ahora o nunca"). El grupo no moderó, polarizó.

El mecanismo dual (Moscovici) es:

  1. Comparación normativa: Si veo que mi opinión es relativamente moderada en el grupo, quiero destacar como alguien comprometido. Asumo una posición más extrema.
  2. Persuasión informacional: Escucho argumentos nuevos y sofisticados de otros miembros que refuerzan mi posición inicial, así que la hago más fuerte.

Anclaje (Tversky & Kahneman, 1974)

Tversky y Kahneman descubrieron que estimaciones numéricas son fuertemente sesgadas por números "ancla" mencionados incidentalmente.

En su experimento clásico, mostraban a participantes un número (digamos, 10 o 65) generado por una rueda de la fortuna, y luego preguntaban: "¿Es el porcentaje de países africanos en las Naciones Unidas mayor o menor a este número? ¿Cuál es el número exacto?"

El resultado:

Ancla = 10: mediana de estimaciones = 25%
Ancla = 65: mediana de estimaciones = 45%
Respuesta correcta: ~25%

Aunque los participantes sabían que el número de la rueda era aleatorio, sus estimaciones estaban severamente sesgadas por él. Números altos anclaban estimaciones altas; números bajos, estimaciones bajas.

En negociaciones, anclaje es devastador. Si uno de los negociadores dice "yo ofrezco 100 dólares por eso," aunque sea un precio absurdo, los negociadores siguientes tendrán dificultad de ir por debajo de eso. El ancla se fija cognitivamente.

Tabla: Sesgos, condiciones violadas, antídotos

Sesgo Condición violada Mecanismo Antídoto
Cascadas informacionales Independencia Ignoras señal privada porque otros parecen tener mejor información Anonimato en votación inicial; incentivar crítica pública antes de decisión final
Asch conformidad Independencia Distorsión perceptual o conductual por presión social Permitir disidencia segura; un aliado reduce conformidad 85%
Groupthink Independencia + Diversidad Cerrazón cognitiva en grupos cohesivos Abogado del diablo; crítica constructiva normalizada; diversidad intencional
Polarización Independencia + Diversidad Comparación normativa + persuasión extrema Incluir escépticos genuinos (no falsos abogados); pausa entre rondas de discusión
Anclaje Independencia Números incidentales sesgan estimaciones Estimar primero, luego revelar ancla; usar múltiples métodos de estimación

Parte 3: Arquitecturas de decisión colectiva

Una vez que entiendes que los grupos pueden ser inteligentes o tontos, la pregunta es: ¿cuál es la mejor arquitectura institucional para tomar decisiones colectivas? Hay múltiples respuestas, cada una con trade-offs.

El teorema de imposibilidad de Arrow (1951)

Kenneth Arrow, economista, probó un resultado que ha obsesionado a economistas y filósofos políticos durante 70 años: es imposible diseñar un mecanismo de votación que sea perfectamente justo.

Arrow definió cinco propiedades deseables de un sistema de votación:

  1. Universalidad: Funciona para cualquier patrón de preferencias
  2. Respuesta positiva: Si alguien mejora su opinión sobre A, el resultado no empeora para A
  3. Independencia de alternativas irrelevantes: La preferencia entre A y B no debería cambiar si aparece una nueva opción C
  4. No hay dictador: No hay una persona cuyas preferencias siempre ganan
  5. Racionalidad: El resultado colectivo es transitivo (si A > B y B > C, entonces A > C)

Arrow probó que ningún sistema de votación puede satisfacer los cinco. Siempre hay un trade-off. Esto se conoce como la Imposibilidad de Arrow.

Ejemplo: La paradoja de Condorcet en votación (1785)

Antes de Arrow, Condorcet descubrió una paradoja específica. Imagina tres votantes y tres alternativas (A, B, C):

Votante 1: A > B > C
Votante 2: B > C > A
Votante 3: C > A > B

Mayoría: A > B (votos 1 y 3)
Mayoría: B > C (votos 1 y 2)
Mayoría: C > A (votos 2 y 3)

Resultado: A > B > C > A (un círculo, no transitivo)

La votación por mayoría viola la racionalidad. El grupo "prefiere" A a B, B a C, y C a A. Es un ciclo, no una preferencia consistente. ¿Quién elige el vencedor? El orden de votación. Si votamos A vs. B primero, A gana. Luego A vs. C, C gana. El resultado depende de cómo los políticos programan la agenda. (Este es un verdadero problema en legislaturas.)

5 arquitecturas de decisión colectiva

1. Democracia Directa / Votación por Mayoría

Mecanismo: Cada persona vota. La opción con más votos gana.

Ventajas:

  • Teóricamente fundamentada en Condorcet (si p > 0.5 e independencia, mayoría converge a verdad).
  • Simple, legítima, democrática.
  • Funciona cuando el problema es estimación numérica (¿cuánta gente hay en la ciudad?)

Desventajas:

  • Vulnerable a la paradoja de Condorcet (ciclos de preferencia).
  • Vulnerable a cascadas y anclaje si el orden de votación importa.
  • Para problemas normativos (qué es justo), la mayoría puede estar equivocada moralmente.
  • Ignora la fuerza de las preferencias. Si 51% quiere X y 49% quiere Y, pero el 49% se siente mucho más apasionado, la mayoría no captura esa información.

2. Democracia Delegada / Liquid Democracy

Mecanismo: Cada persona puede votar directamente O delegar su voto a un representante de confianza. Los delegados pueden a su vez delegar. Es "líquido" porque puedes cambiar tu delegación.

Ejemplos reales: LiquidFeedback (usado por Pirate Parties alemanas), Polkadot (blockchain).

Ventajas:

  • Combina la accesibilidad de democracia directa con la eficiencia de representación.
  • Las personas que saben mucho sobre un tema pueden delegar a alguien que sabe más.
  • Dinámico: si tu delegado comete un error, puedes retirar tu voto.

Desventajas:

  • Problema de super-delegados: si una persona es extraordinariamente de confianza, concentra muchísimo poder (cascada delegada).
  • Puede ser computacionalmente complejo.
  • Requiere alfabetismo cívico alto. Si la gente elige delegados irresponsablemente, falla.

3. Mercados de Predicción (Prediction Markets)

Mecanismo: Personas compran y venden "acciones" cuyo valor depende de un evento futuro. El precio de equilibrio revela la probabilidad colectiva.

Ejemplo: "¿Ganará Trump las elecciones de 2024?" Los traders pueden comprar acciones que valen $1 si Trump gana, $0 si pierde. Si el mercado cree que hay 60% probabilidad, el precio de equilibrio es ~$0.60.

Ventajas (Hayek, 1945):

  • Agregación eficiente de información dispersa. Si un trader sabe algo, ese conocimiento se transmite al precio.
  • Incentivos correctos. Ganas dinero si predices bien, pierdes si predices mal. El sistema es auto-correctivo.
  • Histórico: IEM (Iowa Electronic Markets) predijo presidenciales 2000–2016 con error < 1.34 percentage points, mejor que encuestas.

Desventajas:

  • Requiere dinero para jugar. Gente pobre no puede participar, así que hay sesgo de riqueza.
  • Manipulación potencial. Si un actor poderoso compra muchas acciones sin información real, crea un falso precio.
  • Regulatoriamente complicado en muchos países (pensado como apuestas).
  • Funciona para eventos binarios o numéricos. ¿Cómo diseñarías un mercado de predicción para "¿es este artículo de investigación científica?" (verdadero/falso)

4. Método Delphi

Mecanismo: Ronda 1: expertos dan estimaciones anónimas. Ronda 2: comparten sus estimaciones, se comunican, se refina. Rondas posteriores: convergen a un consenso.

Inventado por RAND Corporation en los 1950s para predicciones militares y tecnológicas.

Ventajas:

  • Protege la independencia inicial (anonimato en ronda 1).
  • Permite refinamiento iterativo. No es un voto único, sino una conversación estructurada.
  • Ha sido usado con éxito en muchos campos: medicina, meteorología, tecnología.

Desventajas:

  • Vulnerable a anclaje. Las estimaciones de ronda 1 sesgan las rondas posteriores.
  • Requiere tiempo y múltiples rondas. No es rápido.
  • Convergencia puede ser artificial (expertos moderan opiniones para "llegar a acuerdo," no porque cambien de parecer genuinamente).
  • Sesgado hacia la mediana. Si hay un outlier correcto, será descartado por presión.

5. Sortición / Asambleas de Ciudadanos (Citizens' Assemblies)

Mecanismo: Se selecciona aleatoriamente a ciudadanos (como en un jurado) para formar una asamblea. La asamblea delibera sobre un tema, escucha expertos, discute y emite una recomendación.

Historia antigua: Atenas 508 AC. Para evitar que la aristocracia acumulara poder, se estableció el sorteo. Cargos públicos no eran elegidos, sino sorteados entre ciudadanos. La idea: si alguien es elegido por azar, no puede haber gente que cumpla los requisitos de poder ("yo tengo conexiones"). Es más democrático.

Historia moderna: Irlanda 2016–2018. Se convocó una Citizens' Assembly de 99 personas (con representatividad demográfica) para debatir sobre el aborto, un tema polarizador. Después de 4 asambleas deliberativas, la mayoría de la asamblea recomendó que el aborto sea legal en ciertos casos. Esta recomendación fue validada por un referéndum nacional: 66.4% votó por sí.

Ventajas:

  • Mitiga los efectos perversos de representación: políticos no tienen que preocuparse por reelección, así que pueden razonar honestamente.
  • Deliberativo, no solo votativo. Las personas se escuchan, aprenden.
  • Electoralmente representativo (si se sortea bien). No hay auto-selección de activistas.
  • Historicamente efectivo en temas polarizadores (Irlanda, Francia, Corea del Sur).

Desventajas:

  • Lento y costoso. Requiere meses y presupuesto significativo.
  • Vulnerable a presión de expertos. Si los expertos que presentan son sesgados, la asamblea los absorbe.
  • No vinculante necesariamente. En muchos casos, la recomendación de la asamblea puede ser ignorada por legisladores.
  • Pequeño tamaño (típicamente 50–150 personas). Estadísticamente, no es tan robusto como votación masiva.

Comparación de arquitecturas: tabla de trade-offs

Arquitectura Información Velocidad Legitimidad Robustez a sesgos
Mayoría directa Masiva Rápida Alta Media (vulnerable a cascadas)
Liquid democracy Personalizada Media Alta Media (super-delegados)
Mercados de predicción Muy alta Muy rápida Baja (dinero = voto) Alta (incentivos)
Delphi Especializada Lenta Media (expertos) Media (anclaje, convergencia artificial)
Ciudadanos/Sortición Equilibrada Muy lenta Alta (democrática) Alta (deliberación, diversidad garantizada)

Ponderación vs. voto igualitario

Una variante importante es si todos los votos tienen peso igual o si algunos votos valen más (ponderados). La ponderación es común cuando hay expertos:

  • En un comité médico diagnosticando una enfermedad rara, ¿el voto de un especialista en esa enfermedad vale igual a un médico general?
  • En una asamblea corporativa, ¿accionistas con 1000 acciones tienen 1000 votos?

La evidencia de Woolley et al. (2010) sugiere que la ponderación no siempre ayuda. En su estudio, grupos donde cada persona tenía un voto igual tendían a tener Factor c más alto que grupos donde los votos eran ponderados por "percepción de expertise." La razón: la ponderación a menudo sesga hacia las personas dominantes que hablan más fuerte, no hacia los que realmente saben más.

Parte 4: Resúmenes de fuentes primarias

Esta sección resume los libros y papers clave que hemos mencionado. No reemplaza la lectura original, pero te da la esencia de cada uno.

Surowiecki, James (2004) — "The Wisdom of Crowds"

Tesis central: Bajo las cuatro condiciones (independencia, diversidad, descentralización, agregación), grupos de personas ordinarias pueden tomar decisiones notablemente sabias, a menudo mejores que expertos individuales.

Estructura del libro: Surowiecki abre con tres casos históricos (Galton y el buey, Carl Gauss prediciendo el peso de un asteroide, la locación del USS Scorpion) que ilustran cómo la agregación funciona. Luego dedica capítulos a cada condición, explicando cómo se rompen (cascadas, polarización, asimetría de información) y dando ejemplos.

Evidencia: Recopila datos de mercados, encuestas, predicciones deportivas, diagnósticos médicos. Muestra que en sistemas que funcionan, la "multitud" a menudo supera a expertos. Un grupo de traders ordinarios en IEM (Iowa Electronic Markets) predijo las presidenciales 2000 y 2004 más precisamente que encuestas de expertos.

Limitaciones reconocidas: Surowiecki admite que no todos los problemas son iguales. Hay problemas donde los grupos fallan (si la información es escasa, si el feedback es pobre, si el sistema está corrompido). También nota que el libro se enfoca en casos de éxito; hay un sesgo de selección.

Impacto: El libro influenció cómo compañías piensan sobre innovación (crowdsourcing, idea competitions), financiamiento (Kickstarter, prediction markets), y media. Se volvió texto de referencia en economía, psicología, business schools.

Woolley, Chabris, Pentland, Hashmi & Malone (2010) — "Evidence for a Collective Intelligence Factor"

Publicado en: Science, vol. 330, issue 6004, pp. 686-688
Tesis: La inteligencia colectiva de un grupo es una capacidad general, predecible, y está determinada más por dinámicas sociales que por inteligencia individual.

Metodología: 699 participantes en 152 grupos. Cada grupo hizo 5 tareas muy diferentes: resolución de problemas (Raven matrices), juego de coordinación, competencia visual, adivinanza de números, diseño de estrategia. Se midió:

  • Inteligencia individual (GMAT scores, IQ)
  • Desempeño grupal (score combinado de las 5 tareas)
  • Dinámicas sociales (turn-taking, Theory of Mind, composición de género)

Hallazgos principales:

  • Existe una variable latente "Factor c" (como el g de inteligencia individual) que predice desempeño grupal en tareas muy diversas. Un grupo que es bueno en una tarea tiende a ser bueno en otras.
  • Factor c está correlacionado débilmente (r ≈ 0.06) con el promedio de IQ grupal. Esto fue sorpresivo: implica que tener gente más inteligente no garantiza un grupo más inteligente.
  • Factor c está fuertemente correlacionado (r ≈ 0.76) con la distribución equitativa de turn-taking. Si el 80% del tiempo de habla está en una o dos personas, Factor c baja.
  • Factor c está correlacionado con promedio grupal en "Reading the Mind in the Eyes" test (medida de Theory of Mind). Grupos con personas más empáticas tenían Factor c más alto.
  • Composición de género importa. Grupos con mayor proporción de mujeres tendían a tener Factor c más alto (r ≈ 0.23). Esto no parece ser por capacidad individual, sino por dinámicas sociales (hipótesis: mujeres tienden a puntuar más alto en Theory of Mind, facilitando conversaciones más igualitarias).

Implicaciones: Si quieres un grupo inteligente, no busques solo individuos brillantes. Busca personas que se escuchen mutuamente, que puedan empatizar, y que aseguren que nadie domine. El arquitecto del grupo importa más que el talento individual.

Page, Scott E. (2007) — "The Difference: How the Power of Diversity Drives Innovation"

Tesis central: Diversidad cognitiva es tan importante como talento individual. Un grupo de pensadores diversos supera a un grupo de genios idénticos.

Diversity Prediction Theorem: Page formaliza matemáticamente que:

Collective Error = Average Individual Error − Diversity

Si todos adivinan la población de Francia como 8 millones, el promedio es 8 millones, muy equivocado. Si la mitad adivina 8, la mitad 10, el promedio es 9 (casi perfecto). La diversidad de predicción cancela los errores.

Tipos de diversidad que importan: No toda diversidad es igual. Page distingue:

  • Diversidad cognitiva: Diferentes heurísticas, marcos de referencia, interpretaciones. Una persona usa "growth rate," otra "per capita GDP," otra "human development index" para comparar países. Sus análisis divergen útilmente.
  • Diversidad de perspectiva: Diferentes experiencias de vida. Un inmigrante y un nativo ven la ciudad diferente.
  • Diversidad de interpretación: Mismo dato, diferentes significados. Un economista ve números como "demanda agregada," un psicólogo como "estado de ánimo colectivo."

Limitaciones: Page también reconoce que diversidad no siempre ayuda. Si el problema es muy técnico y el expertise es crucial, un grupo de principiantes diversos no supera a un grupo de expertos. Pero si el espacio de soluciones es complejo (muchos óptimos locales), diversidad ayuda a explorar múltiples caminos.

Condorcet, Marquis de (1785) — "Essai sur l'Application de l'Analyse à la Probabilité des Décisions Rendues à la Pluralité des Voix"

Publicado: 1785
Tema: Matemáticas de votación por mayoría

El teorema de Condorcet (formal): Si hay n votantes, cada uno con probabilidad p > 0.5 de votar correctamente (independientemente), la probabilidad de que la mayoría vote correctamente tiende a 1 conforme n → ∞.

Números específicos (que Condorcet calculó a mano):

Para n = 3, p = 0.51: P(mayoría correcta) = 0.513
Para n = 101, p = 0.51: P(mayoría correcta) = 0.96
Para n = 1001, p = 0.51: P(mayoría correcta) = 0.9999+

Incluso con una ventaja minúscula (51% vs. 49%), el efecto es exponencial. Con 1001 votantes, la convergencia a 99.99% es casi segura. Este fue Condorcet's gran insight: la democracia funciona matemáticamente si cada ciudadano tiene una ligera ventaja sobre azar.

Supuestos críticos: Condorcet no lo formuló exactamente así, pero se apoya en:

  • Independencia de votos
  • Distribución binomial (cada voto es Bernoulli con parámetro p)
  • Existe una "verdad" contra la cual juzgar corrección

El teorema quebrantó en contextos donde estos supuestos fallan.

Bikhchandani, Hirshleifer & Welch (1992) — "A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascades"

Publicado en: Journal of Political Economy, vol. 100, no. 5, pp. 992-1026
Tema: Cómo cascadas informacionales explotan modas y burbujas

Modelo formal: n agentes secuencialmente deciden entre A o B. Cada agente tiene una señal privada. Observa decisiones previas. Actualiza Bayesianamente.

Condición de cascada: Una cascada comienza cuando |#A − #B| ≥ 2. En ese punto, tu señal privada es sobrepesada por la evidencia agregada de decisiones previas. Es racional ignorar tu señal.

Ejemplo de la pizzería: Hay dos pizzerías lado a lado. No sabes cuál es mejor. Entras y ves que una tiene 10 clientes, la otra 2. Tu pensamiento: "Probablemente la de 10 es mejor. Aunque mi amigo me recomendó la de 2, si 10 personas eligieron la otra, debo estar equivocado." Entras a la de 10. Ahora alguien más ve 11 vs. 2 y entra a la de 11. Una cascada.

Implicaciones: Las cascadas pueden ser correctas (todos terminan en la pizzería genuinamente mejor) o incorrectas (todos terminan en la pizzería sobrevalorada). Lo importante es que son irreversibles. Una vez que la cascada comienza, es muy difícil cambiar.

Aplicaciones empíricas mencionadas: Moda (por qué ciertos cortes de cabello explotan de repente), burbujas especulativas (por qué los precios de vivienda suben exponencialmente incluso si los fundamentos no cambiaron), adopción de tecnología (por qué MySpace murió aunque era más fuerte que Facebook en 2008; Facebook alcanzó cascade point).

Arrow, Kenneth (1951) — "Social Choice and Individual Values"

Publicado: 1951 (Nobel Prize 1972)
Tema: Imposibilidad de un sistema de votación perfecto

El teorema (en lenguaje coloquial): No existe un sistema de votación que satisfaga simultáneamente:

  1. Universalidad (funciona para cualquier preferencia)
  2. Respuesta positiva (el resultado no empeora si tu preferencia mejora)
  3. Independencia de alternativas irrelevantes
  4. Sin dictador
  5. Racionalidad (transitividad de resultado)

La prueba es corta pero técnica. Usa la idea de "conjuntos ganadores minimales": si ningún conjunto de votantes tiene poder de bloquear A, pero subconjuntos pueden, se llega a una contradicción.

Implicaciones políticas: Cualquier sistema real tiene un defecto. Mayoría simple es dictatorial sobre pares (impone la mayoría contra la minoría). Voto de Borda (ranking) viola independencia (agregar una opción C puede cambiar la preferencia entre A y B). Unanimidad requiere consentimiento de todos (pero si un votante tiene preferencias idiosincráticas, puede bloquear).

Por qué importa para inteligencia colectiva: Sugiere que no hay "solución" perfecta. Distintos sistemas revelan distintas dimensiones de la preferencia colectiva. La elección arquitectural es política, no técnica.

Janis, Irving (1972) — "Victims of Groupthink"

Publicado: 1972
Tema: Cómo grupos cohesivos toman decisiones desastrosas

Definición de groupthink: Un modo de pensamiento que surge en grupos cohesivos, cerrados, bajo presión, donde el deseo de unanimidad reemplaza la evaluación realista de alternativas.

Los 8 síntomas revisitados: Ilusión de invulnerabilidad, creencias inquebrantables, racionalización, estereotipos del enemigo, presión directa sobre disidentes, auto-censura, ilusión de unanimidad, presión sobre disidentes.

Casos estudiados por Janis:

  • Bahía de Cochinos: Grupo cohesivo de asesores de Kennedy, sin cuestionamiento externo, resultó en invasión desastrosa.
  • Crisis de los Misiles Cubanos: Kennedy aprendió. Invitó disidencia, consultó externos, salió bien.
  • Decisión de escalada en Vietnam: Grupo de funcionarios, presión de tiempo (enemigo está en la puerta), resultó en guerra costosa basada en premisas incorrectas.
  • Desastre del Challenger (1986): Ingenieros de Thiokol sabían de riesgos en O-rings a temperaturas bajas. Presión de lanzamiento inmediato, groupthink en la sala, la advertencia fue ignorada. El Challenger explotó.

Prevención de groupthink: Janis propone: líderes deben pedir explícitamente crítica, designar "abogados del diablo," consultar expertos externos, permitir que el grupo se separe en subgrupos que luego comparan conclusiones.

Sunstein, Cass (2006 & 2017) — "Infotopia" & "#Republic"

Infotopia (2006): Cómo grupos online resuelven problemas colectivos
#Republic (2017): Cómo internet fragmenta deliberación democrática

En Infotopia: Sunstein desarrolla el concepto de cascadas informacionales y reputacionales, dando evidencia empírica de cómo internet puede amplificar ambas. Muestra que comunidades online (Reddit, Wikipedia) logran agregación inteligente a menudo, pero también puede producir "echo chambers" donde disidencia es eliminada.

En #Republic: Publicado después de Trump 2016 y Brexit, Sunstein reflexiona sobre polarización política en plataformas sociales. Su tema: cuando cada persona puede elegir exactamente qué información consumir (personalización algorítmica), tendemos a evitar información que contradice nuestras creencias. El resultado: grupos se polarizan hacia extremos.

Conexión con inteligencia colectiva: Los sistemas que construimos (algoritmos, arquitectura de plataformas) pueden facilitar u obstaculizar inteligencia colectiva. Si un algoritmo amplifica contenido emotivo (polarizante), reduce diversidad. Si rewards disidencia constructiva, mejora.

Hayek, Friedrich A. (1945) — "The Use of Knowledge in Society"

Publicado en: American Economic Review, vol. 35, no. 4, pp. 519-530
Tema: Cómo precios descentralizados agreguen información dispersa

El argumento central: En una economía compleja, nadie tiene información completa. El carpintero no sabe de sequías en Malasia. El minero de cobre no sabe de cambios en demanda de electricidad. Pero los precios comunican. Si hay sequía en Malasia, el precio del cobre sube (menos oferta). Sin que alguien ordene, los carpinteros usan menos cobre, exploradores buscan más cobre. La información se dispersa a través de precios, no órdenes centrales.

Implicación para inteligencia colectiva: Los mercados (y sistemas de precios) son un mecanismo de agregación descentralizado. Cada agente responde a información local, y el resultado global es informado, aunque nadie estuviera a cargo. Hayek argumenta que planificación central (un comité deciden todo) nunca puede lograr esto; la información es demasiada para una mente.

Este es quizás el argumento teórico más fundamental a favor de descentralización en inteligencia colectiva.

Tversky & Kahneman (1974) — "Judgment Under Uncertainty: Heuristics and Biases"

Publicado en: Science, vol. 185, issue 4157, pp. 1124-1131
Tema: Cómo personas juzgan probabilidades, sistémicamente.

Tres heurísticas principales:

  • Representatividad: Juzgas la probabilidad de un evento por cuánto "parece" al resultado típico. Ej: "Linda es tímida, organizada. ¿Más probable que sea bibliotecaria o que sea abogada?" Más personas dicen "bibliotecaria" porque se ajusta al estereotipo, aunque hay más abogados que bibliotecarios en la población.
  • Disponibilidad: Juzgas la probabilidad de un evento por cuán fácil es recordar instancias. Ejemplo: después de ver un avión que se cae en noticias, juzgas volar como más peligroso, aunque estadísticamente es muy seguro (amplificado por media).
  • Anclaje: Tu juicio es sesgado por números mencionados previamente, incluso si esos números son irrelevantes o aleatorios.

Implicación para inteligencia colectiva: Estos sesgos son sistemáticos. Si afectan a una persona, a menudo afectan a muchas (si todas usan la heurística de representatividad, todas estarán sesgadas de la misma manera). En un grupo donde todos cometen el mismo error, la agregación no cancela el sesgo; lo amplifica.

Parte 5: Conexiones con el resto del curso

La inteligencia colectiva no existe en aislamiento. Se conecta profundamente con los temas de Machine Learning (Bloque 2) e Inteligencia Híbrida (Bloque 3). Esta sección traza esos puentes.

IC ↔ ML: Ensemble Methods y Diversidad

Analogía directa: Random Forest es inteligencia colectiva de máquinas. Cada árbol es un "agente" débil. No es independiente (todos ven datos correlacionados), pero son diversos (características aleatorias, muestras bootstrap). Agregados, producen una predicción fuerte.

El theorem subyacente es exactamente Page's Diversity Prediction Theorem. Si tus árboles fueran idénticos, su error agregado sería tan alto como uno solo. Pero si son diversos, sus errores se cancelan.

Conexión más profunda: El bias-varianza tradeoff (Bloque 2) es un resultado sobre cómo errors se agregan. Un modelo simple tiene alto bias pero bajo varianza. Un modelo complejo tiene bajo bias pero alto varianza. Bagging reduce varianza sin aumentar bias, porque combina múltiples modelos diversos. Esto es inteligencia colectiva en IA.

IC ↔ Hybrid Intelligence: El rol del AI como ancla informativa

En Bloque 3, estudiaremos sistemas donde humanos y AI colaboran. La inteligencia colectiva es central aquí:

  • ¿Cómo de buenos son los humanos cuando un sistema de AI les sugiere una respuesta? Depende de si mantienen independencia cognitiva. Si copian ciegamente ("el sistema dijo A, confío en el sistema"), es una cascada informacional. Si cuestionan ("el sistema dijo A, pero yo siento que podría estar equivocado"), mantienen diversidad.
  • ¿Cuándo es mejor dejar que el AI decida solo vs. cuando human-in-the-loop? Si el problema tiene sesgos históricos (dataset basto con sesgo algorítmico), un humano diverso puede detectarlos. Si el problema es puramente técnico y el AI es experto, el human puede ser un "ancla" (anclaje sesgando la decisión).
  • El Cohumain framework (Gupta et al., 2025): Trata de formalizar: cuándo un group humano + AI es mejor que ambos solos. La respuesta depende de si el grupo mantiene las condiciones de Surowiecki.

IC ↔ Complexity: Emergencia y autoorganización

La inteligencia colectiva es un ejemplo de emergencia en sistemas complejos. Ningún individuo "sabe" la respuesta final. Pero reglas locales simples (cada persona expresa su opinión, otros escuchan, se agrega) generan un comportamiento global inteligente. Esto es complejidad.

Sistemas biológicos lo hacen constantemente: una colonia de hormigas resuelve el "problema del viajante" (ruta óptima) sin que ninguna hormiga entienda optimización. Las hormigas solo depositan feromonas localmente. Emergencia.

En Bloques 4–7, veremos que complejidad, redes, y sistemas adaptivos son marcos que unifican IC, ML, y gobernanza.

Tabla de analogías entre bloques

Concepto Bloque 1: IC Bloque 2: ML Bloque 3: Hybrid
Diversidad Perspectivas diferentes Features aleatorias, muestras diferentes Humano + AI tienen capacidades complementarias
Independencia No cascadas, voto privado primero Features no colineales, datos no muy correlacionados Humano no sigue ciegamente AI; AI no se entrena solo en labels humanos
Agregación Votación, promedio, Delphi Ensemble voting, weighted average, stacking Cómo humans interpretan output de AI; cómo deciden
Error systemático Anchoring, groupthink, cascadas Sesgo algorítmico, overfitting, correlaciones falsas Humans confían demasiado en AI (automation bias); AI imita biases humanos

Parte 6: Recursos y lecturas recomendadas

Libros fundamentales

Para leer primero (accesibles, fundamentales):
  • The Wisdom of Crowds, James Surowiecki (2004) — populador, casos reales, sin matemáticas pesadas
  • Infotopia, Cass Sunstein (2006) — más técnico que Surowiecki, más sobre fallas
  • Weapons of Math Destruction, Cathy O'Neil (2016) — sobre sesgo algorítmico, relevante para Bloque 2 pero escrito con inteligencia colectiva en mente
Para profundizar (más técnicos):
  • The Difference: How the Power of Diversity Drives Innovation, Scott E. Page (2007) — matemáticas accesibles, teoremas formales sobre diversidad
  • Victims of Groupthink, Irving Janis (1972) — casos de gobierno, análisis profundo
  • #Republic, Cass Sunstein (2017) — polarización, democracia, inteligencia colectiva en el siglo XXI

Papers académicos clave (con enlace a ArXiv donde sea posible)

Cascadas informacionales:
Bikhchandani, S., Hirshleifer, D., & Welch, I. (1992). "A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascades." Journal of Political Economy, 100(5), 992-1026.
https://www.jstor.org/stable/2138632
Factor c (Collective Intelligence):
Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). "Evidence for a Collective Intelligence Factor in the Performance of Human Groups." Science, 330(6004), 686-688.
https://science.sciencemag.org/content/330/6004/686
Diversidad en predicción:
Page, S. E. (2008). "Diversity and Complexity." Princeton University Press. (Capítulo sobre Diversity Prediction Theorem)
Nota: "The Difference" es la versión más popular y accesible.
Hayek y el problema de la información dispersa:
Hayek, F. A. (1945). "The Use of Knowledge in Society." American Economic Review, 35(4), 519-530.
https://www.jstor.org/stable/1809376
Arrow's Impossibility:
Arrow, K. J. (1951). Social Choice and Individual Values. Cowles Commission for Research in Economics (Yale University Press).
Nota: El libro es técnico. Para una introducción accesible, ver "The Handbook of Social Choice & Welfare" (2002), Arrow capítulo.
Heurísticas y sesgos en juicio:
Tversky, A., & Kahneman, D. (1974). "Judgment Under Uncertainty: Heuristics and Biases." Science, 185(4157), 1124-1131.
https://science.sciencemag.org/content/185/4157/1124
Asch conformity (experimento):
Asch, S. E. (1951). "Effects of Group Pressure upon the Modification and Distortion of Judgments." Groups, Leadership, and Men. (Carnegie Press)
Nota: Paper original es difícil de encontrar. La mayoría de psicología textbooks resumen.
Groupthink:
Janis, I. L. (1972). Victims of Groupthink. Houghton Mifflin. (Libro, no paper)
Nota: Seminal pero anecdótico. Para crítica moderna, ver Sunstein (2006).

Videos educativos

  • Surowiecki TED Talk (2005): "The Wisdom of Crowds." Duración: 20 min. Introducción accesible. (Buscar en TED.com)
  • Woolley CMU Video (2010): Resumen del estudio Factor c. Duración: 10 min. Disponible en CMU website o YouTube.
  • Pescetelli SAGE Video (2021): "Collective Adaptation." Breve overture a inteligencia híbrida humano-AI. (Buscar en SAGE Campus o YouTube)
  • Sunstein sobre polarización: Varias charlas en universitarias. Buscar "Cass Sunstein polarization" en YouTube.

Herramientas interactivas

  • Experiment online sobre cascadas: Algunos laboratorios de economía tienen versiones online del experimento de cascadas informacionales. Útil para experimentar de primera mano.
  • Prediction markets simuladas: PredictionBook.com permite crear predicciones y ver agregación colectiva de probabilidades.
  • Wikipedia como caso de estudio: Revisar el historial de ediciones de un artículo controvertido (ej: COVID-19, cambio climático) para ver cómo agregación de ediciones lleva a artículos neutrales.

Investigadores modernos en LIS (Learning In Society)

Si quieres profundizar, estos investigadores en MIT y otros centros están trabajando en temas de inteligencia colectiva aplicada, híbrida, y en sistemas complejos:

  • Nicola Pescetelli — Universidad de Siena. Papers sobre adaptación colectiva, inteligencia híbrida humano-IA, BeeMe experiment. Google Scholar: "Pescetelli collective."
  • David Lazer — Northeastern. Network science, opinión pública, fake news. Google Scholar: "Lazer collective intelligence."
  • Anita Woolley — Carnegie Mellon. Continuous work on collective intelligence in teams, virtual collaboration. Google Scholar: "Woolley collective intelligence."
  • Thomas Malone — MIT Media Lab / Sloan. Collective intelligence, crowdsourcing, "The Future of Work." Google Scholar: "Malone collective intelligence."
  • Cass Sunstein — Harvard Law. Group polarization, group deliberation, choice architecture.
  • Simon Kenny — Luiss University (Roma). Filosofía aplicada, we-mode reasoning, toma de decisión colectiva. Google Scholar: "Kenny collective reasoning."

Preguntas guía para tu lectura personal

A medida que lees, mantén estas preguntas en mente:

  1. ¿En qué contextos específicos la inteligencia colectiva supera a expertos? ¿Cuándo falla?
  2. ¿Cómo distingo independencia de diversidad? ¿Por qué importa la diferencia?
  3. ¿Cuál es el rol del feedback en mantener cascadas vs. corregirse? (Ej: si los primeros 10 votos son por A, pero la realidad es B, ¿en qué punto se revierte la cascada?)
  4. ¿Cómo debería diseñar una institución para maximizar la inteligencia colectiva y minimizar groupthink?
  5. ¿Qué supone Condorcet que a menudo se viola en práctica?
  6. ¿Cómo se aplica inteligencia colectiva a problemas donde no hay "verdad" objetiva (ej: qué arte es bello)?

Conexión con ejercicios prácticos

En las unidades 1.1 — 1.3, harás ejercicios prácticos:

  • Unidad 1.1: Simulación de las 4 condiciones. Ajusta parámetros (independencia, diversidad) y ve cómo cambia el desempeño grupal.
  • Unidad 1.2: Cascada informacional. Observa cómo los primeros votos sesgan a los siguientes, incluso cuando la información privada dice lo contrario.
  • Unidad 1.3: Comparación de arquitecturas. Mismo dataset, diferentes mecanismos (mayoría, Delphi, mercado). ¿Cuál da el resultado "mejor"?

Mientras haces los ejercicios, referencia este texto. Por ejemplo: "¿Por qué el sistema de Delphi es más robusto? Porque mantiene la independencia en ronda 1, mientras que agregación de mercado puede tener anclaje."

Conclusión

La inteligencia colectiva no es magia. Es un conjunto de condiciones bien entendidas: independencia, diversidad, descentralización, agregación. Cuando se cumplen, los grupos superan a individuos. Cuando se violan, los grupos se convierten en fuerzas de conformidad destructiva.

Lo importante es que estas condiciones son designables. Un arquitecto institucional (legislador, CEO, facilitador de grupo) puede elegir mecanismos que las sostengan o las sabotean. La democracia liberal, los mercados, los ensayos de pares, Wikipedia: todas son arquitecturas que (imperfectamente) tratan de mantener independencia y diversidad mientras agregan información.

En los bloques siguientes, veremos cómo IA puede reforzar o debilitar la inteligencia colectiva. Si usamos IA para automatizar decisiones sin input diverso, perdemos inteligencia. Si usamos IA para amplificar voces diversas (acercando información a puntos de decisión), ganamos.

Ahora tienes las bases teóricas. Los ejercicios interactivos te permitirán manipular estos conceptos y intuir cómo funcionan en práctica. Adelante.