03
Fase 1 · Fundamentos · Semanas 25–30

Inteligencia Híbrida

¿Qué ocurre cuando el juicio humano y la IA convergen en un mismo sistema de decisión — y cómo diseñamos esa convergencia para que funcione?

Duración6 semanas
Unidades2 unidades · 6 sesiones
PrerrequisitosBloques 1 y 2
Progreso

Este bloque es la síntesis: combina lo que aprendiste sobre inteligencia colectiva (Bloque 1) y machine learning (Bloque 2) para entender cómo diseñar sistemas donde humanos e IA tomen decisiones juntos. El problema central no es técnico — es de diseño: ¿quién decide primero? ¿Cuánta autonomía tiene cada parte? ¿Cómo preservamos independencia sin perder las ventajas de la IA?

Lecturas fundamentales del bloque

Pescetelli (2021) "A Brief Taxonomy of Hybrid Intelligence" · Woolley (2025) "Generative AI and collaboration" · Gupta et al. (2025) "COHUMAIN" · Rudin (2019) "Stop Explaining Black Box Models" · Riedl et al. (2025) "Potential and challenges of AI for collective intelligence"

Texto teórico completo

Toda la teoría del bloque en un solo documento — taxonomía híbrida, anclaje algorítmico, COHUMAIN, explicabilidad, gobernanza: Texto Teórico Completo del Bloque 3.

Unidades del bloque

Unidad 3.1 · Semanas 25–27
Independencia vs. conformidad en sistemas híbridos
3 sesiones · Teoría + Competencia + Quiz
Si la IA opina primero, ¿los humanos se anclan a su respuesta? Si los humanos opinan primero, ¿la IA corrige o amplifica sus sesgos? Orden de decisión, anclaje, y el diseño del flujo humano-máquina.
Comenzar unidad →
Unidad 3.2 · Semanas 28–30
Gobernanza, explicabilidad y confianza
3 sesiones · Teoría + Árbol decisión + Quiz
¿Debemos exigir que la IA explique sus decisiones? ¿O basta con que sean interpretables desde el diseño? Gobernanza de sistemas híbridos, confianza calibrada, y el marco COHUMAIN para evaluar equipos humano-IA.
Comenzar unidad →