8.1
Unidad 8.1 · Semanas 79–82

Definición del problema

Seleccionar y enmarcar un problema de investigación genuinamente complejo que integre inteligencia colectiva, IA, hibridez humano-IA, y pensamiento sistémico.

Sesión A — Elegir un problema de investigación

El primer paso de cualquier investigación es elegir bien la pregunta. Muchos proyectos fracasan no porque la ejecución fue mala, sino porque la pregunta era débil: demasiado vaga, demasiado simple, o poco importante. Una pregunta de investigación fuerte es aquella que es genuinamente compleja (no meramente complicada), interdisciplinaria (requiere múltiples lentes para entender), y tratable (puedes decir algo significativo sobre ella en 12 semanas).

La clave es entender la diferencia entre un tema ("inteligencia artificial"), un problema ("los algoritmos de recomendación sesgados perpetúan desigualdad"), y una pregunta de investigación ("¿Bajo qué condiciones la introducción de transparencia de mecanismos en sistemas de recomendación reduce el sesgo observado sin sacrificar precisión?"). La pregunta es específica, observable, y respondible.

Los mejores capstones exploran lo que Horst Rittel y Melvin Webber llamaron "wicked problems": problemas sin solución clara y única, donde las causas son multicausales y entrelazadas. Wicked problems requieren precisamente la integración de múltiples lentes: no puedes entender por qué Wikipedia tiene problemas de sesgo solo mirando ML (Bloque 2)—tienes que entender dinámica de grupos (Bloque 1), incentivos híbridos humano-máquina (Bloque 3), y loops sistémicos (Bloque 4). Esta es la razón por la que la estructura del capstone es integradora.

Sesión B — Práctica

Sesión B — Práctica: Evaluación multidimensional de problemas

No todos los problemas son igualmente buenos para un capstone. Necesitas evaluar tu problema candidato contra cinco criterios: (1) Complejidad genuina—¿es multicausal o meramente complicado? (2) Interdisciplinariedad—¿toca múltiples bloques del curso? (3) Disponibilidad de datos—¿puedes encontrar casos, papers, o datos reales? (4) Relevancia personal—¿te importa realmente? (5) Tractabilidad—¿puedes investigarlo significativamente en 12 semanas?

En la visualización a la derecha, usa el filtro interactivo de problemas. Introduce tu idea de problema. El sistema te preguntará por cada criterio (usa sliders 0-100). Al final, recibirás una puntuación de viabilidad y recomendaciones. Una puntuación >70 es sólida. <50 significa que necesitas refinar tu pregunta. Esta no es una evaluación definitiva—es un entrenamiento de pensamiento.

Sesión C — Evaluación

Sesión C — Evaluación de dominio

Dominaste este concepto si:

Quiz de evaluación

Responde correctamente 3 de 4 preguntas (75% mínimo).

Contexto histórico

La evolución de la investigación interdisciplinaria

Hasta el siglo XX, la investigación académica estaba profundamente disciplinaria. Un físico estudiaba física. Un historiador estudiaba historia. Las disciplinas eran torres separadas, con poco diálogo. La idea era que la profundidad dentro de una disciplina era lo que importaba.

Pero a mediados del siglo XX, algunos científicos notaron que los problemas reales del mundo no respetaban fronteras disciplinarias. En 1968, la MIT Limits to Growth study usó dinámica de sistemas (Dennis Meadows, Jay Forrester) para modelar el crecimiento económico, recursos, contaminación. No era meramente economía, ecología, o ingeniería—era todo junto. El trabajo fue revolucionario porque demostró que una pregunta como "¿cuánto puede crecer la economía?" requiere ver a la vez variables físicas (recursos), sociales (desigualdad), y tecnológicas (eficiencia). Una disciplina sola no podía responder.

En 1969, la Universidad de California en San Diego creó el primer programa oficial de "Estudios Sistémicos" o Pensamiento Sistémico (Kenneth Boulding, Ludwig von Bertalanffy). La visión era clara: el futuro de la investigación no era profundidad dentro de silos, sino integración across silos.

En 1994, un grupo de investigadores británicos (Michael Gibbons, Camille Limoges, Helga Nowotny, et al.) publicó "The New Production of Knowledge", que acuñó el término "Mode 2" knowledge production. Mode 1 es el modelo disciplinario tradicional (preguntas originadas dentro de la disciplina). Mode 2 es knowledge production in the context of application—preguntas originadas en problemas reales del mundo, requieren colaboración transdisciplinaria, y se validan no solo por pares académicos sino por impacto en el mundo.

El Mode 2 cambió cómo se financia la investigación. Agencias como el Engineering and Physical Sciences Research Council (EPSRC) del Reino Unido empezaron a premiar propuestas que explícitamente integraban múltiples disciplinas. Stanford, MIT, y Oxford abrieron centros interdisciplinarios. Surgió la Innovation Science, Complexity Science, Digital Humanities.

Hoy, los problemas más urgentes del siglo XXI—cambio climático, desigualdad de IA, pandemias, conflictos geopolíticos—son irremediablemente interdisciplinarios. No puedes entender por qué los algoritmos de reconocimiento facial fallan en mujeres oscuras (Buolamwini, Gebru 2018) sin mirar a la vez: ciencia de datos (sesgo en training), psicología (expectativas sobre "normalidad"), historia (racismo), economía (incentivos de mercado). Esto es Mode 2 puro.

En 2018, se fundó la London Interdisciplinary School (LIS) con exactamente esta filosofía: pregunta-first, no disciplina-first. El currículo de LIS empieza con un problema real (ej: "¿cómo reducir violencia urbana?") y te enseña a traer herramientas de psicología, sociología, data science, urbanismo, historia—lo que necesites para entender el problema. Este programa que estás completando está inspirado en esa visión.

El capstone de tu programa es, en esencia, tu primer proyecto en Mode 2 knowledge. Es decir: tu pregunta surge de algo que te importa en el mundo real, requiere múltiples lentes para entender, y espera que produzcas algo de valor tanto intelectualmente como prácticamente.

Teoría profunda

Formulación de preguntas de investigación en sistemas complejos

Complejidad vs. Complicación: Rittel y Webber (1973) introdujeron la distinción entre "tame problems" (problemas domesticados) y "wicked problems." Un tame problem tiene una solución correcta única (ej: ecuación matemática). Un wicked problem tiene múltiples soluciones plausibles, ninguna "correcta," y las causas están entrelazadas (ej: cómo reducir la pobreza). La complejidad emerge de: (1) múltiples actores con objetivos diferentes, (2) feedback loops que amplifican o amortiguan cambios, (3) incertidumbre irreducible, (4) imposibilidad de experimentación libre (no puedes hacer A/B testing de políticas nacionales).

La pregunta vs. el tema: Un tema es un área (ej: "algoritmos de recomendación"). Un problema es una brecha específica (ej: "los algoritmos de recomendación de YouTube amplifican contenido polarizado"). Una pregunta es una indagación precisa y respaldable (ej: "¿Qué características de la función objetivo de YouTube contribuyen más a la amplificación de contenido polarizado, y cómo podrían rediseñarse sin reducir engagement?"). La diferencia es que la pregunta es respondible—puedes presentar evidencia a favor o en contra.

Los cinco criterios de viabilidad:

Reasoning abductivo (Peirce, 1903): En investigación exploratoria, no razonas solo deductivamente (silogismos) ni inductivamente (generalización de casos). Razones abductivamente: observas un fenómeno sorprendente, generas una hipótesis que lo explicaría, y buscas evidencia para validarla. Ej: "Observación: Usuarios de Facebook son más polarizados que usuarios de Wikipedia. Hipótesis explicativa: El algoritmo de recomendación de Facebook optimiza engagement mientras Wikipedia no. Investigación: ¿Qué evidencia soporta esta hipótesis?"

Cynefin Framework (Snowden, 1999): Para diagnosticar qué tipo de pregunta tienes:

Operacionalización: Una vez tienes tu pregunta, necesitas hacerla observable. "¿Qué es la desigualdad de IA?" es vago. "¿Cuál es la diferencia de tasa de error entre grupos demográficos en un sistema de clasificación de crédito?" es observable. Operacionalización significa: definir tus variables (¿cómo mides X?), especificar tu población (¿a quién aplica?), y establecer tu threshold (¿qué cuenta como éxito?).

Cómo estudiar el material

Guía práctica para formular tu pregunta de capstone

Paso 1: Brainstorm de problemas (1-2 horas)

Anota 10-15 problemas que te interesen. No filtres. Pueden ser profesionales, personales, sociales, técnicos. Ej: "¿por qué mi equipo toma malas decisiones en las reuniones?", "¿por qué los algoritmos de reclutamiento discriminan?", "¿cómo podría Wikipedia reducir sesgo de género?", "¿por qué los sistemas de salud fallan en triaje?" Escribe 2-3 frases sobre cada uno.

Paso 2: Mapeo inicial por bloques (30 min)

Para cada problema, pregúntate: ¿Qué bloques son relevantes? Ej: "decisiones de equipo" toca Bloque 1 (inteligencia colectiva), Bloque 3 (confianza/colaboración), Bloque 4 (complejidad). Haz un checkmark. Si un problema toca <3 bloques, descartalo probablemente. Si toca los 4, es ideal para capstone.

Paso 3: Búsqueda rápida (2-3 horas)

Para tus 3-4 problemas finales, haz búsquedas rápidas de Google Scholar, Wikipedia, libros académicos. ¿Hay investigación sobre esto? ¿Hay casos documentados? ¿Hay datos públicos? Si no encuentras nada, el problema es demasiado oscuro. Si encuentras 100+ papers, es probablemente demasiado amplio para 12 semanas.

Paso 4: Formulación de pregunta de investigación (2-3 horas)

Para tu problema favorito, escribe 5 versiones de la pregunta, del más vago al más específico. Ej:

Detente en el nivel que sea respaldable en 12 semanas. La últimas es demasiado específica (requiere experimentos nuevos). La tercera es probablemente correcta.

Paso 5: Evaluación y refinamiento (1 hora)

Usa el filtro interactivo de esta sesión. Califica tu problema en los 5 criterios. Si un criterio es <50, refina. Ej: Si "disponibilidad de datos" es baja, quizás necesitas cambiar a un problema que tenga papers publicados. Si "tractabilidad" es baja, necesitas acotar tu pregunta más.

Paso 6: Consulta con mentor/pares (1-2 horas)

Comparte tu pregunta provisional con alguien más. ¿Suena clara? ¿Suena importante? ¿Te falta algo? Las mejores preguntas emergen del diálogo.

Recursos de referencia:

Ejercicio expandido

Tres ejercicios de definición de problema

Ejercicio 1: Mapeo Bloque-a-Bloque de un Problema Real

Problema de ejemplo: "La aplicación de triaje de emergencia de un hospital comete errores que resultan en muertes evitables."

Mapeo:

Ejercicio 2: De Tema a Pregunta Investigable

Tema: "Wikipedia y sesgo."

Transformación:

¿Por qué es investigable? Porque puedes: (1) revisar literatura sobre editores de Wikipedia, (2) analizar datos públicos de Wikipedia (quién edita qué), (3) revisar papers sobre bias en crowdsourcing, (4) proponer cambios de diseño y argumentar por qué reducirían sesgo. Toda de esto es factible en 12 semanas.

Ejercicio 3: Desafío de Tractabilidad

Tres preguntas. Califica cada una como "Too Broad" (demasiado amplia para 12 semanas), "Right Scope" (tamaño correcto), o "Too Narrow" (demasiado estrecha):

Tarea: Toma uno de tus problemas candidatos. Evalúalo con estos tres ejercicios. Si no pasas el Ejercicio 1 (no toca 3+ bloques), descártalo. Si Ejercicio 2 no produce una pregunta clara, reformúlalo. Si Ejercicio 3 dice "Too Broad" o "Too Narrow," ajusta alcance.