GDPR, consentimiento informado, anonimización, plagio vs asistencia con IA, políticas editoriales, Umberto Eco y la responsabilidad del investigador.
Si trabajas con datos personales (entrevistas, encuestas con identificadores), el Reglamento General de Protección de Datos (GDPR) se aplica, incluso si no trabajas en Europa (si tus datos pasan por servidores europeos).
Cuando reclutes participantes, debes decirles: «Tus datos serán analizados por software de inteligencia artificial». No basta decir «software». Sé explícito. Algunos participantes querrán optar por no participar en análisis con IA. Respeta eso.
Remover nombres no es suficiente. El contexto puede re-identificar. Si tu entrevistado dijo «Soy directora de 10 personas en una empresa de 50 en una ciudad de 100.000», puedes identificarla. La anonimización real requiere sanitización profunda.
Claude o GPT pueden ayudarte a detectar identificadores. Pide: «Dame los fragmentos que podrían re-identificar al participante». Pero verifica: a veces la IA deja cosas pasar.
Plagio: Copiar texto de otros sin citar, haciéndolo pasar por tuyo.
Asistencia con IA: Usas IA para ayudarte a escribir mejor, pero el argumento, la estructura, la idea son tuyas.
La línea se vuelve borrosa cuando la IA genera párrafos enteros. ¿Dónde termina la asistencia y comienza el plagio?
Si puedes señalar dónde está el aporte intelectual tuyo, no es plagio. Si la IA escribió y tú solo copia-pegaste sin cambios significativos, sí es plagio (aunque sea de un algoritmo).
Ejemplo:
Requieren disclosure explícito de IA generativa. Si usaste ChatGPT, Claude, Gemini o similar, debes decirlo. Están revisando métodos de detección. Mejor: sé honesto desde el principio.
Permite IA como herramienta de análisis, pero no como generadora de argumentos científicos. Puedes usar IA para codificar. No para redactar hipótesis.
No tienen política única a nivel de base de datos. Cada revista define. Tu responsabilidad: antes de enviar, revisa la política editorial específica.
Muchas revistas ahora requieren una sección de «Declaración de disponibilidad de IA» o similar. Aquí está el modelo:
Nota: Adapta este modelo a tu contexto específico. No plagies el template; úsalo como estructura.
Eco escribió que el acto de investigar es un acto de responsabilidad. No es solo técnica. Requiere:
La IA no cambia estos principios. Los amplifica. Porque si ocultas que usaste IA, ocultas el método. Y si ocultas el método, tu investigación no es verificable.
¿Cuál es tu responsabilidad ética hacia los participantes que compartieron sus historias contigo?