Inteligencia Artificial14 min de lectura

Cómo elaborar la EIPD para sistemas de inteligencia artificial

Equipo Confidata·
Compartir

La Evaluación de Impacto en la Protección de Datos (EIPD) es una de las herramientas más importantes del arsenal de cumplimiento — y una de las más relevantes cuando el tema es la inteligencia artificial. Los sistemas de IA que procesan datos personales a gran escala, toman decisiones automatizadas o utilizan datos sensibles frecuentemente activan el deber de elaborar la EIPD antes de la implementación.

Esta guía explica cuándo la EIPD es obligatoria para sistemas de IA y cómo estructurarla considerando las características específicas de estas tecnologías.


Qué es la EIPD y dónde está regulada en la Ley 21.719

La Ley 21.719 establece la obligación de elaborar una Evaluación de Impacto en la Protección de Datos cuando el tratamiento de datos personales pueda presentar un alto riesgo para los derechos y libertades de los titulares. La EIPD es una documentación estructurada que describe los procesos de tratamiento, los riesgos identificados y las medidas adoptadas para mitigarlos.

La APDP puede solicitar la EIPD al responsable cuando el tratamiento sea susceptible de generar riesgos para los derechos y libertades de los titulares. La EIPD es, por tanto, siempre relevante — pero hay escenarios en que su elaboración proactiva es obligatoria sin necesidad de solicitud de la autoridad.


Cuándo los sistemas de IA exigen EIPD

No todos los sistemas de IA exigen EIPD — pero muchos sí. Los desencadenantes más relevantes:

Desencadenante 1: Decisiones automatizadas que afectan a titulares

Cualquier sistema de IA que tome o apoye decisiones automatizadas que afecten los intereses de los titulares — aprobación de crédito, selección de candidatos, cálculo de riesgo, determinación de precios diferenciados — involucra alto riesgo para los derechos y casi siempre requiere EIPD. El artículo 8° bis de la Ley 21.719 establece derechos específicos de los titulares frente a decisiones individuales automatizadas, incluyendo el derecho a solicitar revisión humana y a obtener información sobre la lógica aplicada.

Desencadenante 2: Tratamiento a gran escala

Los sistemas de IA que procesan datos personales de grandes poblaciones — algoritmos de recomendación, análisis del comportamiento a escala, sistemas de análisis de sentimientos en datos de clientes — operan a gran escala y activan el deber de EIPD.

Desencadenante 3: Datos sensibles

Cualquier tratamiento de datos sensibles (salud, biometría, origen racial o étnico, opiniones políticas, creencias religiosas, orientación sexual) con sistemas de IA, incluso en escala limitada, exige evaluación cuidadosa documentada en EIPD. El riesgo de daño es estructuralmente mayor con datos sensibles.

Desencadenante 4: Tecnologías innovadoras

Los sistemas que utilizan enfoques nuevos — reconocimiento facial a gran escala, análisis de emociones, perfilamiento conductual con múltiples fuentes de datos — involucran riesgos que pueden no ser completamente conocidos en el momento de la implementación. La EIPD documenta los riesgos identificados y las medidas de mitigación adoptadas.

Desencadenante 5: Vigilancia sistemática

La IA usada para vigilar sistemáticamente a trabajadores (análisis de productividad, detección de comportamientos, monitoreo de acceso) o espacios (videovigilancia con análisis de IA) requiere EIPD.


Estructura de la EIPD para sistemas de IA

Una EIPD para sistemas de IA tiene los elementos comunes a cualquier EIPD, más elementos específicos de la tecnología.

Sección 1: Descripción del sistema y del tratamiento

Elementos generales:

  • Nombre y descripción funcional del sistema
  • Finalidad del sistema y del tratamiento de datos
  • Base de licitud (fundamento legal aplicable)
  • Categorías de datos utilizados (input) y generados (output)
  • Titulares afectados y volumen estimado
  • Ciclo de vida de los datos (retención, eliminación)

Elementos específicos para IA:

  • Tipo de modelo (machine learning supervisado/no supervisado, deep learning, LLM, IA generativa, etc.)
  • Cómo fue o será entrenado el modelo (origen de los datos de entrenamiento, metodología)
  • Si se usaron o usarán datos personales en el entrenamiento — y con qué base de licitud
  • Frecuencia de reentrenamiento del modelo
  • Proveedor (desarrollo interno, software de tercero, modelo de lenguaje de tercero con fine-tuning)

Sección 2: Necesidad y proporcionalidad

Evaluación de que el tratamiento es necesario y proporcional a la finalidad:

  • ¿Por qué es necesario usar datos personales para esa finalidad? ¿No sería posible con datos anonimizados o seudoanonimizados?
  • ¿El volumen y el tipo de datos utilizados son los mínimos necesarios (principio de proporcionalidad y minimización)?
  • ¿Los datos utilizados en el entrenamiento tenían base de licitud adecuada para ese uso específico?
  • ¿Existen alternativas menos invasivas a la privacidad que satisfagan la misma finalidad?

Sección 3: Identificación y evaluación de riesgos

Esta es la sección central de la EIPD para IA.

Riesgos generales de privacidad:

RiesgoProbabilidadImpactoSeveridad
Acceso no autorizado a los datos de inputA/M/BA/M/BAlta/Media/Baja
Filtración de los datos de entrenamientoA/M/BA/M/BAlta/Media/Baja
Re-identificación a partir de los outputs del modeloA/M/BA/M/BAlta/Media/Baja
Uso de los datos para una finalidad diferente a la declaradaA/M/BA/M/BAlta/Media/Baja

Riesgos específicos de IA:

RiesgoProbabilidadImpactoSeveridad
Sesgo algorítmico que resulta en discriminaciónA/M/BA/M/BAlta/Media/Baja
Decisión automatizada incorrecta con impacto severoA/M/BA/M/BAlta/Media/Baja
Opacidad: incapacidad de explicar la decisión al titularA/M/BA/M/BAlta/Media/Baja
Deriva del modelo (model drift) con degradación no detectadaA/M/BA/M/BAlta/Media/Baja
Memorización de datos personales en el modelo (riesgo de extracción)A/M/BA/M/BAlta/Media/Baja
Alucinación con datos personales (para modelos generativos)A/M/BA/M/BAlta/Media/Baja

Sección 4: Medidas de mitigación

Para cada riesgo de severidad alta o media, documentar las medidas adoptadas:

Medidas técnicas:

  • Controles de acceso al sistema y a los datos
  • Cifrado de datos en reposo y en tránsito
  • Técnicas de privacidad en el entrenamiento (differential privacy, federated learning, donde aplique)
  • Técnicas de explicabilidad (LIME, SHAP, modelos interpretables)
  • Monitoreo del sesgo por grupos protegidos
  • Pruebas de robustez adversarial

Medidas organizacionales:

  • Proceso de revisión humana para decisiones de alto impacto (derecho del titular a solicitar revisión humana, conforme a la Ley 21.719)
  • Canal para solicitud de revisión por parte del titular
  • Capacitación del equipo sobre el sistema y sus limitaciones
  • Proceso de gestión de incidentes relacionados con el sistema
  • Revisión periódica del modelo y de sus métricas

Sección 5: Mecanismo de revisión de la EIPD

La EIPD para sistemas de IA no es estática — debe revisarse:

  • Cuando el modelo es significativamente reentrenado o modificado
  • Cuando el alcance de uso se amplía
  • Cuando incidentes revelan riesgos no previstos
  • Periódicamente (recomendación: al menos anualmente para sistemas de alto riesgo)

El riesgo de sesgo: documentación específica en la EIPD

El riesgo de sesgo algorítmico merece atención especial. El sesgo en sistemas de IA puede resultar en violación del principio de no discriminación de la Ley 21.719 y generar responsabilidad jurídica. La EIPD debe documentar:

  • Qué grupos protegidos fueron evaluados (género, origen étnico, edad, condición socioeconómica, etc.)
  • Qué métricas de equidad se utilizaron
  • Resultados de los análisis de sesgo pre-implantación
  • Medidas adoptadas para mitigar el sesgo identificado
  • Cómo se monitoreará el sesgo post-implantación

Fuentes de sesgo más comunes en sistemas de IA:

  • Sesgo en los datos de entrenamiento: datos históricos que reflejan discriminaciones pasadas
  • Sesgo de representación: subrepresentación de grupos minoritarios en los datos
  • Sesgo de etiquetado: etiquetas asignadas por humanos que reflejan prejuicios
  • Sesgo de proxy: uso de variables correlacionadas con atributos protegidos

EIPD para sistemas de IA de terceros

Un desafío frecuente: la organización usa un sistema de IA desarrollado por un tercero (modelo de crédito, herramienta de reclutamiento con IA, sistema de análisis de sentimientos) sobre el que tiene acceso limitado a la documentación técnica.

En ese caso, la EIPD debe:

  • Documentar lo que se conoce sobre el sistema (a partir de la documentación del proveedor)
  • Identificar los datos que la organización proporciona al sistema
  • Evaluar riesgos basándose en las capacidades y limitaciones documentadas
  • Incluir como medida de mitigación la formalización de obligaciones contractuales con el proveedor (DPA con transparencia sobre el funcionamiento del modelo)
  • Documentar el proceso de due diligence realizado sobre el proveedor

Ejemplo simplificado: EIPD para sistema de aprobación de crédito con IA

Descripción: Sistema de machine learning para scoring de crédito y aprobación automatizada de préstamos personales.

Input: historial de pagos, renta declarada, comportamiento en cuenta, datos de burós de crédito (Dicom, SINACOFI).

Output: puntaje de 0–1000 + decisión recomendada (aprobar/rechazar/revisar manualmente).

Titulares: clientes personas naturales que solicitan crédito.

Principales riesgos y medidas:

  1. Sesgo discriminatorio por datos históricos (probabilidad alta, impacto alto) → análisis de sesgo por género y tramo etario antes de la implantación; monitoreo mensual post-implantación
  2. Decisión sin posibilidad de revisión → canal de impugnación integrado a la app; revisión por ejecutivo de crédito en hasta 5 días hábiles
  3. Opacidad/inexplicabilidad → implementación de SHAP para generar explicación de las 3 principales razones de la decisión
  4. Filtración de los datos de entrenamiento → cifrado; acceso restringido; entorno de entrenamiento segregado

Conclusión

La EIPD para sistemas de IA no es burocracia — es un mecanismo de descubrimiento y mitigación de riesgos. El proceso de elaboración frecuentemente revela problemas que nadie había identificado: sesgo en el conjunto de datos de entrenamiento, ausencia de proceso de revisión para decisiones de alto impacto, datos con base de licitud inadecuada para el uso previsto.

Las organizaciones que elaboran la EIPD antes de la implantación tienen la oportunidad de corregir esos problemas. Las que no lo hacen los descubren cuando ya causaron daño — a los titulares y a la propia organización. Con la regulación de IA avanzando tanto en Chile (Política Nacional de Inteligencia Artificial 2021 y propuestas regulatorias en desarrollo) como a nivel internacional, la evaluación de impacto de sistemas de IA de alto riesgo tiene proyección de convertirse en una obligación formal — lo que hace de la EIPD una herramienta estratégica de cumplimiento anticipado.


Confidata estructura la EIPD para sistemas de IA con campos específicos para documentación técnica de modelos, evaluación de sesgo y mecanismos de revisión de decisiones automatizadas — integrando el cumplimiento de la Ley 21.719 con las buenas prácticas de AI governance.

Compartir
#EIPD#DPIA#inteligencia artificial#evaluación de impacto#Ley 21719#machine learning

Artículos relacionados

¿Quiere ir más allá? Conozca Confidata Chile

Sistema completo de gestión de cumplimiento con Ley 21.719 e IA integrada para acelerar su programa de privacidad.

© 2026 Confidata Chile — Todos los derechos reservados|Privacidad|Cookies
Hablar con un especialista