Inteligencia Artificial15 min de lectura

Ley 21.719 y ChatGPT en las Empresas — Riesgos, Controles y Política de Uso

Equipo Confidata·
Compartir

En abril de 2023, ingenieros de Samsung Semiconductor pegaron código fuente propietario y transcripciones de reuniones internas en ChatGPT en tres incidentes separados — buscando correcciones de código y generación de actas. Los datos ingresaron al corpus de entrenamiento de OpenAI y no pudieron ser recuperados. Samsung prohibió el uso de IA generativa en la empresa, condujo investigaciones disciplinarias y posteriormente desarrolló una herramienta de IA interna.

El caso Samsung no es aislado. Investigaciones indican que el 15% de los empleados comparte regularmente datos sensibles con ChatGPT en el entorno corporativo. Y en Chile, la Ley 21.719 — que entra en vigencia el 1 de diciembre de 2026 — impone obligaciones específicas cuando datos personales de clientes, empleados o socios son ingresados en herramientas de IA generativa.

Esta guía aborda los riesgos concretos, los controles técnicos disponibles y cómo estructurar una política de uso de IA generativa que proteja a tu organización.


¿Cuáles son los riesgos reales de empleados usando ChatGPT en el trabajo?

Los riesgos no son teóricos. Cuando un empleado escribe un prompt en ChatGPT, los datos salen del perímetro de la empresa y son procesados por un tercero. En la versión gratuita, esos datos pueden ser usados para entrenar modelos futuros de OpenAI.

Escenarios de riesgo concretos

Datos de clientes en prompts: "Resume este contrato con el cliente Juan González, RUT 12.345.678-9, valor $5 millones" — datos personales e información comercial confidencial enviados a OpenAI.

Código fuente propietario: exactamente lo que ocurrió en Samsung. Los desarrolladores pegan código para obtener correcciones u optimizaciones, exponiendo propiedad intelectual.

Datos de empleados: "Escribe una evaluación de desempeño para María, que lleva 3 años en la empresa y tuvo problemas de salud en el último trimestre" — datos personales sensibles (salud) enviados sin base de licitud.

Documentos internos: informes financieros, planes estratégicos, actas de reunión con información confidencial.

Datos de salud y datos sensibles: profesionales de la salud que ingresan información de pacientes buscando apoyo diagnóstico o redacción de informes.

¿Quién es el responsable del tratamiento cuando el empleado usa ChatGPT para el trabajo?

La respuesta depende del contexto:

  • Uso institucional (empresa contrató ChatGPT Enterprise/Team): la empresa es responsable del tratamiento, OpenAI es encargada. La empresa define finalidades y medios — y responde por incidentes.
  • Uso individual del empleado (cuenta personal): zona gris. Si el empleado lo usa para fines laborales, la empresa puede ser considerada responsable de los datos personales de terceros que fueron ingresados en la herramienta — incluso sin haber contratado el servicio.
  • Shadow AI: cuando los empleados usan IA generativa sin autorización de la empresa. La organización puede ser responsabilizada incluso sin saber del uso.

¿Qué pasa con los datos en ChatGPT? Comparación entre versiones

No todo ChatGPT es igual. Las diferencias de privacidad entre versiones son sustanciales:

ChatGPT Free y Plus

AspectoTratamiento
EntrenamientoDatos usados para entrenar modelos por defecto (opt-out disponible en Configuración > Controles de Datos)
RetenciónConversaciones retenidas indefinidamente; chats eliminados purgados en 30 días
CifradoTLS estándar en tránsito
ComplianceNinguna certificación
Residencia de datosSolo EE.UU.

ChatGPT Team y Enterprise

AspectoTratamiento
EntrenamientoNunca — los datos no se usan para entrenar modelos
RetenciónConfigurable; opción de zero data retention vía API
CifradoAES-256 en reposo + TLS 1.2+ en tránsito; Enterprise Key Management disponible
ComplianceSOC 2 Type 2, CSA STAR, alineado con ISO 27001/27017/27018/27701; HIPAA BAA disponible
Residencia de datosMúltiples regiones (EE.UU., Europa, Reino Unido, Japón, Canadá, Corea del Sur, entre otras)
Controles adminSSO, SCIM, control total sobre cuentas y contenido

Conclusión práctica: la versión gratuita/Plus de ChatGPT es incompatible con la mayoría de los escenarios corporativos que involucran datos personales bajo la Ley 21.719. La versión Enterprise/Team ofrece garantías significativamente mejores — pero aun así requiere DPA formalizado y evaluación de transferencia internacional de datos.


Términos de uso: OpenAI, Google y Anthropic — qué cambia

Para uso empresarial (API y versiones corporativas)

Los tres principales proveedores han convergido hacia garantías similares en el nivel empresarial:

  • OpenAI (Enterprise/API): no entrena con datos del cliente; SOC 2 Type 2; HIPAA BAA; residencia de datos en 10+ regiones; Enterprise Key Management
  • Google (Gemini para Workspace/Vertex AI): no entrena con datos del cliente; SOC 2/3; ISO 27001; HIPAA BAA; datos permanecen en Google Cloud con controles regionales
  • Anthropic (Claude for Work/API): no entrena con datos de la API; SOC 2 Type 2; retención estándar de 30 días para seguridad; acuerdo de Zero Data Retention disponible; indemnización por derechos de autor

Para uso personal/gratuito

AspectoChatGPT (Free)Gemini (Free)Claude (Free)
Entrena con datosSí (opt-out)Sí (revisión humana posible)Usuario elige al registrarse
RetenciónIndefinida18 meses (ajustable)Variable según configuración del usuario; consultar política vigente de Anthropic

Punto crítico bajo la Ley 21.719: cuando la versión gratuita entrena con los datos, los datos personales ingresados por el empleado se convierten en parte del modelo — haciendo técnicamente imposible cumplir el derecho de eliminación reconocido en la ley.


Azure OpenAI vs. API directa de OpenAI — diferencias de procesamiento

Para empresas que quieren usar modelos de OpenAI con mayor control, Microsoft ofrece el Azure OpenAI Service. Las diferencias son significativas:

AspectoAzure OpenAIOpenAI API directa
AislamientoOperado íntegramente por Microsoft; datos nunca enviados a OpenAIProcesado directamente por OpenAI
EntrenamientoNunca usado para entrenar modelosNo usado para entrenamiento (API); versión gratuita puede serlo
RedPrivate Endpoints dentro del VNet del cliente; el tráfico no pasa por internet públicoEndpoints públicos
Residencia de datosElección de región Azure — incluye Sudamérica (Brazil South/São Paulo) y disponibilidad creciente en LATAMBasado en EE.UU.
ComplianceGDPR, HIPAA, ISO 27001, SOC 2, FedRAMPSOC 2 Type 2

Implicación para Ley 21.719: la API directa de OpenAI enruta todos los datos por servidores en EE.UU. — configurando una transferencia internacional de datos que deberá contar con base de licitud adecuada bajo la Ley 21.719. Para empresas chilenas, el Azure OpenAI ofrece una ventaja regulatoria al permitir mantener los datos en una región más cercana con controles contractuales más sólidos.


Modelo de política de uso de IA generativa para empresas

Una política de uso efectiva debe cubrir cinco dimensiones:

1. Herramientas autorizadas

[EMPRESA] autoriza el uso de las siguientes herramientas de IA generativa
para fines profesionales:
- [ChatGPT Enterprise / Azure OpenAI / Claude for Work — listar]

ESTÁ PROHIBIDO el uso de versiones gratuitas o personales de herramientas de
IA generativa (ChatGPT Free, Gemini Free, Claude Free, etc.) para cualquier
actividad que involucre datos de la empresa, clientes, socios o empleados.

2. Datos prohibidos en prompts

ESTÁ PROHIBIDO ingresar en las herramientas de IA generativa:
- Datos personales identificables (nombre, RUT, dirección, teléfono)
- Datos personales sensibles (salud, biometría, religión, orientación sexual)
- Datos financieros de clientes o de la empresa
- Código fuente propietario o secretos comerciales
- Documentos clasificados como confidenciales o restringidos
- Datos de menores de edad
- Contraseñas, tokens de acceso o credenciales

En caso de duda, consulta al DPD antes de ingresar cualquier
información en la herramienta.

3. Buenas prácticas

Al utilizar IA generativa autorizada:
- Anonimiza los datos antes de ingresar (reemplaza nombres por "Persona A",
  RUTs por "XX.XXX.XXX-X")
- No copies correos completos con datos de clientes
- Revisa las respuestas de la IA antes de usarlas — la IA generativa puede
  producir información incorrecta
- No confíes en la IA para asesoramiento legal, médico o contable
  sin revisión profesional
- Registra el uso de IA en entregas que serán publicadas o enviadas
  a terceros

4. Responsabilidades

- El DPD es responsable de aprobar nuevas herramientas de IA generativa
- El gerente de TI es responsable de configurar controles técnicos (DLP)
- Cada empleado es responsable del contenido que ingresa en las herramientas
- Las infracciones a esta política pueden dar lugar a medidas disciplinarias

5. Revisión periódica

Esta política será revisada cada 6 meses o cuando ocurra:
- Cambio en las herramientas autorizadas
- Nueva regulación de la APDP sobre IA
- Incidente que involucre uso de IA generativa

Evaluación de impacto antes de adoptar IA generativa corporativa

La Ley 21.719 incorpora la figura de la Evaluación de Impacto en la Protección de Datos (EIPD) — equivalente al DPIA del GDPR europeo. La adopción de IA generativa en el entorno corporativo activa múltiples criterios para elaborar una EIPD:

  • Uso de nuevas tecnologías — la IA generativa es, por definición, tecnología emergente
  • Potencial para decisiones automatizadas que afectan a los titulares
  • Transferencia internacional de datos — si la herramienta procesa datos fuera de Chile
  • Tratamiento a gran escala — cuando muchos empleados usan la herramienta diariamente

Qué debe cubrir la EIPD

  1. Mapeo de datos: qué datos personales serán ingresados (prompts con nombres, RUTs, datos de clientes)
  2. Base de licitud: consentimiento, interés legítimo u otra base adecuada
  3. Transferencia internacional: ¿la herramienta procesa datos fuera de Chile?
  4. Medidas de seguridad: DLP, política de uso, capacitación, versión enterprise
  5. Derechos de los titulares: cómo garantizar acceso, corrección y eliminación cuando los datos están en sistemas de IA
  6. Riesgos identificados: filtración, re-identificación, uso para entrenamiento de modelos
  7. Medidas mitigadoras: versión enterprise (sin entrenamiento), anonimización previa, controles de acceso

Capacitación de empleados — qué se puede y qué no

La capacitación es la medida más costo-efectiva. Un programa específico para IA generativa debe cubrir:

Qué comunicar

Lo que NO se puede:

  • Pegar datos de clientes en prompts
  • Usar versiones gratuitas para el trabajo
  • Confiar ciegamente en las respuestas (alucinaciones)
  • Usar IA para tomar decisiones sobre personas sin revisión humana

Lo que SÍ se puede (con controles):

  • Usar herramientas autorizadas para redactar textos genéricos
  • Pedir ayuda con código (sin datos propietarios)
  • Resumir documentos públicos
  • Brainstorming y generación de ideas

Formato recomendado

  • Capacitación obligatoria antes de habilitar el acceso a la herramienta
  • Refuerzo trimestral con ejemplos de incidentes reales (como el caso Samsung)
  • Canal directo con el DPD para consultas antes de usar IA con datos sensibles

Monitoreo de uso — DLP y controles técnicos

Política sin monitoreo es papel. Las herramientas de DLP (Data Loss Prevention) evolucionaron para interceptar datos sensibles antes de que lleguen a herramientas de IA generativa:

Soluciones disponibles

HerramientaCapacidad para IA generativa
Microsoft Purview DLPMonitorea ChatGPT, Gemini, DeepSeek, Copilot; se integra con Edge for Business
Palo Alto Networks Enterprise DLPInspección de contenido inline para ChatGPT; bloquea datos sensibles sin bloquear la herramienta
NetskopeCASB + DLP; monitoreo en tiempo real de apps de IA generativa
Nightfall AIEscaneo de prompts en tiempo real; detecta PII, PHI y secretos antes de ingresar a la IA
CyberhavenSeguimiento de linaje de datos con IA; cubre uploads web, correo y herramientas de IA generativa

Capacidades modernas de DLP para IA

  • Detección de contenido basada en IA — va más allá de regex y palabras clave
  • Seguimiento de linaje de datos — identifica origen y movimiento de los datos
  • Interceptación en el navegador — bloquea datos sensibles en herramientas web
  • Descubrimiento de shadow AI — detecta uso no autorizado de herramientas de IA generativa
  • Redacción automática — elimina datos sensibles del prompt antes de enviarlo a la IA

El contexto regulatorio: IA generativa y protección de datos en Chile

La Ley 21.719 entrará en vigencia el 1 de diciembre de 2026. La Agencia de Protección de Datos Personales (APDP) — que se creará como parte de esta ley — tendrá competencias para fiscalizar el uso de datos personales en sistemas de IA generativa, al igual que lo hace el GDPR europeo y lo ha hecho la ANPD en Brasil.

Lecciones del caso Meta (Brasil, 2024)

En julio de 2024, la Autoridad Nacional de Protección de Datos de Brasil (ANPD) emitió una medida preventiva suspendiendo la nueva política de privacidad de Meta que permitía usar datos de Facebook e Instagram para entrenar el Meta AI. La multa fue de R$50.000/día por incumplimiento. Este precedente latinoamericano es relevante para Chile: las autoridades de protección de datos de la región están activas en la fiscalización de IA generativa.

Las empresas chilenas tienen una ventana de preparación antes del 1 de diciembre de 2026 para estructurar su gobernanza de IA de forma que cumpla con los requisitos de la Ley 21.719.


Checklist para empresas que usan IA generativa

  • Inventario de todas las herramientas de IA generativa en uso (incluida la shadow AI)
  • Política de uso de IA generativa aprobada y comunicada a todos los empleados
  • Versión enterprise contratada (sin entrenamiento con datos, con DPA formalizado)
  • EIPD elaborada antes de la adopción institucional
  • Base de licitud documentada para el tratamiento de datos vía IA generativa
  • Evaluación de transferencia internacional de datos (si la herramienta procesa datos fuera de Chile)
  • DLP implementado para interceptar datos sensibles en prompts
  • Capacitación obligatoria para todos los usuarios
  • Canal de consultas con el DPD para uso de IA con datos personales
  • Proceso para atender solicitudes de revisión de decisiones automatizadas
  • Cláusulas contractuales con el proveedor de IA alineadas a la Ley 21.719
  • Revisión periódica de la política (mínimo semestral)
  • Monitoreo de uso efectivo (logs, DLP, auditorías)
  • Plan de respuesta a incidentes actualizado para cubrir filtraciones vía IA

Conclusión

La IA generativa no es más una curiosidad — es una herramienta de trabajo que ya está dentro de tu empresa, autorizada o no. El riesgo de no actuar es doble: filtración de datos personales y confidenciales (con potencial sanción de la APDP a partir de diciembre de 2026) y pérdida de propiedad intelectual (como en el caso Samsung).

El enfoque correcto no es prohibir — es gobernar. Contrata la versión enterprise, implementa controles técnicos, capacita a los empleados y documenta todo. La gobernanza de IA es una extensión natural del programa de protección de datos — y será cada vez más exigida a medida que la regulación avanza.


Confidata ofrece funcionalidades para gobernanza de IA y protección de datos corporativos: registro de actividades de tratamiento con clasificación de sistemas de IA, evaluación de impacto con campos específicos para IA generativa y gestión de políticas internas — permitiendo documentar y evidenciar cumplimiento de la Ley 21.719 en el uso de inteligencia artificial.

Compartir
#ChatGPT#Ley 21719#IA generativa#política de uso#datos personales#compliance#DLP

Artículos relacionados

¿Quiere ir más allá? Conozca Confidata Chile

Sistema completo de gestión de cumplimiento con Ley 21.719 e IA integrada para acelerar su programa de privacidad.

© 2026 Confidata Chile — Todos los derechos reservados|Privacidad|Cookies
Hablar con un especialista