Ley 21.719 y ChatGPT en las Empresas — Riesgos, Controles y Política de Uso
En abril de 2023, ingenieros de Samsung Semiconductor pegaron código fuente propietario y transcripciones de reuniones internas en ChatGPT en tres incidentes separados — buscando correcciones de código y generación de actas. Los datos ingresaron al corpus de entrenamiento de OpenAI y no pudieron ser recuperados. Samsung prohibió el uso de IA generativa en la empresa, condujo investigaciones disciplinarias y posteriormente desarrolló una herramienta de IA interna.
El caso Samsung no es aislado. Investigaciones indican que el 15% de los empleados comparte regularmente datos sensibles con ChatGPT en el entorno corporativo. Y en Chile, la Ley 21.719 — que entra en vigencia el 1 de diciembre de 2026 — impone obligaciones específicas cuando datos personales de clientes, empleados o socios son ingresados en herramientas de IA generativa.
Esta guía aborda los riesgos concretos, los controles técnicos disponibles y cómo estructurar una política de uso de IA generativa que proteja a tu organización.
¿Cuáles son los riesgos reales de empleados usando ChatGPT en el trabajo?
Los riesgos no son teóricos. Cuando un empleado escribe un prompt en ChatGPT, los datos salen del perímetro de la empresa y son procesados por un tercero. En la versión gratuita, esos datos pueden ser usados para entrenar modelos futuros de OpenAI.
Escenarios de riesgo concretos
Datos de clientes en prompts: "Resume este contrato con el cliente Juan González, RUT 12.345.678-9, valor $5 millones" — datos personales e información comercial confidencial enviados a OpenAI.
Código fuente propietario: exactamente lo que ocurrió en Samsung. Los desarrolladores pegan código para obtener correcciones u optimizaciones, exponiendo propiedad intelectual.
Datos de empleados: "Escribe una evaluación de desempeño para María, que lleva 3 años en la empresa y tuvo problemas de salud en el último trimestre" — datos personales sensibles (salud) enviados sin base de licitud.
Documentos internos: informes financieros, planes estratégicos, actas de reunión con información confidencial.
Datos de salud y datos sensibles: profesionales de la salud que ingresan información de pacientes buscando apoyo diagnóstico o redacción de informes.
¿Quién es el responsable del tratamiento cuando el empleado usa ChatGPT para el trabajo?
La respuesta depende del contexto:
- Uso institucional (empresa contrató ChatGPT Enterprise/Team): la empresa es responsable del tratamiento, OpenAI es encargada. La empresa define finalidades y medios — y responde por incidentes.
- Uso individual del empleado (cuenta personal): zona gris. Si el empleado lo usa para fines laborales, la empresa puede ser considerada responsable de los datos personales de terceros que fueron ingresados en la herramienta — incluso sin haber contratado el servicio.
- Shadow AI: cuando los empleados usan IA generativa sin autorización de la empresa. La organización puede ser responsabilizada incluso sin saber del uso.
¿Qué pasa con los datos en ChatGPT? Comparación entre versiones
No todo ChatGPT es igual. Las diferencias de privacidad entre versiones son sustanciales:
ChatGPT Free y Plus
| Aspecto | Tratamiento |
|---|---|
| Entrenamiento | Datos usados para entrenar modelos por defecto (opt-out disponible en Configuración > Controles de Datos) |
| Retención | Conversaciones retenidas indefinidamente; chats eliminados purgados en 30 días |
| Cifrado | TLS estándar en tránsito |
| Compliance | Ninguna certificación |
| Residencia de datos | Solo EE.UU. |
ChatGPT Team y Enterprise
| Aspecto | Tratamiento |
|---|---|
| Entrenamiento | Nunca — los datos no se usan para entrenar modelos |
| Retención | Configurable; opción de zero data retention vía API |
| Cifrado | AES-256 en reposo + TLS 1.2+ en tránsito; Enterprise Key Management disponible |
| Compliance | SOC 2 Type 2, CSA STAR, alineado con ISO 27001/27017/27018/27701; HIPAA BAA disponible |
| Residencia de datos | Múltiples regiones (EE.UU., Europa, Reino Unido, Japón, Canadá, Corea del Sur, entre otras) |
| Controles admin | SSO, SCIM, control total sobre cuentas y contenido |
Conclusión práctica: la versión gratuita/Plus de ChatGPT es incompatible con la mayoría de los escenarios corporativos que involucran datos personales bajo la Ley 21.719. La versión Enterprise/Team ofrece garantías significativamente mejores — pero aun así requiere DPA formalizado y evaluación de transferencia internacional de datos.
Términos de uso: OpenAI, Google y Anthropic — qué cambia
Para uso empresarial (API y versiones corporativas)
Los tres principales proveedores han convergido hacia garantías similares en el nivel empresarial:
- OpenAI (Enterprise/API): no entrena con datos del cliente; SOC 2 Type 2; HIPAA BAA; residencia de datos en 10+ regiones; Enterprise Key Management
- Google (Gemini para Workspace/Vertex AI): no entrena con datos del cliente; SOC 2/3; ISO 27001; HIPAA BAA; datos permanecen en Google Cloud con controles regionales
- Anthropic (Claude for Work/API): no entrena con datos de la API; SOC 2 Type 2; retención estándar de 30 días para seguridad; acuerdo de Zero Data Retention disponible; indemnización por derechos de autor
Para uso personal/gratuito
| Aspecto | ChatGPT (Free) | Gemini (Free) | Claude (Free) |
|---|---|---|---|
| Entrena con datos | Sí (opt-out) | Sí (revisión humana posible) | Usuario elige al registrarse |
| Retención | Indefinida | 18 meses (ajustable) | Variable según configuración del usuario; consultar política vigente de Anthropic |
Punto crítico bajo la Ley 21.719: cuando la versión gratuita entrena con los datos, los datos personales ingresados por el empleado se convierten en parte del modelo — haciendo técnicamente imposible cumplir el derecho de eliminación reconocido en la ley.
Azure OpenAI vs. API directa de OpenAI — diferencias de procesamiento
Para empresas que quieren usar modelos de OpenAI con mayor control, Microsoft ofrece el Azure OpenAI Service. Las diferencias son significativas:
| Aspecto | Azure OpenAI | OpenAI API directa |
|---|---|---|
| Aislamiento | Operado íntegramente por Microsoft; datos nunca enviados a OpenAI | Procesado directamente por OpenAI |
| Entrenamiento | Nunca usado para entrenar modelos | No usado para entrenamiento (API); versión gratuita puede serlo |
| Red | Private Endpoints dentro del VNet del cliente; el tráfico no pasa por internet público | Endpoints públicos |
| Residencia de datos | Elección de región Azure — incluye Sudamérica (Brazil South/São Paulo) y disponibilidad creciente en LATAM | Basado en EE.UU. |
| Compliance | GDPR, HIPAA, ISO 27001, SOC 2, FedRAMP | SOC 2 Type 2 |
Implicación para Ley 21.719: la API directa de OpenAI enruta todos los datos por servidores en EE.UU. — configurando una transferencia internacional de datos que deberá contar con base de licitud adecuada bajo la Ley 21.719. Para empresas chilenas, el Azure OpenAI ofrece una ventaja regulatoria al permitir mantener los datos en una región más cercana con controles contractuales más sólidos.
Modelo de política de uso de IA generativa para empresas
Una política de uso efectiva debe cubrir cinco dimensiones:
1. Herramientas autorizadas
[EMPRESA] autoriza el uso de las siguientes herramientas de IA generativa
para fines profesionales:
- [ChatGPT Enterprise / Azure OpenAI / Claude for Work — listar]
ESTÁ PROHIBIDO el uso de versiones gratuitas o personales de herramientas de
IA generativa (ChatGPT Free, Gemini Free, Claude Free, etc.) para cualquier
actividad que involucre datos de la empresa, clientes, socios o empleados.
2. Datos prohibidos en prompts
ESTÁ PROHIBIDO ingresar en las herramientas de IA generativa:
- Datos personales identificables (nombre, RUT, dirección, teléfono)
- Datos personales sensibles (salud, biometría, religión, orientación sexual)
- Datos financieros de clientes o de la empresa
- Código fuente propietario o secretos comerciales
- Documentos clasificados como confidenciales o restringidos
- Datos de menores de edad
- Contraseñas, tokens de acceso o credenciales
En caso de duda, consulta al DPD antes de ingresar cualquier
información en la herramienta.
3. Buenas prácticas
Al utilizar IA generativa autorizada:
- Anonimiza los datos antes de ingresar (reemplaza nombres por "Persona A",
RUTs por "XX.XXX.XXX-X")
- No copies correos completos con datos de clientes
- Revisa las respuestas de la IA antes de usarlas — la IA generativa puede
producir información incorrecta
- No confíes en la IA para asesoramiento legal, médico o contable
sin revisión profesional
- Registra el uso de IA en entregas que serán publicadas o enviadas
a terceros
4. Responsabilidades
- El DPD es responsable de aprobar nuevas herramientas de IA generativa
- El gerente de TI es responsable de configurar controles técnicos (DLP)
- Cada empleado es responsable del contenido que ingresa en las herramientas
- Las infracciones a esta política pueden dar lugar a medidas disciplinarias
5. Revisión periódica
Esta política será revisada cada 6 meses o cuando ocurra:
- Cambio en las herramientas autorizadas
- Nueva regulación de la APDP sobre IA
- Incidente que involucre uso de IA generativa
Evaluación de impacto antes de adoptar IA generativa corporativa
La Ley 21.719 incorpora la figura de la Evaluación de Impacto en la Protección de Datos (EIPD) — equivalente al DPIA del GDPR europeo. La adopción de IA generativa en el entorno corporativo activa múltiples criterios para elaborar una EIPD:
- Uso de nuevas tecnologías — la IA generativa es, por definición, tecnología emergente
- Potencial para decisiones automatizadas que afectan a los titulares
- Transferencia internacional de datos — si la herramienta procesa datos fuera de Chile
- Tratamiento a gran escala — cuando muchos empleados usan la herramienta diariamente
Qué debe cubrir la EIPD
- Mapeo de datos: qué datos personales serán ingresados (prompts con nombres, RUTs, datos de clientes)
- Base de licitud: consentimiento, interés legítimo u otra base adecuada
- Transferencia internacional: ¿la herramienta procesa datos fuera de Chile?
- Medidas de seguridad: DLP, política de uso, capacitación, versión enterprise
- Derechos de los titulares: cómo garantizar acceso, corrección y eliminación cuando los datos están en sistemas de IA
- Riesgos identificados: filtración, re-identificación, uso para entrenamiento de modelos
- Medidas mitigadoras: versión enterprise (sin entrenamiento), anonimización previa, controles de acceso
Capacitación de empleados — qué se puede y qué no
La capacitación es la medida más costo-efectiva. Un programa específico para IA generativa debe cubrir:
Qué comunicar
Lo que NO se puede:
- Pegar datos de clientes en prompts
- Usar versiones gratuitas para el trabajo
- Confiar ciegamente en las respuestas (alucinaciones)
- Usar IA para tomar decisiones sobre personas sin revisión humana
Lo que SÍ se puede (con controles):
- Usar herramientas autorizadas para redactar textos genéricos
- Pedir ayuda con código (sin datos propietarios)
- Resumir documentos públicos
- Brainstorming y generación de ideas
Formato recomendado
- Capacitación obligatoria antes de habilitar el acceso a la herramienta
- Refuerzo trimestral con ejemplos de incidentes reales (como el caso Samsung)
- Canal directo con el DPD para consultas antes de usar IA con datos sensibles
Monitoreo de uso — DLP y controles técnicos
Política sin monitoreo es papel. Las herramientas de DLP (Data Loss Prevention) evolucionaron para interceptar datos sensibles antes de que lleguen a herramientas de IA generativa:
Soluciones disponibles
| Herramienta | Capacidad para IA generativa |
|---|---|
| Microsoft Purview DLP | Monitorea ChatGPT, Gemini, DeepSeek, Copilot; se integra con Edge for Business |
| Palo Alto Networks Enterprise DLP | Inspección de contenido inline para ChatGPT; bloquea datos sensibles sin bloquear la herramienta |
| Netskope | CASB + DLP; monitoreo en tiempo real de apps de IA generativa |
| Nightfall AI | Escaneo de prompts en tiempo real; detecta PII, PHI y secretos antes de ingresar a la IA |
| Cyberhaven | Seguimiento de linaje de datos con IA; cubre uploads web, correo y herramientas de IA generativa |
Capacidades modernas de DLP para IA
- Detección de contenido basada en IA — va más allá de regex y palabras clave
- Seguimiento de linaje de datos — identifica origen y movimiento de los datos
- Interceptación en el navegador — bloquea datos sensibles en herramientas web
- Descubrimiento de shadow AI — detecta uso no autorizado de herramientas de IA generativa
- Redacción automática — elimina datos sensibles del prompt antes de enviarlo a la IA
El contexto regulatorio: IA generativa y protección de datos en Chile
La Ley 21.719 entrará en vigencia el 1 de diciembre de 2026. La Agencia de Protección de Datos Personales (APDP) — que se creará como parte de esta ley — tendrá competencias para fiscalizar el uso de datos personales en sistemas de IA generativa, al igual que lo hace el GDPR europeo y lo ha hecho la ANPD en Brasil.
Lecciones del caso Meta (Brasil, 2024)
En julio de 2024, la Autoridad Nacional de Protección de Datos de Brasil (ANPD) emitió una medida preventiva suspendiendo la nueva política de privacidad de Meta que permitía usar datos de Facebook e Instagram para entrenar el Meta AI. La multa fue de R$50.000/día por incumplimiento. Este precedente latinoamericano es relevante para Chile: las autoridades de protección de datos de la región están activas en la fiscalización de IA generativa.
Las empresas chilenas tienen una ventana de preparación antes del 1 de diciembre de 2026 para estructurar su gobernanza de IA de forma que cumpla con los requisitos de la Ley 21.719.
Checklist para empresas que usan IA generativa
- Inventario de todas las herramientas de IA generativa en uso (incluida la shadow AI)
- Política de uso de IA generativa aprobada y comunicada a todos los empleados
- Versión enterprise contratada (sin entrenamiento con datos, con DPA formalizado)
- EIPD elaborada antes de la adopción institucional
- Base de licitud documentada para el tratamiento de datos vía IA generativa
- Evaluación de transferencia internacional de datos (si la herramienta procesa datos fuera de Chile)
- DLP implementado para interceptar datos sensibles en prompts
- Capacitación obligatoria para todos los usuarios
- Canal de consultas con el DPD para uso de IA con datos personales
- Proceso para atender solicitudes de revisión de decisiones automatizadas
- Cláusulas contractuales con el proveedor de IA alineadas a la Ley 21.719
- Revisión periódica de la política (mínimo semestral)
- Monitoreo de uso efectivo (logs, DLP, auditorías)
- Plan de respuesta a incidentes actualizado para cubrir filtraciones vía IA
Conclusión
La IA generativa no es más una curiosidad — es una herramienta de trabajo que ya está dentro de tu empresa, autorizada o no. El riesgo de no actuar es doble: filtración de datos personales y confidenciales (con potencial sanción de la APDP a partir de diciembre de 2026) y pérdida de propiedad intelectual (como en el caso Samsung).
El enfoque correcto no es prohibir — es gobernar. Contrata la versión enterprise, implementa controles técnicos, capacita a los empleados y documenta todo. La gobernanza de IA es una extensión natural del programa de protección de datos — y será cada vez más exigida a medida que la regulación avanza.
Confidata ofrece funcionalidades para gobernanza de IA y protección de datos corporativos: registro de actividades de tratamiento con clasificación de sistemas de IA, evaluación de impacto con campos específicos para IA generativa y gestión de políticas internas — permitiendo documentar y evidenciar cumplimiento de la Ley 21.719 en el uso de inteligencia artificial.
Artículos relacionados
¿Quiere ir más allá? Conozca Confidata Chile
Sistema completo de gestión de cumplimiento con Ley 21.719 e IA integrada para acelerar su programa de privacidad.