Proofpoint señala los riesgos de privacidad de la IA de DeepSeek
Publicado por Redacción Portal ERP España en 10/02/2025 en IT SecurityEl modelo de IA de DeepSeek podría plantear riesgos de exposición de datos personales, según los expertos en ciberseguridad
Foto: cortesía. Portal ERP España.
El desarrollo de una IA avanzada como R1 por parte de DeepSeek ha suscitado inquietudes en diversos sectores sobre cómo el Gobierno chino podría manejar los datos recopilados, sus algoritmos patentados y sus estrategias internas.
Desde Proofpoint, compañía de ciberseguridad y cumplimiento normativo, advierten sobre los riesgos de exposición de información personal a través de esta plataforma. Sus expertos señalan que la recopilación de datos en plataformas de IA generativa como R1 puede dar lugar a infracciones del Reglamento General de Protección de Datos (GDPR) de la Unión Europea, con consecuencias financieras graves.
Te puede interesar: La IA generativa y el factor humano, claves en la pérdida de datos
Las multas por violar el GDPR podrían alcanzar hasta 20 millones de euros o el 4% de los ingresos anuales globales de una empresa, lo que tendría un impacto significativo tanto en términos económicos como en la reputación de las organizaciones afectadas. Además, existe el riesgo de una posible pérdida de confianza por parte de los clientes si se percibe que sus datos no están siendo gestionados adecuadamente.
En respuesta a estos riesgos, Proofpoint recomienda que las empresas adopten un enfoque integral de seguridad que abarque tres pilares fundamentales: las personas, los procesos y la tecnología. Entre las prácticas aconsejables, se incluye el monitoreo del uso de sitios de IA generativa por parte de los usuarios, grupos o departamentos dentro de la organización.
Además, se debe evaluar el contexto de los riesgos, identificar y alertar sobre autorizaciones de terceros que intenten acceder a datos en la nube, correos electrónicos o calendarios, entre otros.
Otra recomendación clave es detectar, etiquetar y proteger los archivos que contengan datos confidenciales, incluidos los generados por la IA, para evitar la exposición indebida de información sensible.
Proofpoint también sugiere bloquear la carga web de datos sensibles en sitios de IA generativa y proteger los modelos de IA, tanto fundacionales como personalizados, incluidos los de DeepSeek en AWS Bedrock y Azure OpenAI, para que no se entrenen con datos confidenciales. Asimismo, es importante realizar análisis en casi tiempo real sobre el uso de datos en estas plataformas y formar a los empleados en el uso seguro de estos servicios.
En palabras del equipo de investigación de Proofpoint: "No sólo deben implantar una tecnología que proporcione controles de acceso y datos centrados en las personas, sino establecer políticas internas sólidas y consejos de gobernanza de la IA, supervisar su uso y el acceso a los datos, además de contar con medidas de formación para empleados y un marco ético sólido".
Para los profesionales de la ciberdefensa, Proofpoint subraya la importancia de supervisar continuamente el mercado de la IA generativa, desplegando nuevas capacidades con un impacto mínimo en la productividad de los usuarios.
En cuanto a sus soluciones de prevención de pérdida de datos (DLP), la compañía ha desarrollado una extensión de navegador que previene la pérdida de datos a través de envíos de mensajes generados por IA, permitiendo a las empresas responder rápidamente sin necesidad de realizar cambios en su configuración o actualizar el software.