A medida que las tecnologías de IA generativa continúan su ascenso meteórico en 2025, tres preocupaciones principales han surgido en el centro del debate público: la seguridad laboral, la protección de la privacidad y los riesgos de ciberseguridad.
En el ámbito del empleo, investigaciones recientes muestran un panorama mixto. Un estudio de McKinsey sugiere que para 2030, actividades que representan hasta el 30% de las horas actualmente trabajadas en la economía de Estados Unidos podrían ser automatizadas, una tendencia acelerada por la IA generativa. Los puestos de apoyo administrativo, atención al cliente y servicios de alimentos son los más expuestos al riesgo de desplazamiento. Sin embargo, en contraste con las predicciones apocalípticas, un estudio reciente realizado en Dinamarca, que analizó 11 ocupaciones entre 25,000 trabajadores, encontró que herramientas de IA generativa como ChatGPT han tenido un impacto mínimo en los salarios y niveles de empleo hasta el momento, con usuarios que reportan un ahorro promedio de solo 2.8% de sus horas laborales.
Las preocupaciones sobre la privacidad se han intensificado a medida que los sistemas de IA generativa procesan grandes cantidades de datos personales. Expertos en seguridad de IBM advierten que estos sistemas pueden memorizar y reproducir inadvertidamente información sensible de sus datos de entrenamiento, generando lo que los expertos denominan 'fuga de modelo'. Según el estudio Data Privacy Benchmark 2024 de Cisco, aunque el 79% de las empresas ya obtiene un valor significativo de la IA generativa, solo la mitad de los usuarios evita ingresar información personal o confidencial en estas herramientas, lo que genera riesgos sustanciales para la privacidad.
Las vulnerabilidades de seguridad representan la tercera gran preocupación. Evaluaciones gubernamentales predicen que para 2025, la IA generativa probablemente amplificará los riesgos de seguridad existentes en lugar de crear completamente nuevos, pero aumentará drásticamente la velocidad y el alcance de las amenazas. El gobierno del Reino Unido advirtió recientemente que la IA generativa puede facilitar intrusiones cibernéticas más rápidas y efectivas mediante métodos de phishing personalizados y replicación de malware. Además, la capacidad de la IA para generar deepfakes y medios sintéticos convincentes amenaza con erosionar la confianza pública en las fuentes de información.
A medida que las organizaciones se apresuran a implementar IA generativa, los expertos recomiendan establecer marcos sólidos de gobernanza de datos, incluyendo la minimización de datos, cifrado, controles de acceso y auditorías de seguridad regulares. Sin las salvaguardas adecuadas, la tecnología que promete ganancias de productividad sin precedentes podría, al mismo tiempo, exponer a individuos y organizaciones a riesgos significativos.
Con Gartner pronosticando que la IA generativa representará el 10% de todos los datos producidos para 2025 (frente a menos del 1% actual), la urgencia de abordar estas preocupaciones nunca ha sido mayor.