La adopción por parte de las empresas de la inteligencia artificial (IA) generativa en 2025 va acompañada de una gran preocupación por la seguridad, la privacidad y el cumplimiento de la normativa. A medida que se profundiza en la integración de la IA en todos los sectores, los directivos de las empresas se enfrentan a una presión cada vez mayor para garantizar que los sistemas de IA no solo impulsen la productividad, sino que también mantengan un estricto cumplimiento de las normas de protección de datos y gestión de riesgos. Encuestas recientes de las empresas de ciberseguridad KPMG y Thales revelan que las organizaciones están asignando partes sustanciales de sus presupuestos de TI para salvaguardar las implementaciones de IA, lo que refleja una creciente priorización de la gestión de la seguridad de la IA.
Los retos de la seguridad de la IA determinan las prioridades presupuestarias de las empresas
Los riesgos de seguridad vinculados a las tecnologías de IA generativa dominan la agenda de los responsables de la toma de decisiones de las empresas. La creciente preocupación por la privacidad de los datos, la evolución de los marcos normativos y la integridad de los modelos de IA contribuyen a esta tendencia. Según un informe de KPMG, 67% de los líderes empresariales planean invertir en protecciones cibernéticas y de seguridad de datos específicamente para sus modelos de IA.mientras que 52% hacer hincapié en la asignación de riesgos y cumplimiento en los gastos de IA. Esto supone un aumento significativo desde finales de 2024, lo que subraya una mayor vigilancia en las estrategias de despliegue de la IA.
Agencias como CrowdStrike, Palo Alto Networks y FireEye se despliegan con frecuencia para mejorar las defensas de los sistemas de IA. Las empresas están explorando activamente soluciones de seguridad integradas de los principales actores como Cisco, Check Point, IBM Security y Fortinet para reducir las vulnerabilidades en el despliegue de IA generativa.
- Centrarse en la seguridad de los conductos de datos de IA y los conjuntos de datos de formación
- Inversión en herramientas de auditoría y cumplimiento de modelos de IA
- Cambio hacia la supervisión continua de las amenazas y la respuesta a incidentes con IA
- Integración de marcos de seguridad específicos para la IA en las arquitecturas generales de ciberseguridad.
Seguridad | Porcentaje de organizaciones que invierten | Principales proveedores de soluciones |
---|---|---|
Ciberprotección y seguridad de datos para modelos de IA | 67% | CrowdStrike, Palo Alto Networks, FireEye |
Gestión de riesgos y cumplimiento | 52% | IBM Security, Check Point, Fortinet |
Adquisición de herramientas de seguridad específicas para la IA | 73% | Darktrace, Cisco, McAfee |
Expertos del sector destacan los principales riesgos de seguridad
El panorama de amenazas para las aplicaciones de IA evoluciona rápidamente. En su última encuesta, realizada a más de 3200 profesionales de TI y seguridad de 20 países, Thales identificó las principales preocupaciones relacionadas con la IA:
- Riesgos de transformación del ecosistema (69%) - los rápidos cambios tecnológicos crean nuevas brechas de seguridad
- Retos para la integridad de los datos (64%) - garantizar que los datos introducidos no han sido manipulados o envenenados
- Cuestiones de confianza (57%) - mantener la confianza en los resultados y decisiones de la IA
- Riesgos de confidencialidad (45%) - salvaguardar la información sensible para que no quede expuesta
A pesar de estas preocupaciones generalizadas, sólo 10% de los encuestados situaron la seguridad de la IA como su principal gasto en seguridad, lo que indica discrepancias en las prácticas presupuestarias de las organizaciones. Nick Reese, COO de Frontier Foundry, señala que esta brecha indica la necesidad de alinear el gasto con los riesgos reales que plantea la IA para ofrecer una protección y un ROI eficaces.
Tendencias de inversión en inteligencia artificial y herramientas de seguridad
La IA agéntica, que utiliza sistemas autónomos para ejecutar tareas complejas de forma independiente, suscita cada vez más interés, aunque su adopción es cautelosa. El informe del segundo trimestre de KPMG destaca el cambio de actitud hacia la IA agéntica:
- 55% de los líderes priorizan ahora los agentes de IA de proveedores de confianzade 63% a finales de 2024
- 45% prohibir que los agentes de IA accedan a datos sensibles sin supervisión humana.en comparación con 52% anteriormente
- La proporción de los que se sienten incómodos delegando totalmente tareas en agentes de IA aumentó de 28% a 45%.
Este cambio subraya el escepticismo sobre las implicaciones de la IA agéntica para la seguridad, lo que impulsa las inversiones continuas en herramientas de seguridad especializadas. Thales informa de que 73% de las organizaciones han asignado presupuestos a herramientas de seguridad específicas para la IA, comprando a proveedores de servicios en la nube (más de dos tercios), proveedores de seguridad tradicionales (60%) y empresas tecnológicas emergentes (50%).
Tipo de proveedor | Porcentaje de organizaciones que adquieren herramientas de seguridad de IA |
---|---|
Proveedores de la nube | 70% |
Proveedores dedicados a la seguridad | 60% |
Nuevas empresas tecnológicas de seguridad con IA | 50% |
La integración completa de herramientas de seguridad de IA de líderes del sector como Symantec, Darktrace y McAfee se alinea estrechamente con los objetivos corporativos de mitigación de riesgos, proporcionando capacidades de defensa en capas contra ciberamenazas sofisticadas.
Pasos prácticos para mejorar la seguridad de la IA
Para mitigar eficazmente las amenazas de la IA generativa, las empresas están adoptando estrategias multifacéticas:
- Pruebas de estrés rigurosas de los modelos de IA para revelar vulnerabilidades y mejorar la solidez
- Implantación de la supervisión continua con detección de anomalías identificar rápidamente posibles ataques
- Reforzar los flujos de trabajo para el cumplimiento de la normativa mediante pistas de auditoría y trazabilidad en los sistemas de IA
- Combinar la supervisión humana con la automatización garantizar el control de las decisiones delicadas
Aprendizaje continuo y referencia a recursos como material educativo sobre ciberseguridad de la IA es crucial para mantener a los equipos actualizados sobre la evolución de las amenazas y las soluciones.