12/12/2025

  • El informe “Inteligencia Artificial y Ciberseguridad: recomendaciones para una implementación segura en las empresas” destaca la urgencia de integrar ciberseguridad y ética en la IA, ante el crecimiento de la adopción empresarial y el aumento de ciberataques dirigidos a modelos de inteligencia artificial.
  •  El número de compañías que implementan estas tecnologías se duplicó en España entre 2022 y 2024, mientras los ciberataques globales dirigidos a modelos de IA se multiplicaron por 5 desde 2023.

Madrid, 12 de diciembre de 2025.- La Asociación Española para la Digitalización, DigitalES, presenta el informe “Inteligencia Artificial y Ciberseguridad: recomendaciones para una implementación segura en las empresas, un análisis exhaustivo que aborda los desafíos, riesgos y buenas prácticas para garantizar la seguridad, la privacidad y el cumplimiento normativo en la adopción de la inteligencia artificial (IA) en sectores clave como el retail, la salud y las grandes corporaciones.

LA EXPANSIÓN DE LA IA AUMENTA LOS RIESGOS

El informe de la patronal tecnológica, que se presenta el próximo lunes en CEOE, nace en un contexto de crecimiento sin precedentes de la IA en el tejido empresarial. El 77% de las empresas a nivel global ya utiliza o explora la integración de inteligencia artificial en sus operaciones.

En España, el número de compañías que aplican estas tecnologías se duplicó entre 2022 y 2024 (COTEC), lo que refleja la madurez digital del país, pero también su mayor exposición a amenazas.

Este avance va acompañado de un aumento de ciberataques dirigidos a modelos de IA (cinco veces más que en 2023, según el Informe de Amenazas de Ciberseguridad 2025 de Check Point), aprovechando vulnerabilidades como el prompt injection o el data poisoning.  A ello se suma el impacto económico: el coste medio de una brecha de seguridad en IA alcanzó los 4,5 millones de euros en 2025, un 15% más que el año anterior (Cost of a Data Breach Report 2025, IBM Security).

El panorama es especialmente preocupante en España, donde casi el 80% de las empresas reconoce haber sufrido incidentes relacionados con inteligencia artificial (Cisco Cybersecurity Readiness Index 2025), y solo el 27% de las pymes españolas dispone de una estrategia de ciberseguridad plenamente implementada (How cyberattackers are targeting SMBs in Europe and Africa in 2025, Kaspersky).

UN MARCO PARA LA IA SEGURA

El informe de DigitalES ofrece una respuesta estructurada ante esta realidad, y propone un enfoque integral que combina cumplimiento normativo, medidas técnicas y fortalecimiento cultural dentro de las organizaciones.

“La inteligencia artificial es una palanca de innovación, pero sin ciberseguridad se convierte en un riesgo estratégico”, explica Miguel Sánchez Galindo, director general de DigitalES. “Este informe ofrece una guía práctica para que las empresas, especialmente las pymes, adopten la IA de manera segura, cumpliendo con la normativa y protegiendo sus activos más críticos: los datos y la confianza de sus clientes”.

PRINCIPALES RECOMENDACIONES

El trabajo subraya la necesidad de incorporar la ciberseguridad desde el diseño —el llamado security by design— en todas las fases del ciclo de vida de la IA, desde la recolección y tratamiento de datos hasta el despliegue y uso de los modelos.

Entre las principales recomendaciones de este informe, se destaca la importancia de implementar un marco de gobernanza robusto que incluya la anonimización y cifrado de datos, el uso de técnicas como differential privacy para evitar sesgos, y la adopción de estándares internacionales como ISO/IEC 42001 para la gestión de sistemas de IA. Además, se insiste en la necesidad de realizar auditorías periódicas y pruebas de robustez, así como en la formación de los equipos en riesgos específicos asociados a la IA.

CASOS SECTORIALES: DEL RETAIL A LA SALUD

El informe también ofrece un análisis detallado de casos de uso sectoriales, como el retail, donde la protección de datos de clientes en chatbots es crítica para cumplir con estándares como PCI DSS; o el sector salud, donde la anonimización de historiales médicos y el cumplimiento del RGPD son prioritarios. En el ámbito de gran empresa, se recomienda la segmentación de accesos para evitar fraudes internos, como la suplantación de identidad, y la implementación de planes de respuesta a incidentes que permitan contener ataques como la inyección de prompts o el robo de modelos.

IA GENERATIVA: INNOVACIÓN CON NUEVOS DESAFÍOS

El estudio también analiza el auge de la IA generativa y de los grandes modelos de lenguaje (LLMs), que democratizan el acceso a la tecnología, pero al mismo tiempo amplían la superficie de ataque. El equilibrio entre transparencia —entendida como trazabilidad y explicabilidad de los modelos—, seguridad y estabilidad —es decir, confiabilidad y comportamiento consistente— se considera esencial para una implantación responsable.

“Proponemos una visión holística que une cumplimiento normativo, medidas técnicas avanzadas y cultura organizacional”, señala Beatriz Arias, directora de Transformación Digital de la asociación. “En un contexto donde el 82% de los ataques se dirigen a modelos de lenguaje*, la prevención no es opcional” resalta Arias.

“El futuro de la inteligencia artificial no depende solo de su capacidad de innovar, sino de la confianza que inspire”, concluye Sánchez Galindo. “Una IA segura es también una IA sostenible, capaz de generar progreso económico, proteger los derechos de las personas y reforzar la resiliencia digital de España y Europa”.

Este informe ha sido elaborado por el Grupo de Trabajo Ciberseguridad e IA de DigitalES, liderado por NTT DATA, y en él han participado como autores expertos de American Tower, ARPA Abogados Consultores, EY, IBM, Nokia y Quobis, además de NTT DATA.

El informe está disponible para su descarga aquí.