Estás leyendo
El uso descontrolado de la IA eleva los riesgos de seguridad y cumplimiento en la empresa

El uso descontrolado de la IA eleva los riesgos de seguridad y cumplimiento en la empresa

  • El avance de la shadow AI expone a las empresas a fugas de datos, errores críticos y mayores costes de brechas de seguridad, según datos de IBM y Microsoft.
Seguridad Inteligencia Artificial - La Ecuación Digital

El uso de inteligencia artificial generativa se ha integrado en la rutina diaria de miles de profesionales sin pasar por los circuitos habituales de validación tecnológica. Lo que comenzó como una mejora individual de productividad se ha convertido, en muchas organizaciones, en un factor de riesgo difícil de mapear. La pregunta ya no es si los empleados utilizan IA en su trabajo, sino hasta qué punto las empresas saben cómo, para qué y con qué consecuencias.

Durante años, la shadow IT ha sido un problema recurrente para los departamentos de sistemas. Aplicaciones en la nube, dispositivos personales o servicios externos escapaban al control corporativo. La irrupción masiva de la IA ha amplificado ese patrón. La denominada shadow AI introduce una capa adicional de complejidad porque no solo gestiona información, también la procesa, la transforma y, en algunos casos, toma decisiones de forma autónoma.

El punto de inflexión llegó en 2023, cuando las herramientas de IA generativa alcanzaron una adopción sin precedentes. En apenas semanas, su uso se normalizó en tareas de redacción, análisis, programación o atención al cliente. Sin embargo, esa velocidad contrastó con la lentitud de muchas organizaciones para definir marcos de uso claros. Según datos de Microsoft, el 78% de los usuarios de IA emplea herramientas no proporcionadas oficialmente por su empresa, y seis de cada diez responsables de TI reconocen que la alta dirección carece de un plan definido para su despliegue formal.

Este desfase ha creado un terreno fértil para prácticas difíciles de supervisar. Plataformas accesibles desde cualquier navegador, extensiones que se integran en aplicaciones corporativas o funciones de IA activadas por defecto en software legítimo introducen capacidades que los equipos de seguridad no siempre detectan a tiempo. A ello se suma el auge de la llamada IA agéntica, sistemas capaces de ejecutar acciones encadenadas con mínima intervención humana, lo que desplaza aún más la frontera del control tradicional.

Desde el punto de vista de la seguridad de la información, el riesgo principal es la exposición de datos sensibles. Documentos internos, código propietario, actas de reuniones o información personal pueden acabar procesados y almacenados en infraestructuras de terceros, a menudo fuera del perímetro jurídico de la empresa. Esto abre frentes de cumplimiento normativo en marcos como el RGPD europeo o la CCPA estadounidense, además de incrementar la superficie de ataque. Casos recientes, como incidentes asociados al proveedor chino DeepSeek, han servido de recordatorio sobre la opacidad de algunos entornos y la dificultad de auditar su tratamiento de datos.

El problema no se limita a la confidencialidad. El uso de modelos públicos para programación puede introducir errores lógicos o vulnerabilidades explotables si el código generado no se revisa adecuadamente. En otros casos, modelos entrenados con datos incompletos o sesgados pueden ofrecer recomendaciones que influyen en decisiones empresariales con una base defectuosa. El riesgo es menos visible que una brecha clásica, pero no menos relevante.

Las cifras empiezan a reflejar ese impacto. Un informe de IBM estima que el 20% de las organizaciones sufrió el último año incidentes vinculados al uso no controlado de IA. La presencia de estas herramientas puede elevar el coste medio de una brecha en más de 500.000 euros, a lo que se suman daños reputacionales y posibles sanciones regulatorias. No se trata solo de un problema técnico, sino de un factor que afecta a la continuidad del negocio y a la confianza de clientes y socios.

En este contexto, firmas especializadas en ciberseguridad como ESET advierten de que prohibir de forma indiscriminada el uso de IA suele ser contraproducente. La experiencia con la shadow IT sugiere que las restricciones absolutas empujan a los usuarios a buscar atajos. El reto pasa por reconocer el uso real dentro de la organización, entender qué necesidades cubre y establecer políticas de uso aceptable alineadas con el nivel de riesgo de cada entorno.

Te puede interesar
Malware - Ciberseguridad - La Ecuación Digital

Esa gobernanza implica evaluar proveedores, definir qué tipos de datos pueden procesarse, ofrecer alternativas corporativas seguras y establecer procesos ágiles para la adopción de nuevas herramientas. La formación también juega un papel central. Muchos empleados desconocen que introducir información sensible en una plataforma externa puede tener consecuencias legales o de seguridad a medio plazo.

La IA agéntica añade una capa adicional de incertidumbre. Al delegar tareas completas en agentes autónomos, las empresas deben replantearse conceptos como la trazabilidad, la responsabilidad o la gestión de identidades. Las cuentas asociadas a estos agentes pueden convertirse en objetivos atractivos para los atacantes, y los errores se propagan con rapidez si no existen mecanismos de supervisión.

A corto plazo, el debate no parece orientarse a frenar la adopción de la IA, sino a integrarla en los modelos de control existentes. La cuestión abierta es si las organizaciones serán capaces de adaptar sus estructuras de gobierno y seguridad al ritmo que impone esta tecnología, o si la shadow AI seguirá creciendo en los márgenes, acumulando riesgos silenciosos hasta que se materialicen en incidentes difíciles de contener.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad