Imagen editorial para el post: La AI Act trae una pregunta incomoda: que IA se esta usando ya dentro de tu empresa?
REGULACION

La AI Act trae una pregunta incomoda: que IA se esta usando ya dentro de tu empresa?

La prioridad ya no es solo adoptar IA, sino saber con mayor claridad que herramientas, asistentes y automatizaciones han entrado ya en la organizacion

FORENSE | 15 de enero de 2026 | 4 min lectura Compartir

Hay una escena que ya se repite en muchas empresas, aunque casi nadie la describa así. Un equipo usa IA para resumir documentación. Otro la usa para preparar propuestas. Otro para clasificar tickets. Otro para redactar campañas. Desde comité todavía puede parecer que la organización “está explorando”. Pero abajo, en el trabajo real, la IA ya está metida en tareas cotidianas, pequeñas decisiones y flujos que nadie trata como un proyecto formal.

Por eso la AI Act no debería leerse solo como un texto sobre riesgos altos, prohibiciones o grandes proveedores. También obliga a hacerse una pregunta bastante más incómoda y bastante más operativa: qué herramientas, asistentes, modelos y automatizaciones con capacidades de IA se están usando ya dentro de la empresa, quién las usa y sobre qué datos están trabajando.

La pregunta importa porque la IA rara vez entra por una puerta solemne. En muchas organizaciones aparece por urgencia, por comodidad o porque negocio detecta valor antes de que el marco esté claro. Y ahí nace el desfase: arriba se sigue hablando de futuro; abajo ya hay uso real.

Lo primero que obliga a mirar la AI Act

Para muchas empresas, la primera consecuencia no es técnica. Es organizativa. Si tienes que formar, supervisar, documentar y gobernar el uso de IA, antes necesitas saber qué existe, dónde está y para qué se está usando. La propia Comisión Europea, en sus materiales sobre alfabetización en IA, deja una idea difícil de esquivar: no puedes asegurar un nivel suficiente de conocimiento y supervisión si ni siquiera tienes una visión mínima del terreno.

Eso baja la conversación a algo mucho más concreto. Antes de discutir políticas sofisticadas, hay que responder preguntas bastante básicas:

  • Qué sistemas, servicios o funciones con capacidades de IA están ya en uso.
  • Qué áreas los utilizan y con qué objetivo práctico.
  • Qué datos internos, personales, sensibles o estratégicos pasan por esos flujos.
  • Qué validación humana, límites de uso y evidencias existen hoy.

Sin ese punto de partida, la conversación sobre cumplimiento corre el riesgo de quedarse en el discurso. Y ahí es donde muchas organizaciones empiezan a levantar una política sobre una realidad que todavía no conocen bien.

Lo que suele estar pasando de verdad

En empresa, esto rara vez adopta la forma de un gran despliegue oficial. Suele aparecer de manera mucho más dispersa. Un área compra o prueba una herramienta. Otra activa funciones de IA dentro de un software que ya usaba. Otra automatiza una parte del trabajo porque necesita velocidad y no quiere esperar a que todo quede definido. Nada de eso implica por sí solo descontrol. Pero sí deja una señal clara: la adopción suele ir bastante más rápido que la gobernanza.

Y cuando esa distancia crece, también crece la dificultad para responder con rigor a preguntas muy simples. Qué se usa. Quién lo usa. Para qué. Con qué datos. Bajo qué límites. Con qué supervisión. No es un problema de relato. Es un problema de visibilidad.

  • No basta con aprobar una policy general de IA.
  • No basta con autorizar una herramienta corporativa y asumir que el resto desaparece.
  • No basta con confiar en que IT o seguridad van a ver por sí solos todo lo relevante.
  • No basta con formar si antes no existe un mapa mínimo del uso real.

La lectura que debería hacer dirección

La AI Act no pide una reacción teatral ni un freno indiscriminado. Pide algo bastante más serio: que la organización pueda explicar con criterio cómo está entrando la IA en su operación. Y esa explicación no debería apoyarse en impresiones generales ni en la sensación tranquilizadora de que “todavía estamos en una fase temprana”.

La pregunta útil para dirección es mucho más directa. Si mañana comité, auditoría interna o legal te pidieran una fotografía del uso real de IA en la empresa, ¿podrías sostenerla con evidencia o tendrías que reconstruirla a base de intuición, memoria informal y conversaciones sueltas?

Ahí está el punto de inflexión. No en prometer control absoluto, sino en construir una base verificable: inventario, trazabilidad, responsables, usos permitidos, usos dudosos y flujos que merecen revisión. Sin esa base, la empresa no gobierna la IA. Simplemente convive con ella.

  • La cuestión ya no es si tendrás una política de IA.
  • La cuestión tampoco es si habrá herramientas de IA dentro de tu organización.
  • La cuestión real es si puedes explicar con claridad cómo, dónde y para qué se está usando ya.

Quieres saber mas?

Auditar uso real de IA
F

FORENSE

Analisis y reflexiones sobre gobernanza de la informacion, riesgo operativo y ecosistemas digitales.

RELACIONADOS

← Volver al Blog