El AI Act (Reglamento de Inteligencia Artificial de la UE) es la primera legislación integral del mundo que regula el uso de la inteligencia artificial. Aprobado por la Unión Europea, establece un marco normativo basado en el nivel de riesgo que presenta cada sistema de IA, con requisitos más estrictos para los sistemas de mayor riesgo.
La regulación clasifica los sistemas de IA en cuatro niveles de riesgo: prohibido (manipulación cognitiva, scoring social, identificación biométrica masiva en tiempo real), alto riesgo (sistemas de IA en salud, educación, contratación, servicios públicos), riesgo limitado (chatbots, deepfakes, que requieren transparencia) y riesgo mínimo (filtros de spam, videojuegos, que no tienen requisitos especiales).
Para las empresas, el AI Act implica obligaciones concretas según el tipo de IA que utilicen. Los proveedores de sistemas de alto riesgo deben realizar evaluaciones de conformidad, implementar sistemas de gestión de riesgos, garantizar la calidad de los datos de entrenamiento, mantener documentación técnica y asegurar supervisión humana. Los usuarios de estos sistemas también tienen obligaciones de transparencia y monitorización.
Las sanciones por incumplimiento son significativas: hasta 35 millones de euros o el 7% de la facturación global para las infracciones más graves. La implementación es gradual: las prohibiciones ya están en vigor desde febrero de 2025, los requisitos para sistemas de alto riesgo aplican desde agosto de 2026.
Para un negocio que usa IA (chatbots, automatizaciones con LLMs, análisis de datos), lo más importante es entender qué nivel de riesgo tienen sus aplicaciones de IA y asegurarse de cumplir con los requisitos de transparencia. Si usas un chatbot de atención al cliente, por ejemplo, debes informar a los usuarios de que están interactuando con una IA.