https://www.expansion.com/economia/financial-times/2025/11/20/691f422de5fdea9f688b459a.html
¿Puede Bruselas equilibrar su deseo de establecer límites para la tecnología con su necesidad de atraer inversión?

El nacimiento de la Ley de Inteligencia Artificial fue un proceso largo y exasperante.
En diciembre de 2023, los funcionarios europeos trabajaron arduamente durante 36 horas para llegar a un acuerdo sobre la legislación, considerada pionera a nivel mundial. "Vi a mis colegas al límite de su paciencia", comenta Laura Caroli, que participó como asistente de uno de los negociadores clave del Parlamento Europeo y es ex socia sénior del think-tank CSIS.
Había mucho en juego. El éxito significaría que Bruselas lideraría la elaboración de normas integrales para una tecnología que, según las previsiones, transformaría la economía global. "Existía una enorme presión internacional", afirma Caroli.
Finalmente, alrededor de la 1 de la madrugada del 9 de diciembre, los negociadores tenían un acuerdo. El entonces comisario Thierry Breton cambió su chaleco por la chaqueta de traje, los exhaustos legisladores descorcharon botellas de vino espumoso y se dirigieron a hablar con la prensa.
Casi dos años después, el ambiente en Bruselas es decididamente menos triunfal.
La Ley de IA se diseñó para aprovechar el poderío económico de Europa con el fin de obligar a las empresas a crear una "IA fiable" para sus 450 millones de consumidores mediante un enfoque basado en el riesgo: prohibir los usos más perjudiciales, controlar los sistemas de alto riesgo y regular levemente los de bajo riesgo.
Sin embargo, la complejidad de la ley, la apresurada inclusión de modelos de IA como ChatGPT y su caótica implementación han convertido la Ley de IA de un símbolo del liderazgo europeo en un caso de estudio para quienes afirman que el continente prioriza la regulación sobre la innovación.
El miércoles, la Comisión Europea pospuso una parte fundamental de su trascendental normativa sobre la IA, lo que supone el primer reconocimiento formal de que Bruselas tiene dificultades con su propia legislación.
Ahora, funcionarios y empresas se enfrentan a dos interrogantes: ¿Se extralimitó y apresuró en exceso la UE? ¿Cómo puede corregir la regulación para evitar que la economía europea pierda el tren de la IA justo cuando lucha por competir con sus rivales geopolíticos?
Mantenerse en la carrera por el dominio global de la IA es crucial para Europa. Su incapacidad para crear o escalar gigantes tecnológicos ha ampliado la brecha de productividad con EEUU. Tras fracasar en el liderazgo en otras tecnologías, Bruselas aspira a que la UE sea un "continente de IA", pero el bloque tiene dificultades para desarrollar el ecosistema europeo de IA y acelerar la inversión en esta tecnología al nivel de superpotencias mundiales como EEUU y China.
El éxito de la UE en la corrección de su normativa tiene repercusiones que trascienden las fronteras europeas. La Ley de IA representa el primer intento en todo el mundo de regular una tecnología con el potencial no sólo de transformar radicalmente todos los sectores de la economía global, sino también de descontrolarse, con consecuencias impredecibles. Si Bruselas diluye su legislación hasta hacerla irrelevante, surge la pregunta de quién más podrá establecer límites —si es que puede hacerlo alguien—.
ChatGPT
Irónicamente, el impulso europeo para regular la IA tenía como objetivo original fomentar el desarrollo de esta nueva tecnología.
Regular el mercado desde su creación se convirtió en una de las prioridades de la entonces recién creada Comisión de Ursula von der Leyen en 2019. Anunció que presentaría la primera ley mundial sobre IA en los primeros 100 días de su mandato.
En aquel momento, existía la preocupación de que la desconfianza pública en los productos de IA ralentizase el desarrollo de la tecnología en Europa.
Durante la negociación de la ley, los legisladores europeos se vieron fuertemente influenciados por las noticias relativas a la IA procedentes de EEUU, donde las herramientas de reconocimiento facial habían provocado detenciones injustas y diversos algoritmos de calificación crediticia habían conducido a sesgos. Para controlar estos riesgos, Bruselas quería combinar su legislación tradicional sobre seguridad de los productos con la protección de los derechos fundamentales, como la prevención de la vigilancia masiva.
En aquel momento, existía un consenso global sobre la necesidad de regular la IA, explica Caroli. Esto se aplicaba incluso a las grandes empresas tecnológicas. En 2020, Mark Zuckerberg visitó Bruselas para reunirse con altos comisarios europeos, instando a los gobiernos a establecer nuevas normas para el contenido en línea.
También existieron varias iniciativas de gobernanza de la IA que se influyeron entre sí, incluidos los principios de IA de la OCDE y el G7, y una orden ejecutiva de la primera Administración Trump que ofrecía "principios regulatorios" para desarrollar la IA de acuerdo con los valores estadounidenses.
"Cuanto más desarrollemos una IA fiable, mejor posicionada estará Europa para adoptarla: ese era en esencia el objetivo", afirma Gabriele Mazzini, autor principal de la Ley de IA en la Comisión Europea.
Sin embargo, cuando ChatGPT de OpenAI irrumpió en escena a finales de 2022, la Ley de IA —con las negociaciones ya muy avanzadas— se reescribió apresuradamente para incluir normas para modelos de IA de propósito general, sistemas que pueden generar texto, imágenes o código y que pueden implementarse para diversos fines. El borrador original elaborado por el brazo ejecutivo de la UE no hacía referencia alguna a los grandes modelos de lenguaje, que hasta entonces se habían considerado en gran medida experimentales.
La Ley de IA "no es una regulación de ChatGPT", afirma Daniel Leufer, analista sénior de políticas del grupo de derechos digitales Access Now. "Nunca se diseñó para serlo. Y tras el lanzamiento de ChatGPT, se inició un complejo proceso de inclusión forzada".
Además, en marzo de 2023, una carta abierta del Future of Life Institute, firmada por figuras como Elon Musk, el cofundador de Apple Steve Wozniak, los destacados informáticos Yoshua Bengio y Stuart Russell, y el escritor Yuval Noah Harari, solicitó una pausa de seis meses en el desarrollo de sistemas de IA potentes hasta que se implementaran las salvaguardias adecuadas.
Mazzini afirma que esto "distorsionó por completo el debate político". En lugar de limitarse a regular el uso que las empresas y el sector público hacen de las herramientas de IA, los legisladores consideraron entonces la necesidad de regular también la construcción de los propios sistemas de IA, y garantizar que la legislación abarcara los modelos más importantes.
"El Parlamento fue unánime en su deseo de regular al menos ChatGPT", señala Caroli. "¿Qué sentido tiene estar aquí si salimos de esta sala de negociaciones sin regular ChatGPT? Básicamente, seremos completamente ineficaces".
Mazzini también apunta a un "bombo regulatorio en Bruselas que perjudicó el buen resultado de las negociaciones e impulsó una mayor urgencia para cerrar el expediente". Las elecciones al Parlamento Europeo de junio de 2024 se acercaban rápidamente y los negociadores no querían perder la ventana de oportunidad política.
Ese plazo político, la "injerencia" externa y el debate sobre las amenazas existenciales de la IA "crearon una situación en la que parecía haberse perdido el sentido común", afirma Mazzini.
Para Patrick Van Eecke, copresidente del departamento global de ciberseguridad, datos y privacidad del bufete de abogados Cooley, la Comisión cometió un "error fundamental" al inicio del proceso regulatorio al tratar la IA como un producto en lugar de como un proceso.
Según la normativa que rige los productos estáticos, como un ascensor, las empresas deben cumplir los requisitos de seguridad para comercializarlos. Pero si bien un ascensor seguirá haciendo exactamente lo mismo dentro de 20 años, señala Van Eecke, la IA es un proceso dinámico en constante evolución. "Esto hace imposible aplicar requisitos rígidos", explica.
Cuando la Ley de IA entró en vigor oficialmente en agosto de 2024, muchos la consideraron incompleta.
La ley exigía una amplia legislación adicional para establecer códigos de buenas prácticas, directrices y estándares que permitieran a las empresas saber cómo implementarla. Muchas disposiciones entraron en vigor gradualmente, a veces con retrasos e incertidumbre sobre los plazos exactos.
Esto ha generado confusión entre las empresas, afirma Elisabetta Righini, abogada de Sidley Austin que asesora a empresas sobre la Ley de IA. "Incluso a las grandes empresas digitales les lleva tiempo prepararse para el cumplimiento de las nuevas normas", explica. "La ley dejó varios detalles por determinar mediante la implementación de regulaciones y directrices. La incertidumbre nunca es buena para las empresas".
Aunque logren encontrar la manera de cumplir, las empresas afirman que las normas suponen una enorme carga logística, ya que deben evaluar los riesgos de sus sistemas de IA e implementar mecanismos para cumplir con los estándares de transparencia y responsabilidad.
Los costes resultantes crean lo opuesto a la igualdad en el sector, señala Van Eecke, el abogado. "A las empresas más grandes y consolidadas les resultará más fácil cumplir y tendrán incluso una mayor ventaja competitiva que las start up".
Las start up de IA advierten que la situación actual crea un entorno donde las grandes empresas prosperan, mientras que las scaleup (empresas en una etapa de madurez suficiente para crecer) y las start up apenas pueden sobrevivir.
Alexandru Voica, responsable de asuntos corporativos de la start up londinense de IA Synthesia, afirma: "Muchas de estas scaleup nunca alcanzarán el mismo tamaño e impacto que las empresas estadounidenses o chinas, porque están sepultadas bajo toda esta regulación".
Pero las grandes empresas se muestran igual de frustradas con la ley. Grandes tecnológicas como Meta han argumentado que el bloque se está privando a sí mismo del acceso a servicios de vanguardia, ya que las empresas retrasan o evitan implementar ciertas funcionalidades de IA por temor a incumplir la Ley de IA.
En julio, grandes empresas como Airbus, BNP Paribas, Mercedes-Benz y TotalEnergies instaron a la Comisión Europea a suspender la entrada en vigor de la Ley de IA durante dos años para simplificar las normas y dar tiempo a las empresas para implementarlas.
Incluso Mazzini, uno de los artífices de la ley, reconoce ahora que es demasiado amplia, compleja y "no proporciona la seguridad jurídica necesaria".
Rechazo
La indignación pública obligó a la Comisión Europea a cambiar de postura.
La reacción negativa contra la Ley de IA coincidió con un cambio de prioridades en Bruselas. Desde que von der Leyen inició su segundo mandato el año pasado, impulsar la competitividad ha sido el hilo conductor de sus principales propuestas políticas.
Al mismo tiempo, el debate mundial sobre la IA dio un giro radical. El alarmismo sobre los riesgos existenciales de la IA se transformó en una carrera por el dominio global de esta tecnología en rápido desarrollo, una carrera ahora marcada por la lucha de poder entre Washington y Pekín.
Para Henna Virkkunen, que asumió el cargo de comisaria europea Soberanía Tecnológica, Seguridad y Democracia el pasado diciembre, el enfoque ha pasado de la regulación a la innovación y la atracción de inversiones, garantizando que Europa no se quede atrás en materia de IA.
En febrero, Bruselas retiró la normativa prevista para garantizar que las personas perjudicadas por los sistemas de IA disfrutasen de una mayor protección, la denominada Directiva de Responsabilidad por IA, como parte de una iniciativa desreguladora más amplia.
Esta semana, ese cambio de discurso culminó en la propuesta de aplazar la implementación de las normas sobre IA de alto riesgo —una parte fundamental de la Ley de IA— al menos un año.
El aplazamiento es controvertido y aún necesita la aprobación del Parlamento Europeo y de los países de la UE, que están divididos sobre la implementación de esta ley. El aplazamiento de un año tampoco es una pausa indefinida, como sugirió el expresidente del Banco Central Europeo, Mario Draghi.
Aun así, los defensores de la Ley de IA consideran que este paso supone un revés.
Kim Van Sparrentak, eurodiputada del Partido Verde, afirma que el bloque debería seguir estando orgulloso de haber sido el primero en establecer normas para una IA segura, y que esto sigue siendo una ventaja competitiva. Jurisdicciones como Japón, Brasil y California han impuesto normas de transparencia similares a los modelos de IA, por ejemplo.
"La Comisión debería respaldarla y trabajar incansablemente para que sea un éxito", sostiene Van Sparrentak. "Esto significa cumplir con lo prometido y liderar el camino para las empresas y los ciudadanos europeos, no incumplir nuestras promesas en cuanto Trump y las grandes tecnológicas se quejen".
Para otros, como Bengio, ganador del Premio Turing y considerado uno de los "padres" de la IA, las críticas a la Ley de IA son simplemente "propaganda" de empresas que se oponen a la legislación.
Argumenta que la Ley de IA sólo formaliza protocolos de seguridad que los laboratorios de IA ya aplican y aporta mayor transparencia. "Lo que hará es igualar las condiciones para que todas las empresas alcancen el nivel de los mejores actores", explica a FT.
Sin embargo, es evidente que Bruselas considera que aún tiene trabajo por delante para encontrar el equilibrio adecuado entre regulación e innovación en IA, de modo que pueda cumplir su doble objetivo de convertir a las empresas europeas en líderes mundiales en IA y, al mismo tiempo, establecer las normas para el resto del mundo.
Virkkunen, responsable europea de Tecnología de IA, afirmó el miércoles que el bloque sigue respaldando sus altos estándares "porque la regulación de la UE es un sello de confianza para las empresas. Somos el único lugar del planeta que ha definido las reglas del juego de esta manera, para proteger nuestros valores y derechos fundamentales".
Al mismo tiempo, reconoció que la regulación por sí sola no era suficiente."Debemos pasar de la mera elaboración de normas al fomento de la innovación. Nuestras normas no deben ser una carga, sino un valor añadido".
Sin embargo, los críticos afirman que el retraso en la entrada en vigor de la ley anunciado el miércoles sólo complicará aún más las cosas.
Mazzini ha instado a Bruselas a reconsiderar por completo la ley. "Hay tiempo para ser valientes y es hora de decir: 'De acuerdo, tenemos que replantearnos esto por completo'. Creo que esta será la decisión más sabia".
Para otros, es demasiado pronto para volver a empezar de cero cuando la ley aún está en sus inicios.
"Mucha gente está sacando conclusiones precipitadas", afirma Risto Uuk, responsable de política e investigación de la UE del Future of Life Institute, que ha abogado por protecciones más estrictas para los sistemas de IA de alto riesgo. "Y eso probablemente sea prematuro porque en realidad aún no la tenemos. Apenas la estamos implementando".
En cualquier caso, las grandes tecnológicas han logrado imponer en Bruselas la idea de que los dos objetivos —regular al mismo que se innova y adopta la IA— son contradictorios.
Pero no tiene por qué ser así, afirma Anu Bradford, profesora de Derecho de la Universidad de Columbia y artífice del término "efecto Bruselas" en 2012.
El debate sobre la Ley de IA es un "espectáculo secundario" frente a los principales desafíos que enfrenta la competitividad europea, explica, entre los que se incluyen la fragmentación del mercado único, la captación del talento adecuado y la obtención de la financiación necesaria para la innovación.
"La solución al déficit de competitividad europea en materia de innovación no es la simplificación. No vamos a convertiremos en una potencia en IA simplemente derogando la Ley de IA", sostiene Bradford. "Hay batallas más fundamentales por las que debemos luchar, impulsando otras reformas en lugar de limitarnos a discutir sobre cuánto vamos a reducir la legislación".
Al menos, la ley ha situado a Europa en el centro del debate sobre cómo regular la tecnología, señala Dan Nechita, que participó en la negociación de la norma como asistente de uno de los principales negociadores de la Ley de IA en el Parlamento Europeo y que ahora trabaja en la consultora Vanguard Europe.
"Nos dio voz y voto. Nos dio la influencia, la visibilidad y el peso que, lamentablemente, no teníamos entonces en el ámbito de la inteligencia artificial", afirma Nechita.