Por primera vez desde que la Inteligencia Artificial (IA) irrumpió en los procesos económicos y políticos globales, esta revolución tecnológica es objeto de una legislación que regula su desarrollo y uso, una iniciativa de la UE recibida con tantas expectativas como objeciones, desde creadores hasta analistas.
La Unión Europea (UE), presionada por la competencia tecnológica de EEUU y China, estableció la primera regulación por ley del uso y el desarrollo de la Inteligencia Artificial (IA), en un intento por encauzar una revolución que impacta en la vida cotidiana de las personas, la economía y la política.
La Ley de Inteligencia Artificial europea fue aprobada en mayo por el Parlamento Europeo (523 a 46 votos, 49 abstenciones), tras el visto bueno de la Comisión Europea de los 27 países miembros, pero regirá progresivamente desde 2025, mientras las empresas para adecuarse a sus normas hasta 2026.
“Esta ley histórica aborda un reto tecnológico global que también crea oportunidades para nuestras sociedades y economías”, resumió Mathieu Michel, secretario de Estado belga para la Digitalización, y destacó sus valores implícitos de confianza, transparencia y responsabilidad, sin afectar la innovación dentro del bloque.
Actualmente, solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en EEUU y cinco veces más en China. Para 2030, se espera que el mercado mundial de la IA alcance los 1,5 billones de dólares. “Tenemos que asegurarnos de que las empresas europeas lo aprovechen sin enredarse en burocracia”, dijo la funcionaria Cecilia Bonefeld-Dahl.
Apenas aprobada la ley, la Comisión Europea pidió a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube y X que detallaran cómo están haciendo frente a los riesgos de la IA generativa.
La UE es pionera, pero la cuestión ya está sobre la mesa en Estados Unidos, con fuerte resistencia de las tecnológicas, que se unen para resistir un proyecto de regulación ya aprobado por el Senado de California (no hay iniciativas a nivel federal), sede de muchas empresas de desarrollo de inteligencia artificial.
El proyecto de ley SB 1047 exige que los desarrolladores de grandes modelos de IA realicen pruebas de seguridad para reducir los riesgos de “daños catastróficos” de su tecnología, ciberataques que causan al menos 500 millones de dólares en daños o víctimas masivas. Los desarrolladores también deben asegurarse de que un humano pueda apagar su IA si comienza a comportarse peligrosamente.
No todo es lo mismo
Una regulación de la IA comenzó a ser debatida en la UE desde 2020, en plena pandemia, cuando la Comisión Europea procuró asegurarse que los sistemas de inteligencia artificial estadounidenses y chinos dominantes promovieran la economía y la comunicación, pero sin afectar los derechos de los europeos.
Por esa razón es una legislación basada primordialmente no en las enormes posibilidades de la IA, sino en el riesgo que conlleva: la doctrina adoptada, en ese sentido, es que cuanto más posible es el daño más severa la norma aplicada.
La ley establece, claramente, esos niveles, de riesgo limitado a alto riesgo. Según esos parámetros, las exigencias van de sólo transparencia a obligaciones. Las penalidades incluyen multas económicas sobre la facturación global (hasta 7%).
Las obligaciones implican para las compañías tecnológicas evaluar riesgos, adoptar medidas de mitigación y controlar los sesgos en el uso de la IA, en la seguridad pero también en la salud y en la educación. Así, se prohíbe la captura indiscriminada de imágenes faciales de Internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
Los sistemas de IA capaces de manipular el comportamiento cognitivo de las personas y de “puntuación social” de los ciudadanos (como China) están directamente prohibidos en la ley, así como los que pretendan imponer diferencias étnicas y de orientación sexual de parte de fuerzas de seguridad, o en juguetes que utilicen la asistencia vocal para incitar a comportamientos peligrosos a niños/as.
La legislación contempla los populares modelos de IA generativa -como Chat GPT o Gemini- como de propósito general, o modelos que pueden realizar tareas a un nivel cercano al humano, sin “riesgos sistémico” y con requisitos y obligaciones limitados, como transparencia sobre su funcionamiento, derechos de autor y ciberseguridad en bots usados desde hace casi una década y los más recientes deep fakes.
Prevenidos, las estadounidenses Meta y Apple anunciaron el congelamiento de sus planes de comercialización de modelos de IA por el avance de la legislación europea, que había dado un primer paso con la Ley de Mercados Digitales.
A la vez que vela por los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental, la ley de la UE pretende impulsar la innovación en IA para convertir a Europa en actor competitivo del sector.
“Se prohibirán en Europa prácticas inaceptables de IA y se protegerán los derechos de los trabajadores y los ciudadanos. La nueva Oficina de IA (órgano de aplicación) ayudará a las empresas a respetar las normas antes de que entren en vigor. Nos aseguramos de que los seres humanos y los valores europeos estén en el centro mismo del desarrollo de la IA”, argumentó el eurodiputado italiano Brando Benifei.
Menos optimista, el rumano Dragos Tudorache advirtió que “hay mucho trabajo por delante que va más allá de la propia ley” porque la IA “obliga a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra”.
Objeciones
Fuera del aparato estatal, las objeciones llegaron con la aprobación de la ley. Max von Thun, director del Open Markets Institute, señaló “importantes lagunas jurídicas para las autoridades públicas” y “una regulación relativamente débil de los modelos de base más grandes que plantean los mayores daños”.
Preocupado por el rol de los monopolios tecnológicos en la revolución de la IA, Thun consideró que la nueva ley “es incapaz de abordar la principal amenaza que plantea: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnológicas dominantes ya tienen en nuestras vidas personales, nuestras economías y nuestras democracias”, afirmó.
Otros, como Katharina Zügel, del Foro sobre Información y Democracia, cuestionaron la clasificación de riesgos que hace la ley. “Los sistemas de IA utilizados en el espacio de la información deberían clasificarse como de alto riesgo, lo que les obligaría a cumplir normas más estrictas” por su impacto en derechos fundamentales.
“Las empresas privadas no pueden ser las únicas que dirijan nuestro futuro común. La IA debe ser un bien público”, sentenció, frente a quienes reivindican el rol privado en la competencia por el desarrollo de IA.
En ese sentido, pequeñas y medianas empresas consideran que se les impone un umbral muy alto de condiciones que sí pueden alcanzar los gigantes. “Esta decisión tiene un sabor agridulce”, dijo Marianne Tordeux Bitker, de France Digitale. “Creará barreras regulatorias adicionales que beneficiarán a la competencia estadounidense y china y reducirá nuestras oportunidades”.
Optimistas y pesimistas
En un comentado artículo escrito en 2023, Sam Altman (foto), CEO de OpenAI, creadora del Chat GPT, había reivindicado la revolución en marcha de la IA describiéndola como parte de la “curva exponencial” del progreso tecnologico.
“A las tres grandes revoluciones tecnológicas -agrícola, industrial e informática- se añadirá una cuarta: la revolución de la IA. Esta revolución generará riqueza suficiente para que todo el mundo tenga lo que necesita, si como sociedad la gestionamos de forma responsable”, vaticinó Altman.
Según el desarrollador, con la IA produciendo la mayoría de los bienes y servicios básicos del mundo, la gente quedará libre para pasar más tiempo con sus seres queridos, cuidando de los demás, disfrutando del arte y la naturaleza, o trabajando por el bien social.
“Por lo tanto, deberíamos centrarnos en gravar el capital en lugar del trabajo, y deberíamos utilizar estos impuestos como una oportunidad para distribuir la propiedad y la riqueza directamente entre los ciudadanos. En otras palabras, la mejor manera de mejorar el capitalismo es permitir que todo el mundo se beneficie directamente como propietario”.
E insistió: “Un gran futuro no es complicado: necesitamos tecnología para crear más riqueza y una política para distribuirla equitativamente. Todo lo necesario será barato y todo el mundo tendrá dinero suficiente para permitírselo. Como este sistema será extremadamente popular, los políticos que lo adopten rápidamente se verán recompensados: ellos mismos se harán extremadamente populares”.
“Durante la Gran Depresión, Franklin Roosevelt fue capaz de poner en marcha una vasta red de seguridad social que nadie habría creído posible cinco años antes. Hoy vivimos un periodo similar”, resumió Altman.
En cambio, el conocido economista del Instituto Tecnológico de Massachusetts (MIT) Daron Acemoglu (foto) ha afirmado que la IA es una promesa de hace por lo menos seis décadas que se está “desaprovechando por completo”, porque quedó bajo el dominio de modelos de negocio y la ideología del sector tecnológico.
“Esa promesa, se está desperdiciando por completo. No es ahí adonde nos dirigimos. Si esperan que mejore las herramientas de electricistas y plomeros, tiene mucho que esperar. Nos dirigimos en una dirección muy diferente”, expuso en una conferencia sobre el tema de la Universidad de Glasgow.
Según su mirada, “la verdadera forma de aumentar la productividad no es simplemente automatizar el trabajo humano” sino “utilizar la tecnología para complementar a los humanos”, proporcionando “mejores conocimientos técnicos, nuevas herramientas para los humanos”.
¿Por qué vamos en esa dirección, según Acemoglu? Porque la ambición de las grandes compañías, porque “el modelo empresarial está muy centrado en el uso de herramientas digitales para reducir costes” y porque “el sector tecnológico está cada vez más centrado en encontrar formas de alcanzar la paridad humana, que es cada vez más para la automatización”.