Conecta con nosotros

Noticias

Un grupo de empresarios se une contra la nueva Ley de IA de la UE y alertan de los riesgos de competitividad

Publicado el

Una nueva misiva pública ha sido escrita por un grupo de empresarios para manifestar públicamente, contra los principales órganos de gobierno de la UE, sus quejas frente a las excesivas restricciones que impone la nueva Ley de IA. Abogan porque existan regulaciones, pero que éstas fuesen más flexibles en pro de la eficiencia, la productividad y la competitividad con el mercado estadounidense.

Casi 170 empresarios se han unido contra la Comisión, el Consejo y el Parlamento Europeo después de que hace pocos días se otorgase la luz verde definitiva al proyecto de Ley de Inteligencia Artificial de la UE. No obstante, su aprobación definitiva se estima que llegará a finales de 2023.

No es la primera vez que existe cierto temor a la expansión sin límites de la IA generativa. Ya en marzo, el grupo de inversión Goldman Sachs emitió un informe en el que detallaba las consecuencias de la IA. La cara positiva es que podría incrementar el PIB mundial y anual en un 7% en un período de diez años, mientras que la cara negativa es que la automatización podría suponer la pérdida de 300 millones de trabajadores a tiempo completo en las economías más potentes.

Sus peticiones

En la nueva carta afirman que el gasto para cumplir con la nueva Ley sería excesivo y los riesgos de responsabilidad desmedidos. Todo ello provocaría entre las empresas europeas una brecha de productividad crítica en comparación con EEUU, especialmente en el caso de la IA generativa. La consecuencia más inminente, aseguran, sería que muchas empresas saliesen al exterior para poder operar con todas las garantías.

Hay que tener en cuenta que los LLM tendrá una ventaja competitiva decisiva, reemplazando a los motores de búsqueda y consolidándose como los asistentes de la vida personal y profesional cotidiana, incidiendo tanto en la cultura como en la economía europea.

Aseguran que las pruebas de seguridad antes de la introducción de nuevos modelos y la revisión del contenido generado por IA son requisitos que deben cumplirse. No obstante, consideran que la legislación europea debería limitarse a establecer principios generales sobre los riesgos, recayendo su aplicación sobre un organismo de expertos de la UE.

También solicitan la construcción de un marco transatlántico que garantice la credibilidad y la creación de una serie de condiciones jurídicas equitativas. Solo de ese modo, afirman, podrá consolidarse una normativa justa y en pro de la productividad europea.

La normativa regulará la IA según el nivel de riesgo, de tal modo que cuanto mayor peligro supusiesen para los derechos o la salud de las personas, mayores serían las obligaciones. En algunos casos, como en el de la manipulación cognitiva de personas o grupos vulnerables, ésta podría llegar a ser completamente restrictiva.

Las mayores restricciones de la nueva Ley

Todos los empresarios que se han unido en la nueva carta abierta acusan a la UE de dañar su propia soberanía tecnológica con esta nueva normativa. Y es que en algunos casos la IA no podrá emplearse, como sucederá con el reconocimiento facial en tiempo real en espacios públicos.

De este modo, si se contase con instrumentos eficientes se podría garantizar la seguridad frente a atentados terroristas o para buscar a personas desaparecidas. No obstante, requerirán de una autorización judicial y hacer constar que se trata de una operación temporal.

Otras herramientas deberán cumplir con determinados requisitos si quieren operar en suelo comunitario. Es el caso de los sistemas basados en IA como ChatGTP, DALL-E o Midjourney, que pueden generar contenido libremente a demanda del usuario.  La Ley les exige cumplir con los derechos de autor y velar por la seguridad de las personas. Además, sus desarrolladores deberán evitar que se creasen contenidos ilegales.

Los últimos comunicados públicos

A finales de mayo, los líderes de los países miembros del G7 se unieron para fijar una serie de estándares técnicos de regulación de la IA en base a su crecimiento. De este modo, se conseguiría que su avance fuese en sintonía con los objetivos democráticos compartidos y que fuese una tecnología segura, confiable y no discriminatoria.

Todo pasa por cinco claves: el estado de derecho, las garantías legales, la democracia, el respeto por los derechos humanos y el aprovechamiento de oportunidades para promover la innovación. De hecho, Rusia y China fueron acusadas de emplear la IA para vigilancia interna y externa. En aquella ocasión, acordaron crear un foro ministerial bautizado como ‘Proceso de IA de Hiroshima’ para discutir temas relacionados con la IA y aspectos clave como los derechos de autor y la desinformación.

Anteriormente, en marzo, un grupo de expertos en IA liderados por Elon Musk, solicitaron una pausa de seis meses en el desarrollo de los sistemas más potentes.

Un proyecto a largo plazo

Los planes originales de la UE para regular el uso de la IA se remontan al año 2021, aunque después de que ChatGPT comenzase a triunfar, la normativa empezó a desarrollarse más rápidamente. A pesar de que se quiere alcanzar un acuerdo común con los 27 estados miembros, no se espera que la Ley entre en vigor hasta 2026, por lo que se obligará a los organismos europeos a negociar un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.

Lo más leído