Noticias
¿Deben las grandes tecnológicas participar en programas militares IA?
Un grupo de empleados de Microsoft han publicado una carta abierta en la que expresan su oposición a que su compañía opte a un contrato para crear servicios en la nube en programas militares IA para el Departamento de Defensa de Estados Unidos.
Hace una semanas, Microsoft expresó su intención de ofertar por un contrato denominado Enterprise Defense Infrastructure (JEDI), bajo la capacidad de Azure y sus tecnologías de Inteligencia Artificial. El proyecto es secreto, lo que hace que sea casi imposible saber qué tecnologías estaría construyendo Microsoft, si bien el Director de Gestión del Departamento de Defensa explicó el impacto del programa: «Tenemos que ser muy claros. Este programa realmente trata de aumentar la letalidad de nuestro departamento«.
Esto ha provocado el posicionamiento contrario de un grupo de empleados. «Muchos empleados de Microsoft no creemos que lo que creamos deba usarse para librar la guerra. Cuando decidimos trabajar en Microsoft, lo estábamos haciendo con la esperanza de «capacitar a cada persona en el planeta para lograr más», no con la intención de poner fin a la vida y mejorar la letalidad«.
«Para aquellos que dicen que otra compañía simplemente recogerá JEDI donde Microsoft lo deja, les pediríamos a los trabajadores de esas compañía que hagan lo mismo. Una carrera hacia el fondo no es una posición ética. Al igual que aquellos que tomaron medidas en Google , Salesforce y Amazon, pedimos a todos los empleados de las empresas de tecnología que pregunten cómo se usará su trabajo, dónde se aplicará y actúen de acuerdo con sus principios».
Necesitamos poner a JEDI en perspectiva, explica el grupo. «Este es un proyecto secreto de 10.000 millones de dólares con la ambición de construir una fuerza militar «más letal» supervisada por la Administración Trump. Los trabajadores de Google que protestaron por estas colaboraciones y forzaron a la compañía a tomar acción vieron esto. Nosotros también. Entonces preguntamos, ¿cuáles son los Principios de AI de Microsoft, especialmente con respecto a la aplicación violenta de la poderosa tecnología de AI? ¿Cómo sabrán los trabajadores que construyen y mantienen estos servicios, en primer lugar, si nuestro trabajo se está utilizando para ayudar a crear perfiles, vigilancia o matanza?»
Ética empresarial en programas militares IA
Los empleados de Microsoft no son los primeros. El pasado verano, Google descartó participar en el Projecto Maven (un programa militar de inteligencia artificial y aprendizaje automático impulsado por el Departamento de Defensa de Estados Unidos) tras la «rebelión» de más de 6.400 empleados.
Los empleados de Google contaron con el apoyo de un importante número de científicos y académicos (300 expertos en robótica, inteligencia artificial, relaciones internacionales, seguridad, ética y derecho) que pusieron en el punto de mira a todas las tecnológicas señalando «una peligrosa alianza entre la industria tecnológica privada, actualmente en posesión de grandes cantidades de datos personales confidenciales recabados de personas de todo el mundo, y el ejército de un país”.
Amazon también se ha enfrentado a duras críticas por suministrar tecnología de reconocimiento facial a las fuerzas del orden de Oregón y Orlando, en documentos obtenidos por la Unión Estadounidense de Libertades Civiles mediante una petición por la Ley de Libertad de Información, usada para vigilancia masiva y que podría afectar sobre todo a los colectivos y comunidades más vulnerables, personas que no son blancas e inmigrantes.
La misma Microsoft es consciente de esta problemática y Brad Smith, presidente y responsable jurídico de Microsoft, abordó la cuestión en una entrada en el blog de la compañía bajo dos ideas que a su juicio son fundamentales, «este tipo de tecnologías necesitan regulación pública y responsabilidad corporativa”.
El grupo de empleados de Microsoft recuerda este posicionamiento y reclama «no traicionar estos principios a cambio de ganancias a corto plazo». «Si Microsoft debe rendir cuentas de los productos y servicios que hace, necesitamos pautas éticas claras y una responsabilidad significativa que rija cómo determinamos qué usos de nuestra tecnología son aceptables y cuáles no. Microsoft ya ha reconocido los peligros de la tecnología que construye, incluso pidiendo al gobierno federal que regule las tecnologías de inteligencia artificial. Pero no hay ninguna ley que impida a la empresa ejercer su propio escrutinio interno y defender su propia brújula ética».
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 7 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace