Noticias
Expertos expresan la necesidad de paralizar los experimentos de IA en pro de la seguridad
Un grupo de empresarios del sector tecnológico, entre los que destaca Elon Musk (director ejecutivo de Tesla), se ha unido para publicar una carta abierta en la que solicita públicamente una paralización mínima de seis meses en los experimentos gigantes de inteligencia artificial. El motivo que dan es que estos grandes avances podrían suponer riesgos importantes tanto para sociedad como para la humanidad.
La carta publicada en la web Future of Life Institute, cuenta con el respaldo del cofundador de Apple, Steve Wozniak y los investigadores estadounidenses y españoles Yoshua Bengio, Stuart Russel, Carles Sierra y Ramón López, entre otros, hasta más de un millar de personas. El tono de la misiva es prácticamente apocalíptico y solicitan una solución urgente para que esa carrera de fondo no se convierta en un descontrol irremediable.
Los sistemas de IA que trabajan con inteligencia humana-competitiva pueden plantear riesgos importantes y transformar la vida de la Tierra, de tal modo que es necesario crear una legislación que restrinja la administración y la planificación de los recursos.
Los avances incontrolados de IA, según apuntan en la carta, suponen riesgos en el intercambio fiable de información, el mercado laboral y la civilización en general, por lo que solicitan que se ralentice el lanzamiento de GPT-4 y posibles nuevas actualizaciones.
Parece el guión de una película de ciencia ficción, pero en la carta se plantea el asunto de que si se permite que se desarrollen nuevas mentes no humanas podrían acabar superándonos en número y en inteligencia, llegándonos a reemplazar y a quedarse con el dominio absoluto de la civilización. Un mensaje de pánico y apocalíptico, aunque con un cierto trasfondo de prudencia y verdad.
La siguiente tarea
Hablan de la necesidad de realizar ‘una larga pausa veraniega de IA’ y evitar apresurarse y caer en errores irremediables. El objetivo es que se aprovechen estos más de seis meses para desarrollar entre todos los expertos una serie de protocolos de seguridad y procesos de auditoría rigurosos que garanticen que los programas futuros fuesen transparentes, sólidos, alineados, leales, confiables, interpretables y transparentes.
La pausa de la que se habla, y en eso hace hincapié el comunicado, no se trata de general, sino un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes y con capacidades altamente emergentes.
Los responsables
Todos los investigadores y laboratorios que trabajan en una lucha incesante por crear un modelo más rompedor de IA son responsables de la situación y de esta carrera de fondo, aunque quizás OpenAI haya sido la más autocrítica. De hecho, la compañía ha abogado por un proceso de revisión independiente que precedería a la capacitación y lanzamientos futuros del sistema, aunque sin poner una fecha concreta al respecto.
El GPT-4 ya estaría planteando capacidades de razonamiento avanzada, ya que es un modelo de aprendizaje artificial que utiliza un lenguaje similar al humano, basado en recibir textos e imágenes para generar texto. De hecho, esta eficiente herramienta se estaría perfeccionando en aspectos académicos y profesionales realmente importantes.
Según señalan en la carta, los responsables también serían los legisladores gubernamentales, quienes deberían implicarse en la configuración de un sistema legal sólido y restrictivo con respecto a la IA. Y es que si los riesgos no son manejables y los efectos no son positivos, entonces sería necesario que los gobiernos impusiesen esta moratoria si las partes implicadas se niegan a la suspensión temporal de las investigaciones.
La solución
Una vez constituidas las nuevas autoridades reguladoras dedicadas en exclusiva a la supervisión y seguimiento de IA de alta capacidad, habrá que configurar sistemas de procedencia y marcas de agua que ayudasen a distinguir las fugas reales de las sintéticas y a rastrear modelos.
También habrá que crear un sólido ecosistema de auditoría y certificación, responsabilidad por daños causados por IA, financiación pública sólida para la investigación técnica de seguridad de IA e instituciones dotadas para frenar las perturbaciones económicas y políticas derivadas de la IA. Al igual que se ha hecho en anteriores ocasiones, con otros modelos tecnológicos, ahora la humanidad necesita parar.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 6 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 6 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace