Conecta con nosotros

Noticias

Por fin tenemos una definición para la Inteligencia Artificial Open Source

Publicado el

Oracle lanza una nueva oferta de hardware para IA con el apoyo de Nvidia

En el último año, el desarrollo de la inteligencia artificial ha llevado a que cada vez sean más las instituciones y organizaciones las que impulsen modelos Open-Source, que se muevan al margen (aunque no siempre necesariamente) de las motivaciones comerciales.

Ese posicionamiento un tanto ambiguo ha provocado que no sea sencillo determinar exactamente qué es una IA Open Source y con qué características debe cumplir para posicionarse en este campo. Ahora finalmente tenemos una respuesta, o más bien, «la respuesta».

The Open Source Iniative (OSI), una organización sin ánimo de lucro cuya misión es precisamente la de determinar qué significa ser Open Source, acaba de publicar una definición que espera pueda ser de utilidad para los legisladores, ayudándoles a desarrollar regulaciones para proteger a los consumidores de los riesgos de la IA.

Para ello ha trabajado con 70 personas de distintos campos, contando para ello con investigadores, abogados, políticos y activistas, así como representantes de grandes empresas tecnológicas como Meta, Google o Amazon.

La principal conclusión a la que han llegado es que un sistema de IA open source es aquel que puede ser utilizado para cualquier propósito sin la necesidad de obtener permiso; además los investigadores deberían poder inspeccionar sus componentes y estudiar cómo funciona el sistema de forma transparente.

Otro aspecto importante es que debería ser posible modificar el sistema para cualquier propósito, incluso cambiar los resultados que proporciona, y compartirlo con terceras partes para que lo utilicen con o sin modificaciones, en cualquier otro fin. Además el grupo aboga por definir el nivel de transparencia que deben tener los datos con los que ha sido entrenado el modelo, su código fuente y el número de parámetros empleados.

La faltad e un estándar de código abierto presentaba un problema. Es cierto que por un lado, la decisión de OpenAI y Anthropic de mantener sus modelos, conjuntos de datos y algoritmos en secreto hacen que su IA sea de código cerrado; pero al mismo tiempo, algunos expertos argumentan que los modelos de Meta y Google, que teóricamente son de libre acceso y se presentan como Open Source en realidad no lo son, ya que sus licencias especifican qué es lo que se puede y no se puede hacer con los mismos y sus datos de entrenamiento no son públicos.

En este sentido, la falta de transparencia sobre el origen de los datos de entrenamiento ha originado diversas demandas contra grandes empresas de inteligencia artificial, desde creadores de modelos de lenguaje como OpenAI hasta generadores de música como Suno, que no revelan mucho sobre sus conjuntos de entrenamiento más allá de decir que contienen «información accesible públicamente».

En respuesta, desde la OSI argumentan que los modelos Open-Source deberían hacer públicos todos sus conjuntos de entrenamiento, un estándar que pocas compañías se atreven a aplicar, debido a la más que notoria infracción de derechos de autor que contienen esos entrenamientos.

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído