Conecta con nosotros
Pilar Santamaría, VP de IA en SUSE y responsable de SUSE AI Pilar Santamaría, VP de IA en SUSE y responsable de SUSE AI

Entrevistas

«Con SUSE AI queremos materializar la democratización de la IA para todo el mundo»

Pilar Santamaría

Vicepresidente de IA

SUSE

Publicado el

Pilar Santamaría es la vicepresidenta de inteligencia artificial en SUSE y la responsable de SUSE AI, la iniciativa que recoge la visión y estrategia de la compañía para una IA generativa abierta a nivel empresarial. El anuncio de SUSE AI fue uno de los más destacados en la última SUSECON 24 celebrada en Berlín y allí nos reunimos con ella para realizar esta entrevista.

Acabáis de presentar SUSE AI. ¿Cuáles son los pilares sobre los que se fundamenta la propuesta?

Básicamente queremos materializar la democratización de la IA para todo el mundo. Y creemos que eso no es una realidad en este momento porque existen retos. Uno de los más importantes es tener que entregar tus documentos confidenciales a un tercero, algo que muchísimas empresas o incluso personas no pueden hacer. Otro reto es que la información personal sea exportada por esas herramientas a otro lugar del planeta, cosa que incumple la GDPR. Por lo tanto, los departamentos que se embarcan en la IA generativa pasan muchísimo tiempo intentando ver si algo se adapta a la normativa y si tiene la seguridad de grado empresarial adecuada para poder hacerlo y las soluciones que existen en el mercado no lo proporcionan.

Cuando tienen que hacerlo con instancias locales se dan cuenta de que no tienen los recursos de IA porque esas instancias te obligan a construir todo el entorno y a construir toda la solución de IA para poder ejecutarlo. Y luego está el coste. La dinámica del mercado gira en torno a un Shadow AI donde la mayor parte de las empresas están haciendo IA, pero a través de las tarjetas de crédito de las personas, que contratan por su cuenta soluciones de software como servicio o soluciones de GPT que generan además un coste sobre cuotas de suscripción y tokens, con lo cual, muchas veces se quedan muy a medias en lo que pueden lograr en términos de innovación y en términos de productividad.

SUSE AI es una solución fácil de desplegar para todo el mundo. Se despliega rápidamente, es turnkey, es decir, llave en mano y cumple con la reducción de riesgos de la normativa porque se ejecuta localmente, en cloud u on-premises. El cliente puede decidir que se ejecute en su entorno, que ya está certificado y es de confianza. Es muy distinto a tener que entregar la información confidencial a un tercero que no tiene las certificaciones y que no es parte de su entorno de confianza. Y todo ello con libertad de coste. De tal forma que si tú tienes esta solución corriendo localmente ya te puedes olvidar de un sistema de tokens o de pago.

Otro aspecto fundamental es que damos libertad a la hora de elegir el Large Language Model (LLM). Los clientes pueden elegir el modelo que quieran: si quieren un modelo de pago, lo pueden tener, si quieren un modelo de código abierto, también. Este aspecto es muy importante porque los LLM están siendo comoditizados, hay una batalla por generar nuevas funcionalidades, por innovar y salen diariamente.

Ahora mismo se están diferenciando en exactitud e indemnidad. La indemnidad es porque lo que los LLM generan puede estar expuesto a copyright. La indemnidad es un seguro que protege a los clientes si eso pasara y recibieran una reclamación. Pero los clientes no quieren gestionar reclamaciones. Lo que quieren es un modelo que no tenga ese riesgo, como es lógico, y ya hay LLM que empiezan a entrenarse con datos sintéticos que no van a tener ese riesgo. Ahora tenemos LLM con behaviorknowledge y skills; comportamiento, conocimiento y capacidades y en el futuro tendrán solo las capacidades, con lo cual eliminaremos el sesgo, las opiniones propias o tendenciosas y la influencia específica; y también el conocimiento, para que se prevenga la alucinación, que es uno de los factores de riesgo, y es que aunque tengamos noventa y pico por ciento de exactitud, en la industria todos sabemos que nunca es del cien por cien.

Siguiendo la filosofía de SUSE, SUSE AI es modular, con lo cual los clientes van a tener el soporte de SUSE para poder implementarlo. Además, SUSE AI es una solución completamente abierta.

¿Cómo planea SUSE diferenciarse en un mercado saturado de soluciones de IA, especialmente con respecto a la IA generativa y el aprendizaje profundo?

El aprendizaje profundo es algo que lleva en el mercado muchísimos años. Nosotros nos diferenciamos a través de asociaciones. Estamos trabajando en una solución fundamental de entrenamiento de modelos, pero no es nuestro propósito. Nuestro propósito es dar espacio a los socios que ya tenemos en ese entorno (por ejemplo, Amazon SageMaker), darles ese espacio y respetar ese ecosistema a la vez que colaboramos con él. Aunque sí que estamos trabajando en ofrecer una alternativa, o sea, una solución básica, colaboramos con socios.

En el entorno de Generative AI, que es donde estamos más enfocados en este momento con SUSE AI, porque es Generative AI, nos diferenciamos con una solución abierta, privada y que permite total libertad de elección. En el despliegue, on-prem y cloud, en el Large Language Model. De esa forma es como nos diferenciamos: con la libertad de elección. No forzando ningún LLM, no forzando ninguna plataforma de computación… Con total apertura. Siendo Open Source.

Y vamos a tener mayor diferenciación en innovación. Ahora somos la primera solución en el mercado que se diferencia por estos aspectos juntos y esto capacita a las organizaciones a usar inteligencia artificial generativa, cosa que antes no podían debido a regulación, seguridad, e incluso su propia preferencia. A no compartir datos confidenciales con terceros. Seguimos trabajando adicionalmente en innovación y todo irá en esta misma línea: sobre una base abierta. Después también pienso que la diferenciación se produce por tecnología, asociaciones y modelos de negocio. Todo a la vez.

¿Qué ventajas crees que ofrece el enfoque de código abierto de SUSE para la IA en comparación con las soluciones privativas?

Pues ahora, en este momento, la mayor parte del mercado de los LLM y la inteligencia artificial generativa es de modelo cerrado y, según indican las últimas encuestas, el 84% de los clientes que ahora mismo están haciendo uso de estas soluciones, principalmente con el líder del mercado, tienen la intención de migrar hacia soluciones de código abierto a partir de este año. Y no es solo cuestión de costes, sino de control.

Las soluciones de Open Source y los valores de Open Source son válidos para la inteligencia artificial y no existía una propuesta que los cubriera y de cuyos valores la gente se pudiera beneficiar. Entonces, aporta las ventajas de cocreación, de colaboración y de, básicamente, tomar de una forma colectiva nuestro propio control de la inteligencia artificial, de tal forma que no pertenezca ya a una oligarquía digital, sino a la comunidad. Y ese propósito de Open Source, de colaboración y de tomar control de una forma colaborativa, pero ser activos en nuestro destino también aplica a inteligencia artificial. Hasta ahora no era una realidad.

OpenAI no hace honor a su nombre…

Yo creo que hay muchísima controversia al respecto. En todo caso, una cosa es el Large Language Model, para el que nosotros vamos a dar total elección: hay LLM que son de código abierto, hay otros propietarios y nosotros damos libertad… Por lo que acabo de decir antes, y es que un LLM puede ser muy apropiado para un caso de uso, y otro no. Entonces queremos dar esa libertad, para que incluso los clientes puedan cambiar de uno a otro con un clic, sin que haya un lock-in. Esto es súper importante: no queremos lock-in. Defendemos que no haya dependencia de proveedor con una solución modular, que los clientes puedan cambiar de LLM según su preferencia. OpenAI no está corriendo on-prem. Eso fuerza a que tanto el prompting como los documentos con los que queramos trabajar que sean confidenciales, no puedan hacerlo de forma privada, con un diseño privado. Pero si un cliente quiere usar OpenAI, puede hacerlo, porque nuestra solución lo permite. Ya no será privado, pero damos esa libertad.

Uno de los aspectos de SUSE AI en los que más se ha puesto el acento es en la privacidad y la seguridad, dos términos con connotaciones similares, pero que no son exactamente lo mismo. ¿Qué papel juegan ambos en la estrategia de IA de SUSE y cómo se garantizará que sean prioritarios?

SUSE AI es privada por diseño. También es segura por diseño. Es una solución que se ejecuta localmente. Si un cliente quiere abrirla, puede hacerlo, pero dentro del firewall. Puede utilizar un modelo que use internet y que esté en el exterior, pero no tiene por qué hacerlo, ya que su modelo se puede ejecutar localmente. Y eso es realmente importante, puesto que la mayor parte de modelos hasta ahora en Generative AI se ejecutan fuera del cortafuegos.

SUSE AI es un producto… ¿que se distribuye como servicio, o es una plataforma de software independiente, como por ejemplo SUSE Linux Enterprise? En este caso y dado que se trata de una propuesta de código abierto ¿cualquiera puede acceder al software y ejecutarlo con plenitud o hay algún tipo de limitación?

SUSE AI es una serie de productos que van a estar empaquetados y que además podrán integrarse con otros servicios de SUSE, pero es un modelo Open Source, por lo que cuando lo lancemos en noviembre, va a estar visible y libre. De hecho, los clientes que forman parte del Early Access Program ya tienen acceso a todo el software, lo pueden reutilizar… Pueden utilizar todos los elementos de SUSE AI, van a tener acceso a ellos. SUSE AI es plenamente código abierto.

Acerca del Programa de Acceso Anticipado. ¿Podrías explicarnos más sobre este programa y cómo las empresas pueden beneficiarse de él? En el mismo sentido, ¿qué medidas está tomando SUSE para fomentar la colaboración y la innovación en el campo de la IA en este ámbito?

El programa de acceso anticipado de SUSE AI ya está disponible. La forma de solicitarlo es a través de nuestra página web o a través del equipo comercial de SUSE. Es un framework donde vamos a poner en contacto a nuestros expertos con los clientes y vamos a ayudarles a empezar a utilizar SUSE AI. Es además un espacio donde escuchar el feedback de los usuarios, añadir mejoras en relación a este y coinnovar juntos. Este programa tiene una serie de servicios de consultoría asociados para acompañar a los clientes, porque uno de los grandes retos de comenzar con la inteligencia artificial generativa es contar con los recursos asociados.

En paralelo también estamos coinnovando con nuestros socios, lo cual favorece las opciones y posibilidades para toda nuestra base de clientes. De hecho, se ha presentado aquí en SUSECON alguna solución conjunta con socios como Fujitsu, y vamos a seguir con esa filosofía, la de fomentar que haya opciones en el mercado. Estamos trabajando en eso, en la coinnovación con nuestros partners y vamos a seguir haciéndolo, incubando soluciones que sigan innovando en este espacio.

En términos de implementación ¿cómo se planea integrar de SUSE AI con las soluciones existentes de la empresa?

SUSE AI se integra con SUSE Linux Enterprise Micro, con Rancher y con NeuVector de manera escalable. Los clientes pueden acceder a través de Rancher Application Catalog y de otras formas de entrega, como el mismo gestor de paquetes de Kubernetes, Helm Charts.

Ante una tecnología tan potente como la inteligencia artificial, que además puede ejecutarse en entornos privados… ¿Cómo se conjuga el derecho a la privacidad con otros derechos fundamentales que, como hemos visto, la IA ha puesto en entredicho a poco de su adopción masiva? Es obvio que la responsabilidad es del usuario, pero ¿puede la tecnología hacer algo para equilibrar esta tesitura? ¿O estamos frente a una situación sin términos medios, como ocurre con el cifrado de las comunicaciones?

El hecho de que SUSE AI sea privada por diseño es una gran ventaja, porque no obliga a que uno tenga que exponer sus datos confidenciales no solamente a un tercero, también en el camino hacia ese tercero… a no ser que uno quiera hacerlo, porque por defecto se puede elegir. Y el hecho de que sea privada da ventajas en términos de lo que acabas de comentar. Es decir, incluso para los entornos más restrictivos, aislados y de alta seguridad, es válida esta solución, ya que se puede ejecutar sin una conexión a Internet.

Después, lo que ocurre es… ¿cuál es el rol de los clientes con la IA, su potencial, los riesgos…? El European Act para la IA fuerza a quien use Large Language Model, la IA en general y vaya a implementar un caso de riesgo, a registrarlo, Tiene que hacerlo en el registro de la Comisión Europea para Inteligencia Artificial. Es responsabilidad del cliente. Es algo de lo que informamos al cliente, porque es él quien está haciendo uso del LLM.

Existe una serie de casos de uso de alto riesgo y una serie de casos de uso prohibidos y es quien implementa y elige ese modelo quien debe reportarlo a la Comisión Europea. Además, en este caso está centralizado, no es como con la GDPR. Con la GDPR se responde a nivel local a las agencias de protección de datos, mientras que con la IA hay una centralización en Europa, lo que implica un mayor control del uso. Porque no es lo mismo infringir una vez que infringir masivamente. En este sentido, la Comisión Europea hizo una mejora sustancial con la centralización para tener visibilidad de cualquier tipo de infracción a gran escala.

Imaginemos un caso: identificar emociones. Se trata de un caso de alto riesgo en la Unión Europa, no así en Estados Unidos. El cliente de SUSE AI puede elegir un modelo y, a través de la API, ejecutar una aplicación de identificación de emociones. Pero esa aplicación no forma parte de SUSE AI. SUSE AI lo que hace es cargar unos archivos y la aplicación hace el resto: identificar un sentimiento, una emoción… En este caso, por ejemplo, debería ser el cliente el que registre ese caso de uso, ya que el proveedor tecnológico no va a saber, ni puede controlar lo que haga el cliente.

¿Hasta qué punto es fiable el sistema?

En esto hay controversia. En la normativa europea de IA existe controversia, pero creo que la normativa europea sobre IA se basa mucho más en la protección del consumidor que otras normativas, como la británica o la americana. No hay duda, no es una opinión. Lo que se percibe es que va a existir en las normativas británica y americana una evolución hacia una mayor protección del consumidor, siguiendo la normativa europea de IA, que ha sido realmente innovadora en cómo ha previsto esa protección y en cómo prohíbe prácticas que impliquen aspectos de riesgo geopolítico.

Entraste a formar parte de SUSE este mismo año para dirigir un proyecto puntero, pero posees una amplia experiencia en el mundo TI. Has trabajado para algunas de las tecnológicas más grandes del mundo en puestos destacados y en las principales áreas sobre las que se erige la infraestructura TI actual: computación en la nube, ciberseguridad, el Internet de las Cosas… También inteligencia artificial; ejerces como experta Cloud para la Comisión Europea… ¿Qué opinas de la IA, de la explosión del fenómeno, de las implicaciones que está adquiriendo esta tecnología en la vida de todo el mundo?

Comencé hace más de 11 años con Machine Learning, así que realmente mi experiencia en IA viene de muy lejos. En Microsoft lancé Cortana Suite y en Google introduje Vertex en los mayores clientes, los Global Accounts de Google. En SUSE creemos en un Human First AI, es decir, que la IA debe poner a la persona en el centro y generar valor. El ahorro de tiempo es un beneficio, pero lo que se hace con ese tiempo debe estar orientado a generar valor en base a objetivos aspiracionales para poder generar crecimiento y poder aportar crecimiento al negocio. Creo que cada persona y cada organización debe tener la posibilidad de liderar su IA y de tomar posesión de su IA.

La IA no es algo de una oligarquía digital, sino que todos podemos formar parte de ella y podemos construir nuestro futuro en IA. Soy española. Como Santiago Ramón y Cajal. Él descubrió las neuronas, las conexiones entre neuronas, ganó el Premio Nobel con ello y dijo que todo el mundo puede ser, si se lo propone, arquitecto de su propio cerebro. Y en este nuevo cerebro que estamos construyendo todos podemos ser arquitectos de nuestra IA, de este cerebro digital de nuestro futuro digital. Es la oportunidad que queremos dar, que realmente existan las herramientas para poder hacerlo, no para que otros lo hagan por ti.

Enfocado en las nuevas tecnologías empresariales y de usuario final. Especializado en Linux y software de código abierto. Dirijo MuyLinux y escribo en MC, MCPRO y MuySeguridad, entre otros.

Lo más leído