A Fondo
Cuatro tendencias que cambiaron el panorama de la Inteligencia Artificial en 2023
El pasado año 2023 ha sido, sin duda, un año tremendamente importante para el crecimiento de la Inteligencia Artificial en todo el mundo. No solo hemos tenido lanzamientos de productos y modelos por doquier y competiciones entre empresas y desarrolladores por dar con el último grito en innovación en el sector, sino que hemos tenido incluso auténticos golpes de estado en juntas directivas de empresas, como ha sucedido en OpenAI. Un año muy movido, que ha abierto la puerta a que en 2024 la IA siga siendo la tecnología del momento.
Además de todo esto, también se han dado los primeros pasos para regular el sector, y conseguir que sus miembros se comporten de manera responsable con respecto a la sociedad, y tengan que rendir cuentas antes ciertos organismos, lo que ha contribuido a rebajar un poco las alarmas que había en torno a la IA y a sus consecuencias para el futuro de la humanidad y el trabajo.
No solo para el de los creadores que pueden ver amenazados sus puestos por la IA generativa principalmente, sino el de los trabajadores de multitud de sectores que hasta no hace mucho no veían a la IA como una amenaza. En 2023, por tanto, han pasado muchas cosas relacionadas con la IA, pero de ellas, hay cuatro tendencias que serán las más significativas para su futuro.
La IA generativa llega y se extiende como la espuma, pero no se sabe hacia dónde
Las principales tecnológicas han decidido que en 2023 había que apostarlo todo a la IA generativa y sus posibilidades. El éxito de ChatGPT, de OpenAI, hizo que prácticamente todas las grandes del sector tech se apresurase a sacar su propia versión: Meta con LLaMA 2, Google con Bard y Gemini, e incluso la china Baidu con Ernie Bot, son algunos de los chatbots y modelos de IA que han visto la luz.
Entre ellos, uno de una compañía francesa dedicada al open source, Mistral. Porque la IA generativa y los avances en Inteligencia Artificial no solo son patrimonio de las empresas que desarrollan modelos y sistemas propietarios. El mundo del código abierto también tiene bastante que decir en cuando a Inteligencia Artificial.
Eso sí, a pesar de todo el entusiasmo inicial, todavía no hemos visto que haya aplicaciones de IA que se han convertido en un éxito de la noche a la mañana. Microsoft y Google nos han vendido sus búsquedas impulsadas por la IA como más potentes, pero la verdad es que todavía son bastante desastrosas, y no tiene mucho que ver con lo que nos habían vendido.
Los fallos de los modelos de lenguaje, bastante notables, que hacen que se inventen cosas con cierta frecuencia, ha llevado a situaciones bastante embarazosas. En algunos casos, incluso graciosas. Microsoft Bing ha llegado a incluso responder a prompts con mensajes basados en teorías de la conspiración, y Google Bard ha generado bastantes respuesta con hechos falsos o incorrectos incluso para su campaña de marketing, lo que hizo perder a la compañía 100.000 millones en bolsa.
Ya en 2024, todavía estamos a la caza de un producto de IA que se haga popular y que todo el mundo quiera utilizar. Tanto OpenAI como Google están permitiendo a empresas y desarrolladores, con cuentagotas, crear sus propios chatbots de IA personalizados, además de dejarles desarrollar sus propias aplicaciones con IA, sin necesidad de escribir código para conseguirlo.
A la vista de esto, parece que la IA generativa está todavía buscando su sitio, y puede que no vaya mucho más allá de una integración en herramientas de empresa, que serán muy útiles para mejorar la productividad. Puede que se convierta en el elementos básico de diversos asistentes, y que incluso lleguen a contar con funciones de voz. Pero todo dependerá de los avances que se lleven a cabo en los próximos meses.
Aprendimos cómo funcionan algunos modelos de lenguaje, pero solo lo esencial
A pesar de que las tecnológicas están integrando modelos grandes de lenguaje en productos a ritmo trepidante, todavía no sabemos mucho sobre cómo funcionan. Se inventan cosas, tienen sesgos con respecto al género o a la raza e incluso son capaces de mostrar sesgos en política. También sirven para conseguir información privada de personas.
Los modelos que toman un texto y devuelven como resultado una imagen también pueden devolver resultados protegidos por derechos de autor, fotografías de personas reales o diseños con fallos, como manos con más o menos dedos de lo normal. Se están investigando a fondo los motivos que llevan a estos modelos a tener estos fallos, lo que podría hacer avanzar en la comprensión de por qué lo hacen, y permitir arreglarlos.
Por otro lado, los modelos generativos pueden ser bastante impredecibles, y este año ha habido muchos intentos de hacerles comportarse como querían sus creadores. OpenAI ha anunciado que utiliza una técnica llamada aprendizaje reforzado mediante feedback de humanos para ayudar a guiar a ChatGPT para que ofrezca mejores respuestas.
Además, un estudio de Anthropic ha mostrado que las instrucciones sencillas en lenguaje natural pueden hacer que los modelos grandes de lenguaje produzcan resultados menos tóxicos. Pero muchos de estos intentos y enfoques han terminado siendo solo parches temporales, en vez de reparaciones definitivas, ya que las tecnológicas tienen que tomar algún tipo de medida mientras descubren por qué los modelos generan los contenidos que ofrecen como respuesta a los prompts.
El catastrofismo sobre el futuro de la Inteligencia Artificial lo invade todo
En 2023 cada vez se han escuchado más voces sobre la posibilidad de que la IA se convierta en un riesgo para la existencia de los humanos. Cientos de científicos, responsables de empresas y legisladores han alzado la voz al respecto. Entre ellos los pioneros del deep learning Geoffrey Hunton y Yoshua Bengio hasta Sam Altman.
La hipótesis al respecto es que llevará el día en el que desarrollemos una IA mucho más inteligente que los humanos, lo que podría acarrear consecuencias graves. Es una ideología que han adoptado muchos en Silicon Valley. Entre ellos, el Responsable científico de OpenAI, Ilya Sutskever, que jugó un papel decisivo para la salida de Sam Altman de OpenAI, a la que regresó como CEO pasados unos días.
Pero no todos están de acuerdo con esto. Varios responsables de IA en Meta, entre los que está Yann LeCun, han manifestado que estos temores son ridículos, y que la conversación sobre los riesgos de la IA se ha sacado de quicio. Además hay muchos otros expertos en el tema que señalan que centrarse en sus riesgos hipotéticos del futuro distraen del daño que puedan estar haciendo en la actualidad.
En cualquier caso, cada vez hay más atención en el potencial de esta tecnología para causar daños graves, lo que ha llevado a muchas discusiones y debates sobre las políticas que deben seguirse con respecto a la IA, y ha llevado a que legisladores y mandatarios de muchos países y regiones estén comenzando a tomar medidas al respecto.
Se acabó la libertad total para la Inteligencia Artificial
Gracias a ChatGPT, los mandatarios y legisladores de medio mundo se han metido de lleno en temas relacionados con la IA. Desde la UE hasta el Senado de Estados Unidos, pasando por las reuniones del G7, todos han procurado en 2023 informarse y tomar medidas para regularla.
A principios de diciembre, en la UE se ha acordado la conocida como Ley de IA, que pondrá en marcha normas de obligado cumplimiento, así como estándares sobre el desarrollo de las IAs más peligrosas de manera más responsable que ahora. También prohibirá ciertas aplicaciones de la Inteligencia Artificial consideradas como inaceptables, como su uso para reconocimiento facial en lugares públicos.
Mientras tanto, la Casa Blanca ha aprobado una orden ejecutiva sobre la Inteligencia Artificial, además de acordar compromisos voluntarios con las principales empresas de IA. Todo con el fin de llevar más transparencia, e introducir ciertos estándares en el desarrollo de la IA. Además, ha dado muchas libertades a sus agencias para adaptar las normas para esta tecnología que crean adecuadas para sus respectivos sectores.
Pero no todo han sido leyes propuestas en 2023. También se han registrado un número récord de denuncias y demandas relacionadas con la IA, sobre todo por parte de artistas y escritores. Estos consideran que las empresas del sector han utilizado su propiedad intelectual sin su consentimiento, y sin recibir compensación, para entrenar modelos.
La resistencia a dejar que las empresas hagan lo que quieran con la Inteligencia Artificial, y para entrenar sus modelos, crece cada vez más, y es posible que en 2024 aparezcan varias iniciativas para poner coto a sus prácticas y tratar de encontrar un equilibrio beneficioso para todas las partes. Pero por ahora solo podemos esperar a ver qué depara este año para el sector.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 6 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace