A Fondo
¿Es posible un uso “ético” de la Inteligencia Artificial?
Aunque la mayoría de la gente comenzó a ser consciente de la existencia de la Inteligencia Artificial poco más de dos décadas, como mucho, los investigadores llevan ya varias décadas trabajando con ella. Pero de puertas par adentro en muchos casos. Hasta la llegada de los primeros sistemas capaces de derrotar a maestros del ajedrez, en 1997, cuando Deep blue derrotó a Kasparov, la mayoría No se percataban de que, poco a poco, la IA empezaba a ganar protagonismo en la sociedad, y también en su vida.
Desde entonces hasta ahora, la Inteligencia Artificial ha evolucionado bastante, y lo ha hecho hasta tal punto que muchos ya no son capaces de distinguir qué emplea Inteligencia Artificial y qué no lo hace. Está en todas partes, desde en los asistentes virtuales hasta las redes sociales y los feeds de noticias. Gracias a ella hemos conseguido muchos progresos que nos han facilitado la vida, e incluso el trabajo. Como el reconocimiento de voz o facial, o los sistemas de identificación biométrica. Pero también ha traído consigo otros avances que, como poco, impresionan. En algunos casos incluso asustan.
La Inteligencia Artificial, en algunos casos, ya es capaz de simular algunos aspectos del pensamiento humano. O realizar algunas tareas que hasta no hace mucho solo eran capaz de realizarlas los humanos. Con mayor o menor destreza, o con mayor o menor sensación de artificialidad al ver los resultados. Pero ahí están. Y la manera en que los sistemas de IA son capaces de realizar ciertas tareas, como el reconocimiento facial, hace ya tiempo que levanta ampollas en determinados sectores, y también entre el público en general. Pero en muchos casos no por lo que son capaces de hacer, sino por quién lo controla, o por quién se beneficia de lo que hace un sistema de IA y para qué se utiliza.
Además, no hay que olvidar que la comprensión de cómo funcionan los sistemas de Inteligencia Artificial dista muchísimo de ser completa para el público en general. Y es habitual desconfiar de lo que no se conoce bien o no se domina. Si a esto se añade que no sabemos para qué se utilizan los datos, acciones o información recopilada mediante un sistema de IA, o quién los controla, la desconfianza es muy grande.
Aumenta la presión para un uso ético de la Inteligencia Artificial
En general, pocos están completamente seguros de que los sistemas de IA se utilicen de manera ética. Por eso, desde hace ya un tiempo, hay un movimiento cada vez más potente y extendido a favor del uso de los sistemas de Inteligencia Artificial de manera ética. No solo de los sistemas que ya están funcionando en la actualidad, como los de reconocimiento facial, sino de los que pueden llegar en el futuro. Ya no es solo cosa de individuos o grupos de particulares. Tanto entidades relacionadas con la tecnología o con la ética, como organismos internacionales e incluso gobiernos de muchos países ven cada vez más necesario contar con una regulación encargada de establecer límites tanto al uso de los sistemas de Inteligencia Artificial
Pero ¿a qué se deben tantas dudas? Pues en muchas ocasiones, al desconocimiento de qué se hace con los datos que recogen estos sistemas. O a las sospechas de que no se utilizan de manera beneficiosa para la sociedad o de que se utilizan de manera que invade la privacidad de las personas. Si los sistemas utilizan datos que no son adecuados o están sesgados, o bien información que se puede en contra de determinados colectivos o personas, los resultados no serán correctos y/o no tendrán un fin beneficioso. Si no se corrige esto, la tecnología, en lugar de hacer avanzar a la sociedad, la hace retroceder.
Además, la Inteligencia Artificial, si no se regula, también se puede utilizar para fines delictivos. Los datos y resultados que se utilicen y obtengan con ella, si no se regulan, pueden emplearse para engañar y manipular. Por eso se necesitan unas líneas claras de lo que se puede y no se puede hacer con la Inteligencia Artificial.
¿Cómo regular la IA?
Para empezar, la Inteligencia Artificial tendrá que regularse de manera que esté basada en estándares de transparencia y sus usos puedan explicarse con sencillez, de manera que lo que hace cada sistema y para qué se utilizan, por ejemplo, los sistemas de reconocimiento facial, quede claro para el público en general. No solo eso, sino también cómo se recogen los datos, cuáles se toman y cómo los procesan los sistemas. Para conseguirlo, entre otras cosas, habrá que aprobar unas normativas y unos estándares comunes y que pongan de acuerdo a empresas, organizaciones de todo tipo y organizaciones gubernamentales.
Los estándares que se aprueben, además, tendrán que tener en cuenta, y valorar, las ventajas y los riesgos que ofrece la Inteligencia Artificial. Estarán sobre todo relacionados con la seguridad, y tendrán que aprobarse protocolos que se ocupen de la gestión de las funciones de riesgo elevado de la IA, como el desarrollo y uso de bots y sistemas de reconocimiento de voz y facial. También de los conocidos como bots sociales. Un ejemplo de esto es el uso de Inteligencia Artificial para crear rostros de personas que no existen mediante IA: se puede utilizar en efectos especiales de películas, pero si se hace mal uso de ello se puede emplear para la desinformación, para crear engaños o para fines mucho peores.
En cuanto a los bots, bien empleados pueden utilizarse como asistentes digitales, o como rastreadores online para recoger y clasificar información. Pero en las redes sociales se pueden utilizar para crear cuentas falsas y manipular la conversación y expandir información falsa o manipulada. De ahí que su uso y finalidad deba regularse. Y asegurarse, entre otras cosas, de que en el entrenamiento de sistemas de IA, así como en su ajuste y afinado, hay humanos que se aseguran de que se cumplen los criterios éticos establecidos en cada caso.
Para establecer una regulación que pueda funcionar es necesario fijarse en los sistemas de Inteligencia Artificial, sino en para qué se uso. Es decir, hay que tender a una regulación de lo que se hace con la IA. Por ejemplo, hay que controlar que los servicios de reconocimiento facial no se utilicen de manera indiscriminada. O que los sistemas de IA que empleen las tecnológicas o que se usan en redes sociales no invaden la privacidad o se emplean para falsear información o perfiles. También es necesario ocuparse del uso que hacen de la IA los organismos nacional e internacional. O el sector de la banca, por nombrar alguno de los que emplean estos sistemas.
¿Quién debe regular el uso ético de la Inteligencia Artificial?
Pero establecer quién se tiene que ocupar de regular la Inteligencia Artificial para que se utilice de manera ética es complicado. Un gobierno nacional solo puede hacerlo para su país, o en el caso de la unión Europea, para los países que lo forman. Por eso, en determinados casos deben colaborar en ello varios países, y hacerlo de manera independiente a las empresas.
Lo malo es que, dado el estado de las relaciones internacionales en muchos de los países del planeta, conseguir estándares globales, que sería lo deseable, parece una utopía imposible de lograr. No obstante, hay entidades y organismos oficiales de países concretos ya se han puesto manos a la obra, lo que al menos es un comienzo. Estados Unidos, por ejemplo, ya ha trabajado en una batería de normas para regularla. Y la UE, recientemente, ha presentado ya una normativa para su regulación en los países miembros de la Unión Europea.
Lo malo es que mientras tanto hay países que ya utilizan sistemas de IA de manera invasiva y violando la privacidad de sus ciudadanos. En China, por ejemplo, utilizan sistemas de reconocimiento facial, entre otras cosas, para identificar a uygures. E incluso exige pasar una prueba de reconocimiento facial para poder contratar una línea de teléfono. Precisamente, por este tipo de usos, es por lo que las voces que piden su regulación, aunque en determinados países vaya a ser imposible hacerlo, para que la Inteligencia Artificial se utilice de manera ética, son cada vez más fuertes y preocupan cada vez más a lops usuarios.
No obstante, puede que si algunas grandes tecnológicas, como Google o Microsoft, dan el paso de apoyar unos estándares sobre IA, o se deciden a establecer internos en cuanto al uso de los sistemas de Inteligencia Artificial, pueda contribuir al uso ético de la IA, y consigan llegar donde no lleguen los gobiernos y organismos oficiales de muchos países. Pero habrá que ver cómo evoluciona la situación en los próximos años de cara al desarrollo de sistemas de Inteligencia Artificial éticos, algo todavía en pañales en prácticamente todo el mundo.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 7 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo