A Fondo
Cinco de las predicciones más aterradoras sobre la Inteligencia Artificial
Fuera del mercado laboral, cuando la gente de a pie piensa en el término de Inteligencia Artificial (IA) a menudo le vienen a la mente escenas de asesinos androides y ordenadores que se vuelven locos. Películas de Hollywood como «Blade Runner» y «Terminator» nos han inculcado un sentimiento de temor ante la idea de que la IA pueda llegar a ir en contra de los humanos.
Para una industria que podría generar más de 1.000 millones de dólares este año, y casi 4.000 millones en 2022, cualquier duda importante sobre su implicaciones éticas podría tener consecuencias catastróficas.
IA es la palabra de moda en el mundo de los negocios y los medios de comunicación, pero ya está teniendo efectos tangibles para una gran cantidad de industrias, sobre todo aquellas que dependen de mano de obra manual. A medida que la Inteligencia Artificial se aproxima a su madurez y las empresas continúan incrementando las inversiones en ellas, a algunos les preocupa que no se le esté prestando suficiente atención a las implicaciones sociales y morales más amplias de la IT.
La web CNBC habló con algunos expertos para que les contaran cuáles podrían ser los cinco escenarios futuros más espeluznantes par la Inteligencia Artificial:
Paro masivo
La pérdida de empleos es una de las principales preocupaciones derivadas de las nuevas tecnologías. Los expertos están de acuerdo en que van a desaparecer muchos puestos de trabajo, derivado de una reestructuración del mercado pero tampoco se espera que sea un paro masivo. De hecho, los defensores de la IA dicen que esto conducirá a la creación de nuevos tipos de trabajo: se intensificará la necesidad de ingenieros, ya que la sofisticación de la TI requerirá de talento adecuado para desarrollarla.
Los humanos también tendrán que usar la Inteligencia Artificial (según sus defensores) para realizar nuevas funciones en su vida cotidiana. Por otra parte, la consultora Gartner predice que la IA creará 2,3 millones de empleos y eliminará 1,8 millones, lo que supone un aumento neto de 5.000 para 2020.
Si bien es posible minimizar el daño al mercado laboral causado por la IA mediante el aumento de ciertas habilidades y la invención de nuevos empleos, es evidente que la pérdida va a afectar durante un tiempo.
Guerras
El advenimiento de los llamados «robots asesinos» y otros usos de la Inteligencia Artificial en las operaciones militares ha preocupado a expertos de todos los países por su posible inclusión en guerras. El presidente ejecutivo de Tesla, Elon Musk, ya advirtió el año pasado que la esta tecnología podría derivar en la III Guerra Mundial.
Quizás esto sea un poco exagerado pero este temor supone algo muy real para los expertos. Algunos analistas sostienen que el desarrollo de armas letales autónomas y el uso de la IA en la toma de decisiones militares crean una multitud de dilemas éticos y abre la posibilidad de guerras intensificadas con esta tecnología o, incluso, lideradas por ella.
«El único área donde realmente creo que la palabra ‘miedo’ podría aplicarse es en el de las armas autónomas… sistemas que pueden o no parecerse a un robot», indicó Frank van Harmelen, investigador de IA de la Vrije Universiteit de Amsterdam. A principios de este año, el grupo de expertos de defensa estadounidense Rand Corporation advirtió en un estudio que el uso de IA en aplicaciones militares podría dar lugar a una guerra nuclear para 2040. El pensamiento detrás de esa audaz predicción fue que la posibilidad de que un sistema militar de Inteligencia Artificial cometiera un error en su análisis de una situación podría llevar a los países a tomar decisiones apresuradas y potencialmente catastróficas.
Robots médicos
Aunque los expertos están de acuerdo sobre los beneficios que la IA proporciona a los médicos, como son diagnosticar enfermedades a tiempo y mejorar la atención general a pacientes, algunos doctores y académicos son muy cautelosos en cuanto a las prácticas médicas basadas en ella. Uno de los principales temores es que las personas esperan demasiado de la Inteligencia Artificial, como que puedan desarrollar el tipo de inteligencia que los humanos poseen para resolver una amplia gama de tareas.
«Todas las aplicaciones de IA exitosas hasta la fecha han sido muy exitosas, pero en un rango muy reducido de campos», dijeron desde la Universidad de Edimburgo. «Una aplicación de diagnóstico médico que fuera excelente para problemas cardíacos, podría diagnosticar a un paciente con cáncer este tipo de acepción, con resultados potencialmente fatales».
Otra preocupación es que el volumen de datos engullidos por los ordenadores y compartidos por ellos, así como los algoritmos basados en datos que automatizan las aplicaciones, podrían tener implicaciones éticas sobre la privacidad de los pacientes. El comiendo de los denominados «macrodatos» es ya una industria multimillonaria que abarca todos los sectores y significa que la cantidad de información personal que pueden recolectar las las máquinas se ha disparado de forma inabarcable
El fenómeno se promociona como un gran adelanto para el mapeo de diversas enfermedades, prediciendo la probabilidad de que una persona enferme gravemente y examine el tratamiento con anticipación, pero las preocupaciones sobre la cantidad de datos que se almacenan y dónde se comparten están resultando problemáticos.
Vigilancia masiva
Los expertos también temen que la Inteligencia Artificial pueda ser utilizada para la vigilancia masiva. De hecho, en China parece estar convirtiéndose en una realidad, ya que está siendo utilizada por las autoridades para luchar contra el delito. Actualmente, en el país asiático hay unos 200 millones de cámaras de seguridad, según el New York Times, y aspira a ser líder mundial en IA para el año 2030, aumentando sus inversiones en 146.600 millones de dólares.
Una de las compañías que lidera este amalgama de Inteligencia Artificial y tecnologías de reconocimiento facial es SenseTime. Se cree que es la puesta en marcha de IA más valiosa del mundo, con una valoración de 4.500 millones de dólares, cuenta con el respaldo de la todopoderosa Alibaba y proporciona esta tecnología a varias autoridades chinas. SenseTime asegura que la oficina de seguridad pública de la localidad de Guangzhou ha identificado a más de 2.000 sospechosos de delito desde 2017.
Discriminación
Hace dos años, Microsoft lanzó un bot de IA que causó un gran revuelo ya que se metió en una cuenta de Twitter y los usuarios tardaron menos de un día en entrenarla para publicar tuits ofensivos que apoyaban a Hitler y la supremacía blanca. El error obligó a Microsoft a retirar la cuenta, aunque fue un incidente aislado dejó ver el peligro que tenía un mal uso de la IA.
«Estamos viendo esto como un sesgo involuntario en los algoritmos, especialmente el aprendizaje automático que amenaza con generar sesgos raciales, sexuales y de otro tipo que hemos tratado de eliminar durante los últimos 50 años«, dijeron. El problema, según los expertos, es la factibilidad de hacer de la IA un pensador objetivo y racional, sin sesgos a favor de una raza, género o sexualidad en particular.
Es algo en lo que los investigadores y desarrolladores han pensado seriamente, examinando aspectos como la forma en que la tecnología de reconocimiento facial se ve mejor en las caras blancas que las negras, y cómo los sistemas de inteligencia artificial pueden presentar prejuicios, asociando ciertos géneros y razas con funciones estereotipadas.
-
OpiniónHace 7 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 7 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace