Noticias
Investigadores de Nvidia crean un sistema de Inteligencia Artificial que aprende viendo a los humanos
La Inteligencia Artificial avanza a pasos agigantados gracias a numerosos equipos de investigadores trabajando para mejorar sus posibilidades, tanto en centros de investigación como en empresas privadas. Así, ya hay incluso robots capaces de leer el pensamiento de los humanos. Y gracias a un equipo de investigadores de Nvidia, también hay un sistema de Inteligencia Artificial que, a través del deep learning, puede aprender de un humano, sencillamente, observando las acciones que lleva a cabo.
Al parecer, según ha manifestado la propia compañía, este sistema, que aún está en sus primeras fases de desarrollo, está diseñado para mejorar la comunicación entre los humanos y los robots, lo que permitirá que puedan colaborar con mayor facilidad. Se espera que los científicos que han desarrollado el sistema, liderados por Stan Birchfield y Jonathan Tremblay, presenten el sistema durante una conferencia que se va a celebrar en los próximos días en la localidad australiana de Brisbane, la International Conference on Robotics and Automation (ICRA).
Para desarrollar el sistema, los científicos que han estado trabajando en su avance hasta ahora han entrenado a diversas redes neuronales que utilizaban GPUs de Nvidia. En concreto, de los modelos Titan X. Estas redes ha recibido entrenamiento específico para realizar labores relacionadas con la percepción, con la capacidad de generación de programas y con la decisión sobre ejecución.
Gracias a esto, un humano podría demostrarles cómo se realiza una tarea concreta (por ahora, únicamente tareas sencillas) a un robot que tuviese integrado este sistema, que lo aprendería solo con «ver» esta demostración. Como hacemos los humanos. Según Nvidia, es la primera vez que un sistema de Inteligencia Artificial integrado en un robot que combina datos sintéticos con una explicación centrada en la imagen.
Para poder visualizar la explicación de la tarea, los robots que llevan este sistema cuentan con una cámara. A través de ella, además de ver cómo se lleva a cabo, el robot puede deducir tanto las posiciones como las relaciones que hay entre los objetos situados en un escenario.
Una vez visualizados todos los elementos que intervienen en el trabajo que se quiere enseñar al robot, este genera una descripción, legible para los humanos, de los pasos necesarios para realizar la tarea. Y parte de la red neuronal que incorpora se encarga de preparar un plan que explique cómo recrear lo que ha percibido.
Por último, la parte de la red cuya misión es ejecutar la tarea según el plan generado se encargaría de indicar al robot cómo tiene que realizarla. Y la descripción que ha generado el robot permite que los humanos puedan identificar y corregir rápidamente cualquier problema relacionado con la interpretación que el robot ha hecho de la demostración que le ha hecho el humano. De esta manera se pueden evitar fallos antes de que la máquina repita la tarea.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 7 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace