PARA El SER humano a reconocer, o al menos, la hipótesis, las propiedades táctiles de un objeto con sólo mirar en él es natural. Con el fin de obtener información más precisa, y, por lo tanto, para describir con precisión, de tocar a él. Para un robot, es un lugar de transición. Gracias a la ciencia de la computación y el laboratorio de inteligencia artificial del Mit en Boston podría estar más cerca. En un artículo que acaba de ser publicado, y que se dará a conocer en más detalle en una importante conferencia científica en Long Beach, California, se describe un sistema de inteligencia artificial capaz de generar representaciones visuales de objetos, a partir de las señales de toque adquiridos, y, por otro lado, también predecir las cualidades táctiles de un número de información visual. En resumen, usted puede aprender a tocar y a «imagine» de ballenas.
«en Busca de la escena, nuestro modelo puede imaginar la sensación de que viene del tacto de una superficie plana o un borde afilado», explicó el autor principal del estudio, el doctor del Yunzhu Li (en la foto), que ha colaborado con profesores Russ Tedrake y Antonio Torralba y compañero de Jun-Yan Zhu . «Tocar en el ciego, nuestro modelo puede predecir la interacción con el entorno, simplemente por el tacto de entrada – ha explicado el autor de reunir a estos dos sentidos puede mejorar el robot y reducir los datos que necesitamos para proveer a la programación de las tareas necesarias para manipular y agarrar objetos.» El principio es siempre el mismo: menos información nos veremos obligados a proporcionarles en el inicio, sino también en todo el proceso, más la inteligencia artificial de los sistemas será rápido y «luz», por lo que es muy útil debido a que son capaces de aprender y de ir solo.
El equipo utilizó una red antagonista generativo para que coincida con los estímulos táctiles y visuales de información. Por supuesto, no había necesidad de una formación cita: el equipo de investigación ha utilizado un brazo robótico Kuka con un sensor de contacto GelSight, a su vez, batida por otro laboratorio en el Mit, la encabezada por Ted Adelson , con el fin de entrenar a su sistema. Utiliza una habitación y una película de goma para mapa en 3D de las superficies que estén en contacto, o los objetos que están comprendiendo.
los investigadores registraron la forma en la que 200 objetos de todo tipo, desde las herramientas a las telas hasta los objetos comunes fueron tocados por un total de 12 clips de vídeo termina con el fin de dar nacimiento a una base de datos de tres millones de pares de visual y táctil bautizado VisGel. La red, a través del análisis de la estructura de los clips y la información capturada por el brazo robótico y de su «alcance» hi-tech, tiene precisamente aprendido, saltando de uno a otro, y, a continuación, mediante el análisis de las imágenes, para entender qué esperar de ciertos tipos de materiales, y, viceversa, así como para describir ciertos real de entrada.
por supuesto, muchos de los detalles de la touch son todavía ausente, en el sentido de que la información que la mano robótica ha sido capaz de extraer de la relación con los objetos, o la manera en que se definen algunas de las imágenes después de la capacitación, la falta de algunos parámetros. Sin embargo, según el equipo de Massachusetts, este nuevo enfoque puede abrir el camino para la droga de forma más espontánea y lineal entre el hombre y la máquina, especialmente en las áreas de la industria, o en los contextos en los que la colaboración es muy estrecha. Piénsese, por ejemplo, situaciones en las que una falta de datos de visual claro, la industria 4.0, seguridad.
«este Es el primer método que es capaz, de manera convincente, para conectar las señales visuales y táctiles – dijo Andrew Owens, un investigador de la universidad de California-Berkeley – los métodos de como esto puede ser muy útil para la robótica, en situaciones donde necesitamos por ejemplo para saber si un objeto es duro o blando, o entender cómo aprovechar de la mejor.» Un problema muy complejo en el que se compromete a proporcionar, en cierta manera, la sensibilidad es más marcado para el robot, proporcionándoles una versión que es sin duda mucho menos refinado, pero prometedor de dos de los cinco sentidos humanos.
Entre otras cosas, siempre en el prestigioso polo en Boston el mes pasado se inauguró el más completo archivo de datos basado en el sentir a disposición de los futuros robots (o, mejor decir, los sistemas de inteligencia artificial que también organizar las tareas, acciones, decisiones y movimientos, que siempre son más «humanos»). Como se explica por la Naturaleza, es una enorme base de datos de las sensaciones de la registrada a través de los guantes equipados con 550 sensores especiales que son útiles no sólo para dar la sensación de tocar a las máquinas, sino también para el diseño de un ordenador portátil, o por ejemplo, las prótesis de las extremidades con una mayor sensibilidad.
Por el momento, los robots, el Mit puede identificar objetos sólo en un contexto controlado. El siguiente paso será la construcción de un mayor conjunto de datos que le permite experimentar sus habilidades y el proceso de contacto, incluso, en diferentes situaciones, y menos guiada. Para este propósito de ser útil a la superguanto mencionado anteriormente, que sólo enriquecen el conjunto de datos de entrenamiento.
La profundización diario se le puede encontrar en Rep: editoriales, análisis, entrevistas y reportajes.
La selección de los mejores artículos de la República para leer y escuchar.
Aprender más es uno de su elección
Apoyar el periodismo! Los suscriptores a la República dominicana © de Reproducción reservados Hoy Es el Quirinal, el correo real de la lucha de la Liga-5S De Cerdeña mala señal para el centro-izquierda Ni de la Derecha ni de la Izquierda: crece en Italia, que está fuera de Salvini en los estados unidos entre sonrisas y la fricción, El reto de la capitana Carola: «Para mí, el safe harbor es Italia»
la República