Google AI ahora pueden identificar los alimentos en el supermercado, en un movimiento diseñado para ayudar a los discapacitados visuales.
es parte de Google, Mirador de la aplicación, que tiene como objetivo ayudar a aquellos con poca o ninguna visión a identificar las cosas alrededor de ellos.
Una nueva actualización se ha añadido la capacidad para un ordenador voz para decir en voz alta lo que la comida se piensa que una persona, basándose en su aspecto visual.
Uno de los del reino unido de la ceguera de la caridad acogieron con beneplácito la decisión, diciendo que podría ayudar a impulsar las personas ciegas de la independencia.
Google dice que la característica de «ser capaz de distinguir entre una lata de maíz y una lata de judías verdes».
llamativo, no es fácil
Muchas de las aplicaciones, tales como las calorías de los rastreadores han utilizado durante mucho tiempo producto de los códigos de barras para identificar lo que está comiendo. Google dice Lookout es también el uso de reconocimiento de imagen para identificar el producto de su embalaje.
La aplicación para teléfonos Android, tiene unos dos millones de «productos populares» en una base de datos se almacena en el teléfono – y este catálogo cambios dependiendo de si el usuario está en el mundo, un post en Google AI blog dijo.
En un armario de la cocina de la prueba por el periodista de la BBC, la aplicación no tuvo ninguna dificultad en el reconocimiento de una popular marca de American salsa caliente, u otro producto similar de Tailandia. También podría leer correctamente las especias, frascos y latas de Británica de supermercados, así como importados de Australia favorito Vegetariano.
Pero no le fue tan bien en los productos frescos o recipientes con formas irregulares, como las cebollas, las patatas, los tubos de pasta de tomate y bolsas de harina.
Si tenía un problema, la app de la voz pide al usuario girar el paquete a otro ángulo, pero todavía no en varios artículos.
Un ciego inventor y una maleta que » ve » Domino’s Pizza derrotado en los tribunales sobre la aplicación
en El reino unido el Real Instituto Nacional de Ciegos (RNIB) dio una cauta bienvenida a la nueva característica.
«las etiquetas de los Alimentos puede ser difícil para cualquier persona con una discapacidad visual, ya que a menudo están diseñados para ser llamativo en lugar de fácil lectura», dijo Robin Spinks de la caridad.
«Idealmente, nos gustaría ver de accesibilidad integradas en el proceso de diseño de etiquetas para que sea más fácil navegar por las personas con visión parcial.»
Pero junto con otras aplicaciones similares – tales como Ser Mis Ojos y NaviLens, que también están disponibles en el iphone – «puede ayudar a aumentar la independencia de las personas con pérdida de visión por la identificación de los productos de forma rápida y fácilmente».
reproducción de Medios no es compatible en el dispositivo de Medios captionBe Mis Ojos: Cómo los smartphones se convirtieron en «los ojos» para las personas ciegas
Mirador utiliza una tecnología similar a la de Google Lens, la aplicación a la que se puede identificar lo que una cámara de teléfono inteligente está mirando y mostrar al usuario obtener más información. Ya había un modo de que iba a leer cualquier texto que fue señalada, y un «modo de explorar» que identifica los objetos y el texto.
Lanzamiento de la app del año pasado, Google recomienda la colocación de un smartphone en un frente bolsillo de la camisa o en un cordón alrededor del cuello para que la cámara pudiera identificar las cosas directamente en frente de ella.
Otra nueva función añadida en la actualización de un documento de escaneo, el cual toma una foto de cartas y otros documentos y los envía a un lector de pantalla para leer en voz alta.
Google también dice que se ha hecho mejoras a la aplicación, basándose en la retroalimentación de los usuarios con discapacidad visual.