closeVideo
Fox News Flash titulares para el 2 de julio
Fox News Flash titulares están aquí. Echa un vistazo a lo de hacer clic en Foxnews.com.
El Instituto de Tecnología de Massachusetts permanentemente se llevó sus más de 80 Millones de Diminutas Imágenes de conjunto de datos—una imagen popular de base de datos utilizado para la máquina de tren de sistemas de aprendizaje para identificar a las personas y objetos en un entorno—, ya que utiliza una gama de carácter racista, misógina, y otros términos ofensivos para las fotos de la etiqueta.
En una carta publicada el lunes por el MIT del CSAIL sitio web, los tres creadores de la enorme conjunto de datos, Antonio Torralba, Rob Fergus, y Bill Freeman, se disculpó y dijo que había decidido tomar el conjunto de datos sin conexión.
«ha sido traído a nuestra atención que las Pequeñas Imágenes de conjunto de datos contiene algunos términos despectivos como categorías y de imágenes ofensivas. Esto fue una consecuencia de la automatizados de recolección de datos procedimiento que se basó en los sustantivos a partir de WordNet. Estamos enormemente preocupados por esto y pedir disculpas a aquellos que han sido afectados», se escribió en la carta.
de Acuerdo con la carta, el conjunto de datos fue creada en el año 2006 y contiene 53,464 nombres diferentes, directamente copiado de Wordnet. Los términos fueron utilizados para la descarga de imágenes de la correspondiente sustantivo de motores de búsqueda en Internet en el momento de recoger los 80 millones de imágenes (en la pequeña 32×32 resolución).
de ALTA TECNOLOGÍA GUANTE PUEDE TRADUCIR el LENGUAJE de signos CON una PRECISIÓN del 99%
MIT sacó una gigantesca inteligencia artificial conjunto de datos de uso de esta semana. (Gettty Imágenes)
la CIUDAD de NUEVA YORK PUEDE hacer una PRUEBA de aguas RESIDUALES PARA el CORONAVIRUS: INFORME
«Sesgos, ofensivo y lesivas las imágenes, y la derogatoria de la terminología aleja de una parte importante de nuestra comunidad-precisamente aquellos a los que nos están haciendo esfuerzos para incluir. También contribuye a la dañinos de los sesgos en los sistemas de AI entrenados en esos datos,» que escribió.
«Además, la presencia de tales lesivas las imágenes duele esfuerzos para fomentar una cultura de integración en el equipo de la visión de la comunidad. Esto es muy lamentable y va en contra de los valores que tratamos de defender.»
Sesgada de los conjuntos de datos pueden tener un impacto importante en las tecnologías de aprendizaje automático y la inteligencia artificial de los programas que se utilizan para entrenar. Una gama de críticos dentro y fuera de Silicon Vallley han llamado la atención a los prejuicios contra los negros y específicamente a la gente de color en general en distintas sistema de IA.
El conjunto de datos no se puede re-subido.