Andina

Facebook usa inteligencia artificial para que personas sin visión empleen la red social

El sistema reproduce verbalmente la información reconocible de una imagen.

A la fecha, el algoritmo reconoce de manera confiable más de 1200 concepto.

A la fecha, el algoritmo reconoce de manera confiable más de 1200 concepto.

07:00 | Lima, ene. 20.

La inteligencia artificial puede convertirse en una solución para facilitar la navegación de las personas con discapacidad visual que quieran utilizar la red social Facebook. La tecnología de texto alternativo automático (AAT en inglés) de Facebook ha recibido una actualización para ser más exacta al describir fotos.

La primera versión de AAT, hace cinco años, fue desarrollada utilizando datos etiquetados por humanos, con los que se entrenó una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada.  El modelo AAT completo pudo reconocer 100 conceptos comunes, como "árbol", "montaña" y "al aire libre". 

Dado que las personas que usan Facebook a menudo comparten fotos de amigos y familiares, las descripciones utilizaron modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento explícito).  

Con esta información, se ofrecía de forma verbal una descripción exacta de los elementos reconocibles en la foto.


Facebook sumó nuevos conceptos que pueden ser detectados e identificados en una imagen y ahora es diez veces mayor que la base de datos inicial. Las descripciones son más detalladas por lo que puede dar información sobre el tipo de actividad que es mostrada en una foto, incluyendo ubicaciones o paisajes.

El nivel de precisión sobre la descripción avanzó de tal manera que anteriormente se describía una escena indicando, por ejemplo, que aparecen cinco personas. Sin embargo, ahora se puede especificar la ubicación de las personas en la foto e incluso quién tiene mayor foco en la captura. 

Para la nueva versión, el modelo fue entrenado con millones de imágenes públicas de Instagram y hashtags, mientras que la supervisión se redujo a la mínima expresión.


Los datos sumaron también fotos de zonas geográficas diferentes y traducciones de los hashtags. "Los modelos actuales son más precisos e inclusivos de manera cultural y demográfica; por ejemplo, pueden identificar bodas en todo el mundo basándose (en parte) en ropa tradicional en lugar de etiquetar solo fotos con vestidos de novia blancos", señala Facebook en su blog oficial.

A la fecha, el algoritmo reconoce de manera confiable más de 1200 conceptos, más de 10 veces más que la versión del 2016.

Revisa más noticias sobre ciencia, la tecnología y la innovación en la Agencia Andina.

Más en Andina:(FIN) NDP / SPV

Publicado: 20/1/2021