FYI.

This story is over 5 years old.

Tecnologia

Facebook planea usar inteligencia artificial para monitorear los videos de los usuarios

La empresa está trabajando para poder implementar un algoritmo capaz de detectar contenido inapropiado en los videos que sean transmitidos en vivo desde su plataforma, indicó un directivo de la compañía.
Imagen vía Peter Dasilva/EPA
Síguenos en Facebook para saber qué pasa en el mundo.

Facebook está trabajando en una nueva forma de detectar material ofensivo en los videos que se transmiten en directo. Para ello planea usar inteligencia artificial que pueda monitorear el contenido, dijo Joaquín Candela, uno de los directivos en tecnología aplicada de la la empresa.

La compañía ha estado envuelta en varios casos polémicos que han generado críticas internacionales que han ido desde quitar una icónica fotografía de la Guerra en Vietnam, hasta permitir la circulación de noticias falsas.

Publicidad

Desde siempre, Facebook ha dependido de las denuncias de los usuarios para detectar contenido sensible u ofensivo, cuyos reportes son luego revisados por el equipo de la compañía. Las decisiones en cuanto al cambio de las políticas del sitio, son tomadas por altos ejecutivos de la compañía.

Facebook podría permitir la publicación de contenido que antes era censurado. Leer más aquí.

Candela dijo a los reporteros que Facebook está tratando de usar cada vez más inteligencia artificial para encontrar material ofensivo. Se trata de "un algoritmo que detecta desnudez, violencia o cualquier otro elemento que vaya contra nuestras políticas", dijo Candela.

La compañía ya ha estado usando la automatización para poder identificar videos con contenido extremo, como ya lo había reportado Reuters el pasado junio. Ahora, el sistema automatizado también está siendo probado con Facebook Live, el servicio para que los usuarios transmitan videos en vivo.

El uso de inteligencia artificial para verificar videos en vivo aún está en la etapa de investigación, y presenta dos retos, explicó Candela. "Uno, el algoritmo tiene que ser rápido, y creo que eso sí lo podemos lograr. Segundo, hay que priorizar las cosas de forma correcta para que un ser humano las vea, un experto que conozca nuestras políticas y así pueda retirar el contenido".

La propagación de noticias falsas, el nuevo gran problema de Facebook. Leer más aquí.

Mark Zuckerberg, director ejecutivo de la empresa, dijo en noviembre que Facebook iba a recurrir a la automatización para identificar noticias falsas. Antes de las elecciones del 8 de noviembre, los usuarios pudieron ver reportes falsos en donde se afirmaba que el Papa Francisco apoyaba a Donald Trump, mientras que en otros se podía leer que el agente federal que había estado investigando a Hillary Clinton había sido encontrado muerto.

Sin embargo, determinar si un comentario particular resulta ser de odio o acoso, por ejemplo, requiere cierto contexto, explicó la compañía.

Sigue a VICE News En Español en Twitter: @VICENewsEs