Facebook apuesta por la inteligencia artificial y deja las prioridades de los moderadores humanos es sus manos

¿En qué medida la inteligencia artificial es confiable? Facebook apuesta por la automatización y apuesta por el trabajo de la inteligencia artificial en sus procesos de detección.

Los avances de las tecnologías son tanto que es difícil imaginar un mundo en el que estos sistemas autónomos no jueguen un papel fundamental.

Facebook es una compañía de origen estadounidense que ofrece servicios de redes sociales y medios sociales en línea, además hasta ahora ha sido la pionera en intercambiar procesos de autonomía normales por otros aplicado a través de inteligencia artificial.

Y es que Facebook continua apostando por la automatización de los procesos y deja en manos de la inteligencia artificial las prioridades de moduladores humanos.

En el futuro el uso de la inteligencia artificial irá más allá de priorizar los más importante. Un conjunto de algoritmos se encargarán de la priorización en base a la viralidad, la severidad y la probabilidad de violación de reglas de los contenidos que hayan sido reportados como lo reseñó The Verge.

Cuando un usuario marca en Facebook un contenido como sospechoso, se desencadena un proceso de moderación. Esta publicación es moderada automáticamente cuando el sistema detecta una clara violación, pero también se puede acumular en una cola de contenidos a ser moderados por humanos.

 Facebook apuesta por la inteligencia artificial y deja las prioridades de los moderadores humanos es sus manos

Este proceso es gusto el que quiere cambiar Facebook en su intento por implementar nuevas tecnologías. Ahora el aprendizaje automático se encargará de priorizar esa cola y colocar en los primeros puestos aquellos más importante. Una publicación denunciada por spam, por ejemplo, será de las menos prioritarias.

La idea es que los 15.000 moderadores humanos de Facebook se encarguen primeramente de los contenidos que requieren una atención más rápida, independiente de cual sea el motivo, pudiendo resultar potencialmente más dañinos.

Esto al mismo tiempo que se deja para más tarde aquellas publicaciones que por sus características puedan esperar. Se espera que el sistema priorice contenidos que tenga un impacto en el mundo real, por ejemplo, como aquellos relacionados con terrorismo, se priorizará.

Y aunque la inteligencia artificial continúe cobrando protagonismo y asumiendo tareas, los responsables se han afanado en subrayar que las violaciones de contenido “seguirán recibiendo una revisión humana sustancial”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *