TikTok cada vez está poniendo más atención para eliminar los contenidos de odio, intimidación y acoso dentro de su plataforma.
Se ha creado un equipo de expertos para luchar contra los contenidos abusivos y proteger a los usuarios.La red social también anuncia nuevas herramientas en contra del contenido abusivo, principalmente en las transmisiones en vivo.
¿El objetivo? Detectar conductas de odio, intimidación y acoso.
¿Cómo lo hacen? Eliminando contenidos que crucen la línea. Según ha anunciado la red social, en el periodo comprendido entre abril y junio se han borrado más de 81 millones de vídeos que infringían las normas de la comunidad. Un grupo de especialistas en políticas de derechos civiles, equidad e inclusión, forman su equipo de expertos. El reto que persiguen es localizar los polémicos vídeos de forma proactiva, sin que los usuarios tengan que denunciar y, por ende, sin que se propague el mensaje.
En el segundo trimestre de este año un total de 81.518.334 vídeos infringían las normas de la comunidad.
Aunque la cifra es alta, supone solo el 1% del total de los contenidos que maneja TikTok. El 87,5% de ellos antes de que tuvieran ninguna visualización. Así se desprende del último informe de Cumplimiento de las Normas de la Comunidad de TikTok, relativo al segundo trimestre de 2021, en el que la plataforma recoge sus esfuerzos por luchar contra los contenidos abusivos y proteger a sus usuarios. Del total de vídeos eliminados, el 93% se identificó y eliminó durante las 24 horas posteriores a su publicación y el 94,1%, antes de ser denunciados por algún usuario.
TikTok apuesta por avanzar en la detección proactiva de las conductas de odio, intimidación y acoso, y el 73,3% de los vídeos de este tipo se eliminó antes de que nadie los denunciara, en comparación con el 66,3% del primer trimestre. Por su parte, el 72,9% de los vídeos con comportamientos de odio se eliminaron antes de ser denunciados, en comparación con el 67% del anterior informe. “Este progreso se debe a las mejoras en el marcado proactivo de los símbolos de odio, palabras y otras señales de abuso para que sean revisadas por los equipos de seguridad”, ha anunciado la red social. Además, han confirmado que hay nuevas funcionalidades.
“Los creadores de vídeos en directo de TikTok ya pueden también desactivar los comentarios o filtrar los comentarios potencialmente perjudiciales a través de una herramienta de selección de palabras clave”, indican. Ahora, el anfitrión o su coanfitrión pueden silenciar temporalmente a un espectador durante unos segundos o minutos, o durante toda la duración del vídeo en directo.
Si una cuenta está silenciada durante un periodo de tiempo, también se eliminará todo el historial de comentarios de esa personas.