Twitter, en pie de guerra contra los trolls

  • Integrará señales de comportamiento para determinar la forma en que se presentan los perfiles “troll”
  • Resultado positivo en las pruebas: 8% menos de reportes de abuso en conversaciones
twitter-trolls

Twitter se ha propuesto mejorar la salud de nuestras conversaciones online. Si en febrero luchaban contra las Fake News, ahora atacan a los llamados “trolls”. Sobre todo a aquellos que no tienen un tono irónico o humorístico, sino a los que distorsionan y restan valor a la conversación pública en Twitter.

Algunas cuentas y tuits violan las políticas de Twitter

Algunas de estas cuentas y tuits violan sus políticas, y en esos casos, toman medidas. Pero hay otros que, sin infringir las normas, se comportan de una manera que puede llegar a distorsionar la conversación. Las cuentas reportadas por abuso constituyen menos de un 1% del total, y mucho de lo que se reporta no viola las normas de Twitter. Aunque sea un número pequeño, estas cuentas tienen un impacto desproporcionadamente grande -y negativo- en la experiencia de otras personas en Twitter.

Su reto ha sido abordar proactivamente estos comportamientos disruptivos que no violan sus políticas pero impactan negativamente en la salud de la conversación.

Nuevo enfoque a sus políticas

Actualmente utilizan políticas, procesos de revisión humanos y machine learning para ayudar a determinar cómo se presentan y organizan los tuits en áreas comunes como conversaciones y búsquedas. Ahora integran nuevas señales de comportamiento para determinar la forma en que se presentan estos tuits abusivos entre las conversaciones, distorsionándolas.

Twitter prestará más atención a las señales de comportamiento

Muchas de esas señales no son visibles externamente. Algunos ejemplos de estas señales incluyen: si una cuenta no ha confirmado su dirección de correo electrónico, si la misma persona inicia sesión en múltiples cuentas de manera simultánea, cuentas que repetidamente tuitean y mencionan a cuentas que no les siguen, o comportamientos que podrían indicar un ataque coordinado. También analizan cómo están conectadas las cuentas con aquellos que violan sus reglas y cómo interactúan entre sí.

A partir de ahora todas estas señales se integran en su forma de organizar y presentar el contenido en áreas comunes como conversaciones y búsquedas.

Resultados positivos

En sus primeras pruebas en mercados de todo el mundo ya han podido comprobar el impacto positivo de esta estrategia: se han dado un 4% menos de reportes de abusos en búsquedas y un 8% menos de reportes de abuso de conversaciones. Esto significa que menos personas están viendo tuits que distorsionan su experiencia en Twitter.

Aseguran que su trabajo por la salud de las conversaciones no termina aquí. Su objetivo es aprender rápido y hacer que estos procesos y herramientas sean más inteligentes.  Continuarán siendo abiertos y honestos sobre sus progresos y errores: “Nos animan los resultados que hemos visto hasta ahora, pero también reconocemos que esto es solo un paso más en nuestro largo viaje para mejorar la salud general de nuestro servicio y tu experiencia en él”, concretan.