Bajo un creciente escrutinio social e institucional en torno a su impacto cultural y su capacidad de influir en la conversación, en los últimos años las redes sociales y las plataformas digitales han reforzado sus políticas de uso y sus herramientas para potenciar la moderación del contenido que albergan. Esto ha dado lugar, por un lado, al surgimiento de nuevos espacios virtuales que se postulan como abanderadas de “la libertad de expresión”, como Parler o Truth Social, en respuesta a lo que consideran “la cultura de la cancelación”; y por otro, a nuevas estrategias comunicativas por parte de los usuarios para rodear a los algoritmos cuando quieren compartir mensajes vinculados a materias consideradas sensibles o que podría infringir las normas de uso.
El uso de expresiones codificadas para evitar bloqueo de contenido se ha popularizado
El sexo, la violencia, la incitación al odio o el terrorismo son asuntos que tradicionalmente han quedado bajo el paraguas de la moderación y reglas de comportamiento de plataformas como Facebook, Twitter o Instagram. De ahí que de forma habitual los usuarios hayan empleado términos como “pron” o “p0rn" para evitar escribir el término “porno”, o hayan apostado por el uso de emoticonos de verduras y frutas, como la berenjena o el melocotón, junto al de unas gotas de agua, para aludir al sexo.
El uso de eufemismos y circunloquios para eludir caer en las redes de los algoritmos de inteligencia artificial diseñados, en principio, para regular y garantizar espacios digitales más seguros son cada vez más habituales. Hasta tal punto que el fenómeno ha recibido el nombre de “algospeak”, en alusión a los términos “algoritmo” y “speak” y en referencia a una suerte de códigos secretos y expresiones cifradas que se están popularizando a nivel internacional con la intención de evitar que los mensajes y publicaciones sean eliminados.
Una tendencia al alza
El “algospeak” se ha acentuado especialmente a raíz de la pandemia, cuando los algoritmos de las plataformas comenzaron a hacer descender en su clasificación muchos de los contenidos que hacían alusión a la pandemia en un intento de plantar cara a una galopante desinformación. En este contexto, algunos usuarios se referían al coronavirus y a la pandemia como “gira de reunión de los Backstreet Boys”, "panini" o "panda express".
En esta misma línea, cuando los jóvenes comenzaron a entablar conversaciones sobre salud mental, muchos utilizaban expresiones como “becoming unalive” (convertirse en no vivo) para referirse al suicidio, una materia que se incluye entre las reglas de uso de una plataforma como Twitter. Por su parte, el eufemismo “camping” (acampada) se ha convertido en sinónimo de aborto a raíz de la derogación del derecho federal a la interrupción voluntaria del embarazo por parte del Tribunal Supremo de Estados Unidos este mes de junio.
El “algospeak” es una práctica ya habitual en las redes sociales. En una encuesta a 1.000 estadounidenses publicada este mes de septiembre, la compañía Telus International determinó que el 51% de los consumidores habían visto el uso de “lenguaje algorítmico” en las redes sociales, foros moderados y sitios web de marcas, así como en comunidades de juegos, y el 42% indicaron que ese comportamiento había aumentado desde que ellos mismos lo detectaron por primera vez.
Además, el análisis señala que el 30% de los estadounidenses han usado “algospeak”, pero este parece ser un comportamiento más común entre los miembros de la generación Z (de 18 a 24 años) con el 72% de ellos asegurando haber reconocido y estado expuestos a este fenómenos y el 41% diciendo que ellos mismos lo han usado.
Lo cierto es que si bien el fenómeno del “algospeak” puede ayudar a las personas, especialmente aquellas que pueden considerarse pertenecientes a comunidades marginalizadas, a discutir temas percibidos por algunos como controvertidos sin que su contenido se marque automáticamente para su eliminación; esta tendencia también puede ser utilizada por usuarios que practican comportamientos dañinos o desean intimidar o acosar cibernéticamente a otros.
Algunos términos codificados esconden comportamientos digitales perniciosos
En esta línea, el “algospeak” está siendo empleado con efectos dañinos. Según informa Forbes, algunos cuentas están haciendo uso del término “cheese pizza” (pizza de queso) para intercambiar imágenes explícitas de niños; mientras que en TikTok la expresión “touch the ceiling” (tocar el techo) se emplea para tratar de persuadir a las jóvenes para que muestren partes de su cuerpo desnudo ante sus seguidores.
“Hackeando” al algoritmo
Asimismo, el hecho de que la mayoría de algoritmos y sistemas de inteligencia artificial empleados por las plataformas para moderar el contenido carezcan de la capacidad de interpretar el contexto, está generando que algunos mensajes, publicaciones o contenidos de carácter divulgativo o de utilidad cultural estén siendo bloqueados o eliminados y, por tanto, no lleguen a ser recibidos por los destinatarios.
Tal es el caso, por ejemplo, de creadores que generan contenido relacionado con salud sexual y que, por tanto, emplean de forma habitual conceptos como sexo, vagina o pezones. Según recoge The Washington Post, esta última palabra, que en inglés se escribe “nipples”, está siendo sustituida por la expresión “nip nops”, en un movimiento que para muchos usuarios y creadores de contenido resulta, al mismo tiempo, infantilizante y casi ridículo.
En consecuencia, el “algospeak” está moldeando el lenguaje en tiempo real, generando nuevas y creativas formas de evitar el bloque por parte del algoritmo, o incluso, “hackear” a la propia inteligencia artificial. Así sucede con uno de los últimos eufemismos surgidos en TikTok: los usuarios ahora usan la frase "le dollar bean" en lugar de "lesbiana" porque es la forma en que la función de texto a voz de la aplicación pronuncia el término anglosajón "lesbian".
Muchos consideran que la literalidad de los algoritmos de moderación está constriñiendo el lenguaje real, obligando a muchos usuarios a suavizar su lenguaje, incluso aunque este sea en un contexto positivo, para no hacer saltar las alarmas de las máquinas. También entienden que el “algospeak” evidencia que lo que en ocasiones se postula como una herramienta sofisticada de aprendizaje automático, en gran medida es un listado de palabras que se consideran problemáticas.
No obstante, algunas herramientas de inteligencia artificial están ya seleccionando y determinando -en parte gracias a las denuncias de los usuarios- los eufemismos que están sustituyendo a las palabras consideradas problemáticas, como ya está sucediendo con palabras como “seggs”, que alude a sexo. Esto evidencia que si la máquina incluye estas variaciones en su lista de términos a bloquear, es que el circunloquio se ha popularizado y, por tanto, habría llegado a formar parte del vocabulario y la cultura popular.
El fenómeno del “algospeak” está moldeando subjergas, pero también evidencia la titánica tarea de la moderación de contenido en internet. Y es que aunque los algoritmos “aprendan” nuevas expresiones, el ser humano y su capacidad creativa probablemente encontrarán una nueva manera de seguir evitando los filtros y comunicándose. Para bien y para mal.