La plataforma de transmisión en vivo Twitch ha dado un importante paso hacia la protección de su comunidad, al actualizar su política de moderación de contenidos con el objetivo de frenar el acoso sexual en la plataforma. Esta medida busca que su normativa sea más fácil de comprender para los usuarios, además de anunciar una novedad en la herramienta de moderación AutoMod.
La compañía ha dejado en claro que el acoso sexual nunca está bien ni es aceptable, ya que puede perjudicar gravemente a su comunidad, haciendo que las personas que la forman «se sientan inseguras y poco respetadas», lo que puede llevarles a dejar de utilizar Twitch. Es por ello que han realizado una serie de aclaraciones en su normativa de uso, con nuevas políticas diseñadas para que sean más fáciles de entender por parte de los usuarios.
UNA DEFINICIÓN MÁS CLARA DEL ACOSO SEXUAL
Twitch ha reconocido que, para que su política de acoso sexual sea eficaz, debe haber «un entendimiento común» de qué es el acoso sexual y de cómo se manifiesta, por lo que ha eliminado términos ambiguos que lo definan para evitar equivocaciones. Ahora, define el acoso sexual «como el conjunto de comportamientos no físicos de naturaleza sexual que hacen que los usuarios se sientan incómodos, degradados, inseguros o disuadidos de participar».
De esta manera, la plataforma prohíbe los comentarios no deseados, incluidos aquellos en los que únicamente se emplean emojis, y que estén relacionados con el cuerpo o el aspecto de alguien. También prohíbe las peticiones o insinuaciones sexuales, la cosificación sexual y las declaraciones o actividades sexuales percibidos de una persona, independientemente de cuál sea su sexo.
Además, Twitch ha recordado que no consiente que se graben o se compartan imágenes o vídeos íntimos no consentidos «bajo ninguna circunstancia», y que tiene la potestad de denunciarlos ante las fuerzas de seguridad.
NUEVAS HERRAMIENTAS PARA COMBATIR EL ACOSO SEXUAL
Twitch ha animado a los usuarios a utilizar las herramientas de moderación disponibles si se encuentran en cualquier situación de acoso, incluido el sexual. En este sentido, ha señalado que se tendrá en cuenta «una serie de señales», como el tiempo de espera y la actividad de bloqueo de canales, así como los informes remitidos por parte de estas personas, para confirmar si se trata de comentarios no deseados o no consentidos.
Por otro lado, la plataforma ha anunciado una actualización de AutoMod para combatir mejor el acoso sexual. Se trata de una herramienta de moderación desarrollada para identificar de forma proactiva y limitar la visibilidad de los mensajes de chat que puedan ser dañinos.
Esto significa que si un ‘streamer’ utiliza esta solución en su canal, neutralizará las comunicaciones inapropiadas antes de que se muestren a otros espectadores en el chat y serán los moderadores de contenido quienes se encarguen de revisarlos. Si los aprueban, se mostrarán finalmente en el chat.
Twitch también ha introducido una nueva categoría AutoMod para filtrar los mensajes del chat que puedan considerarse acoso sexual y que proporciona «una capa adicional de protección» para los usuarios.
En resumen, Twitch ha dado un importante paso para erradicar el acoso sexual en su plataforma, mediante una definición más clara de este tipo de comportamientos y el desarrollo de nuevas herramientas de moderación que permitan identificar y limitar este tipo de contenidos dañinos. Con estas medidas, la compañía busca garantizar un entorno seguro y respetuoso para toda su comunidad de creadores y espectadores.