Instagram está implementando nuevas medidas que limitar de forma proactiva el alcance de las publicaciones e historias de noticias en tiempo real que ‘probablemente’ violen sus reglas sobre el discurso de odio, la intimidación y la incitación a la violencia, como parte de sus esfuerzos cada vez mayores para reducir el riesgo del juego y del usuario en la aplicación.
Como lo explica Instagram:
“Anteriormente, nos enfocamos en mostrar publicaciones más bajas en Feed e Historias si contienen información errónea identificada por verificadores de hechos independientes, o si se comparten desde cuentas que han compartido información errónea repetidamente en el pasado. Hoy anunciamos algunos cambios para llevar este esfuerzo aún más lejos. Si nuestros sistemas detectan que una publicación puede contener intimidación, incitación al odio o incitar a la violencia, la mostraremos más abajo en las noticias y las historias de los seguidores de esa persona”.
Entonces, ¿cómo determinará Instagram si las publicaciones no denunciadas pueden contener estos elementos?
“Para entender si algo puede infringir nuestras reglas, veremos cosas como si un pie de foto es similar a un pie de foto que anteriormente infringió nuestras reglas”.
Instagram señala además que si sus sistemas predicen que es probable que un usuario individual denuncie una publicación, en función de su historial anterior de contenido de denuncia, también mostrará esa publicación más abajo en su feed personal.
Lo que parece bastante infalible, ¿verdad? No habrá una nueva afluencia de informes de ‘prohibición en la sombra’ o similares como resultado de que IG confía más en el aprendizaje automático para determinar el alcance de la publicación.
¿Correcto?
Sí, podría ser algo problemático, y considerando los esfuerzos que ha realizado Instagram en el pasado para explicar las prohibiciones de las sombras, parece inevitable que esto lleve a más acusaciones de censura, parcialidad y otras críticas a la plataforma como resultado de este cambio.
Lo que probablemente no sea una mala recompensa, si funciona. En teoría, este podría ser otro paso clave para limitar la propagación de la intimidación y el discurso de odio, los cuales no tienen cabida en ningún foro público y no tienen derecho a amplificación y transmisión a través de aplicaciones sociales. Instagram también está bajo presión para mejorar sus esfuerzos en la protección de los usuarios jóvenes contra el acoso y el abuso, después de la Fuga de archivos de Facebook el año pasado sugirió que la empresa matriz Meta había ignorado la investigación que mostraba que Instagram puede tener impactos dañinos en la salud mental de los adolescentes.
Cualquier cosa que se pueda hacer para detener la propagación de estos vale, al menos, un experimento, mientras que Instagram también señala que anteriormente evitó implementar sistemas automatizados de este tipo porque quería asegurarse de que su tecnología “pudiera ser tan precisa como posible’ en la detección.
Lo que sugiere que ahora tiene el nivel de confianza requerido en sus procesos para asegurar buenos resultados. Entonces, aunque sin duda habrá más informes de errores y más acusaciones de extralimitación, invocar alguna enmienda en la constitución (siempre incorrecta), si funciona y reduce los casos de daño y angustia mental debido a la intimidación y el discurso de odio, será completamente vale la pena.