Hoy, hablemos sobre el último esfuerzo de Facebook para hacer que la plataforma sea más comprensible para los extraños, y cómo sus hallazgos informan nuestro debate actual, aparentemente interminable, sobre si también se puede tener una red social y libertad de expresión.
Comience con una observación: la semana pasada, Pew Research informó que la gran mayoría de los estadounidenses: Elon Musk, por ejemplo! — creen que las redes sociales censuran las publicaciones en función de los puntos de vista políticos que expresan. Aquí está Emily A. Vogels:
Subiendo ligeramente de años pasadosaproximadamente las tres cuartas partes de los estadounidenses (77 %) ahora piensan que es muy o algo probable que los sitios de redes sociales censuren intencionalmente los puntos de vista políticos que encuentran objetables, incluido el 41 % que dice que esto es muy probable.
La mayoría de los partidos políticos y las ideologías creen que estos sitios participan en la censura política, pero esta opinión está especialmente extendida entre los republicanos. Alrededor de nueve de cada diez republicanos (92 %), incluidos los partidarios del Partido Republicano, dicen que los sitios de redes sociales censuran intencionalmente los puntos de vista políticos que encuentran objetables, y el 68 % dice que es muy probable que sea así. Entre los republicanos conservadores, esta opinión es casi omnipresente: el 95 % dice que es probable que estos sitios censuren ciertas opiniones políticas y el 76 % dice que es muy probable que esto ocurra.
Una razón por la que encuentro estos números interesantes es que por supuesto las redes sociales están eliminando publicaciones en función de los puntos de vista que expresan. Todas las redes sociales estadounidenses están de acuerdo, por ejemplo, en que los nazis son malos y que no debería permitirse publicar en sus sitios diciendo lo contrario. Este es un punto de vista político, y decirlo no debería ser controvertido.
Por supuesto, esa no es la principal queja de la mayoría de las personas que se quejan de la censura en las redes sociales. republicanos decir constantemente que las redes sociales están dirigidas por liberales, tienen políticas liberales y censuran los puntos de vista conservadores para avanzar en su agenda política más amplia. (No importa la evidencia de que las redes sociales generalmente han sido una gran ayuda para el momento conservador.)
Entonces, cuando le preguntas a la gente, como lo hizo Pew, si las redes sociales están censurando las publicaciones basadas en la política, no están respondiendo la pregunta que realmente hiciste. En cambio, están respondiendo a la pregunta: en su mayor parte, ¿las personas que dirigen estas empresas parecen compartir su política?? Y eso, creo que explica más o menos el 100 por ciento de la diferencia en cómo respondieron los republicanos y los demócratas.
Pero ya sea en Twitter o en los pasillos del Congreso, esta conversación casi siempre tiene lugar solo en el nivel más abstracto. La gente se quejará de las publicaciones individuales que se eliminan, claro, pero rara vez alguien profundiza en los detalles: sobre qué categorías de publicaciones se eliminan, en qué número y en lo que las propias empresas tienen que decir sobre los errores que cometen.
Eso nos lleva a un documento que tiene un nombre aburrido, pero que está lleno de delicias para aquellos de nosotros que somos entrometidos y disfrutamos leyendo sobre las fallas de los sistemas de inteligencia artificial: Informe trimestral de aplicación de estándares comunitarios de Facebookel último de los cuales la compañía lanzó hoy como parte de un “informe de transparencia” para la segunda mitad de 2021.
Una cosa importante en la que debe concentrarse, ya sea que sea un usuario promedio preocupado por la censura o que haya comprado recientemente una red social que prometa permitir casi todo el discurso legal, es qué tipo de discurso elimina Facebook. Muy poco es “político”, al menos en el sentido de “comentario sobre eventos actuales”. En cambio, son publicaciones relacionadas con drogas, armas, autolesiones, sexo y desnudez, spam y cuentas falsas, e intimidación y acoso.
Sin duda, algunas de estas categorías están profundamente enredadas en la política: el terrorismo y las “organizaciones peligrosas”, por ejemplo, o lo que califica como discurso de odio. Pero en su mayor parte, este informe narra cosas que Facebook elimina porque es bueno para negocio. Una y otra vez, los productos sociales descubren que su uso se reduce cuando incluso un pequeño porcentaje del material que alojan incluye spam, desnudos, sangre o personas que se acosan entre sí.
Por lo general, las empresas sociales hablan de sus reglas en términos de lo que están haciendo “para mantener segura a la comunidad”. Pero el propósito más existencial es mantener a la comunidad regresando al sitio en absoluto. Esto es lo que hace que la nueva ley de medios sociales de Texas, sobre la que escribí ayer, potencialmente tan peligroso para las plataformas: aparentemente requiere que alojen material que alejará a sus usuarios.
Al mismo tiempo, está claro que eliminar demasiadas publicaciones además aleja a la gente. En 2020, informé que Mark Zuckerberg les dijo a los empleados que la censura era la queja número 1 de la base de usuarios de Facebook..
Un enfoque más sensato para regular las plataformas comenzaría con la suposición de que se debe permitir que las empresas privadas establezcan y hagan cumplir las pautas de la comunidad, aunque solo sea porque sus empresas probablemente no serían viables sin ellas. A partir de ahí, podemos exigir a las plataformas que nos digan cómo son moderadores, bajo la idea de que la luz del sol es el mejor desinfectante. Y cuanto más entendamos sobre las decisiones que toman las plataformas, más inteligente será la conversación que podamos tener sobre los errores que estamos dispuestos a tolerar.
Como el erudito de moderación de contenido Evelyn Douek ha escrito: “La moderación del contenido siempre implicará errores, por lo que las preguntas pertinentes son qué tasas de error son razonables y qué tipos de errores se deben preferir”.
El informe de Facebook de hoy destaca dos tipos principales de errores: los cometidos por seres humanos y los cometidos por sistemas de inteligencia artificial.
Comience con los humanos. Por razones que el informe no revela, entre el último trimestre de 2021 y el primer trimestre de este, sus moderadores humanos sufrieron “una disminución temporal en la precisión de la aplicación” en publicaciones relacionadas con las drogas. Como resultado, la cantidad de personas que solicitaron apelaciones aumentó de 80 000 a 104 000, y Facebook finalmente restauró 149 000 publicaciones que se habían eliminado indebidamente.
Sin embargo, podría decirse que los humanos tuvieron un mejor trimestre que los sistemas automatizados de Facebook. Entre los problemas con la IA esta vez:
- Facebook restauró 345.600 publicaciones que se habían eliminado indebidamente por infringir políticas relacionadas con las autolesiones, frente a las 95.300 del trimestre anterior, debido a “un problema que provocó que nuestra tecnología de comparación de medios activara contenido que no infringía”.
- La empresa restauró 414.000 publicaciones que habían sido eliminadas indebidamente por violar políticas relacionadas con el terrorismo y 232.000 relacionadas con grupos de odio organizados, aparentemente por el mismo problema.
- La cantidad de publicaciones que eliminó indebidamente por violar políticas relacionadas con contenido violento y gráfico el último trimestre se duplicó con creces, a 12.800, porque los sistemas automatizados eliminaron incorrectamente fotos y videos de la invasión rusa de Ucrania.
Por supuesto, también hubo buena evidencia de que los sistemas automatizados están mejorando. En particular, Facebook tomó medidas en 21,7 millones de publicaciones que violaban las políticas relacionadas con la violencia y la incitación, frente a los 12,4 millones del trimestre anterior, “debido a la mejora y expansión de nuestra tecnología de detección proactiva”. Eso plantea, eh, más de unas pocas preguntas sobre lo que escapó a la detección en trimestres anteriores.
Aún así, Facebook comparte mucho más sobre sus errores que otras plataformas; YouTube, por ejemplo, comparte información sobre videos que se eliminaron por errorpero no por categoría y sin ninguna información sobre los errores que se cometieron.
Y, sin embargo, aún hay mucho más que nos beneficiaría saber: de Facebook, YouTube y todo lo demás. ¿Qué tal ver todos estos datos desglosados por país, por ejemplo? ¿Qué tal ver información sobre categorías más explícitamente “políticas”, como publicaciones eliminadas por violar políticas relacionadas con información errónea sobre la salud? ¿Y qué tal verlo todo mensualmente, en lugar de trimestralmente?
A decir verdad, no sé si algo de eso haría mucho para cambiar el debate actual sobre la libertad de expresión. Los partidarios simplemente tienen mucho que ganar políticamente gritando sin cesar “censura” cada vez que cualquier decisión relacionada con la moderación del contenido va en su contra.
Pero deseo que los legisladores al menos pasen una tarde enredándose en los detalles de un informe como el de Facebook, que expone los desafíos comerciales y técnicos de albergar las opiniones de tantas personas. Subraya la inevitabilidad de los errores, algunos de ellos bastante importantes. Y plantea preguntas que los legisladores podrían responder a través de regulaciones que en realidad podrían resistir el escrutinio de la Primera Enmienda, como qué derechos de apelación debería tener una persona si su publicación o cuenta se eliminan por error.
También hay, creo, una lección importante para Facebook en todos esos datos. Cada tres meses, según sus propios datos, millones de sus usuarios ven sus publicaciones eliminadas por error. No es de extrañar que, con el tiempo, se haya convertido en la principal queja entre la base de usuarios. Y aunque los errores son inevitables, también es fácil imaginar que Facebook trate mejor a estos clientes: explicando el error en detalle, disculpándose por él, invitando a los usuarios a enviar comentarios sobre el proceso de apelación. Y luego mejorar ese proceso.
El statu quo, en el que esos usuarios pueden ver una breve respuesta automática que no responde a ninguna de sus preguntas, es un mundo en el que el apoyo a la red social, y a la moderación de contenido en general, sigue disminuyendo. Aunque solo sea para preservar sus negocios, ha llegado el momento de que las plataformas lo defiendan.