Facebook suspende financiación a organizaciones de verificación de datos en EE.UU.
Facebook suspende la financiación a organizaciones de verificación de datos en EE. UU., intensificando la lucha contra la desinformación y el discurso de odio en redes sociales.
Facebook ha anunciado que suspenderá la financiación a organizaciones dedicadas a la verificación de datos en Estados Unidos, una decisión que se produce en un contexto de declive en la moderación de contenidos. Mark Zuckerberg, en un intento por evitar descontentos con el nuevo presidente Trump, también señaló que la gestión de información en las redes sociales ha decaído en los últimos años.
Desde la adquisición de Twitter por Elon Musk en 2022, se ha documentado un aumento alarmante en el lenguaje de odio, así como en la desinformación que afecta a científicos y médicos, lo que ha facilitado la propagación de mensajes racistas y de odio. Los medios de comunicación especializados en verificación de datos, los cuales Zuckerberg ha acusado de practicar censura, han recordado que nunca han tenido el control total sobre las etiquetas que se aplican a los contenidos, las cuales son gestionadas únicamente por Facebook, que determina la visibilidad y monetización de estos mensajes.
El presidente del Instituto Poynter ha señalado que los recursos de estas organizaciones son limitados, lo que les impide abordar la gran cantidad de información cuestionable en las plataformas. Según expertos, esta reciente suspensión de financiación representa una pérdida significativa en la lucha contra la desinformación, con una creciente vulnerabilidad de los usuarios a la manipulación de actores maliciosos que propagan contenido engañoso.
La batalla contra la desinformación alcanzó un punto crítico tras la elección de Trump en 2016, cuando las plataformas comenzaron a reconocer que la desinformación no era un asunto marginal. Facebook lanzó, ese mismo año, un programa de verificación de datos a través de terceros, con la intención de combatir la proliferación de información falsa, aunque este esfuerzo ha tenido un impacto evidente limitado.
Durante la pandemia de COVID-19, se observó un esfuerzo coordinado entre plataformas para mitigar la desinformación relacionada con el virus. Sin embargo, investigaciones han demostrado que etiquetar el contenido como “falso” no ha eliminado su exposición pública, contribuyendo a la propagación de falsas creencias y a la resistencia a las medidas sanitarias.
Documentos internos de Facebook, revelados en 2021, mostraron que la empresa era consciente de los efectos nocivos de sus algoritmos, destacando su papel en la desinformación sobre COVID y en el fomento de grupos extremistas. Investigaciones recientes apuntan a que la falta de responsabilidad de las plataformas por su inacción ante la desinformación y el discurso de odio podría dar lugar a un problema aún mayor en el futuro.
Zuckerberg ha indicado que el programa de verificación de terceros será reemplazado por un sistema de “notas comunitarias”, similar al que se implementó en Twitter, aunque su efectividad sigue siendo incierta. Un estudio reciente sugiere que este sistema en Twitter no ha reducido el compromiso con la desinformación, lo que plantea dudas sobre su viabilidad como solución a un problema en aumento.
De cara al futuro, la discusión sobre la moderación de contenido podría trasladarse a Europa, donde está en marcha una nueva legislación que exige a las plataformas mayor transparencia sobre sus sistemas de recomendación y mecanismos para informar contenidos problemáticos. La Comisión Europea ha iniciado investigaciones sobre Twitter por posibles violaciones a las normas de moderación y transparencia, simbolizando un cambio potencial en la regulación de estas plataformas a nivel global.