Redes Sociales

¿Cómo regular las redes sociales?

La regulación de las redes sociales debe cimentarse en principios generales que prevalezcan sobre las innovaciones tecnológicas.
martes, 9 de febrero de 2021 · 15:22

¿Llegó el momento de regular las redes sociales? Los gobiernos consideran que éstas tienen demasiado poder y que la moderación que hacen de los contenidos podría considerarse censura. ¿Cómo distinguir entre regulación que proteja la libertad de expresión y control autoritario de la información en línea como represalia contra las redes sociales? ¿Las reglas que se aplican a la radio, la prensa y la televisión son válidas para las plataformas de redes sociales? El problema radica en comprender la naturaleza de internet, donde todo es distinto a lo que estamos acostumbrados.

Los temas de libertad de expresión, desinformación y competencia económica están interrelacionados en internet. Las redes sociales, como Twitter, Facebook, YouTube, Instagram o TikTok son grandes empresas cuasimonopólicas que enfrentan muy poca competencia porque son resultado de la innovación y de que el ganador se lleva todo. Internet y las empresas digitales han florecido gracias a un mínimo de regulación gubernamental.

Las redes sociales son tan pocas, tan grandes y tan aceptadas que se convierten en un riesgo para la libertad de expresión y la moderación del discurso en línea. Su talla les otorga poder económico, político y simbólico (influencia). Su capacidad de propagación de desinformación es mayúscula por las propias dimensiones de la red y la actividad de los usuarios. La tentación de moderar el contenido es más notorio porque todos están subidos y atentos a la plataforma.

¿Las plataformas de redes sociales son medios de comunicación? Los medios están configurados por una tecnología (imprenta, radiodifusión, plataformas), un contenido (producido por el propio medio), una práctica cultural (leer, ver televisión en casa) y una audiencia o masa de usuarios. La diferencia con los medios tradicionales es que el contenido no es producido por las redes sociales, sino por los usuarios.

En Estados Unidos, la Sección 230 de la Ley de Decencia en las Comunicaciones, de 1996, es considerada una norma para proteger la libertad de expresión y la innovación en internet. Dice que “ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o hablante de cualquier información proporcionada por otro proveedor de contenido de información”. Lo anterior concede inmunidad a esos servicios digitales.

En un video sobre el balance de 2016, por primera vez Mark Zuckerberg reconoció que su red social era algo más que una plataforma. “Facebook es un nuevo tipo de plataforma. No es una empresa de tecnología tradicional. No es una compañía de medios tradicional. Construimos tecnología y nos sentimos responsables de cómo se usa. No escribimos las noticias que la gente lee en la plataforma. Pero, al mismo tiempo, sabemos que hacemos mucho más que distribuir noticias y que somos una parte importante del discurso público.”

Aunque Facebook o Twitter no producen noticias o contenidos, sí deciden cómo mostrarlos a los usuarios a través de sus algoritmos, por lo que actúan como editores tecnológicos al priorizar o etiquetar los contenidos.

Las normas tradicionales están pensadas para regular la escasez de la información en prensa, radio o televisión. Es sencillo editar o censurar una noticia, entrevista o reportaje. Pero en internet impera la hiperabundancia de información. Moderar millones de contenidos de los usuarios no es tarea sencilla. Las redes sociales han encontrado en la tecnología (algoritmos, inteligencia artificial, big data, analítica de datos) la “solución” más “neutral” al desafío de la moderación.

Aún así, Facebook cuenta con 20 mil moderadores cuyo trabajo consiste en garantizar que se cumplan las normas de seguridad de la comunidad. Siete mil 500 son revisores de contenido que evalúan globalmente las publicaciones reportadas por los usuarios en más de 50 idiomas.

Un estudio del Centro Stern para Negocios y Derechos Humanos de la Universidad de Nueva York advierte que la moderación de contenido “es una función central del negocio de las redes sociales”. Los revisores leen 3 millones de publicaciones al día con un margen de error de 10%, es decir, 300 mil errores diarios equivalentes a contenidos controversiales (odio, violencia) que se filtran a la red.

Cuando Donald Trump firmó la Orden Ejecutiva 13925 del 28 de mayo de 2020 para prevenir la censura en línea (molesto porque Twitter colocó etiquetas de verificación de datos en sus tuits), argumentó que “no podemos permitir que un número limitado de plataformas en línea escojan personalmente el discurso (...). Cuando las grandes y poderosas empresas de redes sociales censuran opiniones con las que no están de acuerdo, ejercen un poder peligroso. Dejan de funcionar como tablones de anuncios pasivos y deben ser vistos y tratados como creadores de contenido”.

En ese momento las redes sociales pierden inmunidad y adquieren responsabilidad editorial.

Los gobiernos creen que las redes sociales interpretan o sesgan los eventos públicos, censuran, borran, desaparecen información, etiquetan y controlan selectivamente lo que los usuarios pueden ver o no ver. Todo esto no lo hacen las redes sociales de buena fe, sino porque se trata de puntos de vista que no les gustan o porque alguien ha pagado para priorizar su contenido.

Aquí entran los intentos de regulación. Pero hay que cuidar que los mandatos gubernamentales o legislativos no los motive la represalia política contra las plataformas en línea. La regulación de las redes sociales debe cimentarse en principios generales que prevalezcan sobre las innovaciones tecnológicas:

  • Derechos humanos. Es prioritario proteger la libertad de expresión en línea con base en los parámetros internacionales de derechos humanos. En México ya se reconoce el acceso a las tecnologías, la internet y la banda ancha como un derecho fundamental esencial para el ejercicio de la libertad de expresión.
  • Transparencia. Los usuarios tienen derecho a saber cómo, cuándo y por qué se modera el contenido. Las reglas, términos y condiciones deben ser consistentes, claros, apegarse a derechos humanos y gozar del consentimiento de los usuarios. Cada red social debe emitir informes periódicos sobre la actividad de moderación que realizan.
  • Rectificación. El usuario debe ser informado con anticipación de que su contenido podría estar transgrediendo las normas de la comunidad, para que pueda ser revisado o removido por el propio generador de contenido previo a cualquier etiquetado, suspensión o eliminación de cuenta.
  • Apelación. Las redes sociales deben brindar una oportunidad para defenderse de cualquier eliminación de contenido o suspensión de la cuenta, para que la decisión de la red social no sea ni arbitraria ni unilateral, sino que se garantice el debido proceso.

Estos principios ya existen, son reconocidos en el derecho internacional y son la base para cualquier regulación de redes sociales. Tras testificar por el caso de Cambridge Analytica en 2018, Zuckerberg reconoció que “es inevitable que exista la necesidad de alguna regulación”. Durante la 56 Conferencia de Seguridad de Múnich volvió a decir que “quienes diseñan las redes sociales requieren de guía y apoyo para combatir de mejor manera los riesgos de internet, como el contenido ofensivo o el robo de datos personales”.

Twitter: @beltmondi

Comentarios