Medios Global

INFORME ESPECIAL DE EDGARDO RITACCO: AUTORREGULACIÓN, FAKE NEWS Y LIBERTAD DE EXPRESIÓN

¿Cómo se podrá limpiar la web?

(Por Edgardo Ritacco, director periodístico de adlatina.com) – Todos parecen estar de acuerdo en que se deben eliminar de la web los contenidos peligrosos, el terrorismo, los abusos a menores y la desinformación, entre otros. Pero las diferencias surgen a la hora de decidir la forma de actuar.

¿Cómo se podrá limpiar la web?
Susan Wojcicki, chief executive officer de YouTube, dijo que los contenidos “borderline” son particularmente difíciles de controlar.

Por Edgardo Ritacco
Director periodístico de Adlatina


“La era de la autorregulación de las compañías online ha terminado”, declaró días atrás Jeremy Wright, secretario de cultura del Reino Unido, al lanzar el documento llamado Online Harms White Paper. Pero según muchos analistas lo que el funcionario quiso decir con esas palabras era que lo que ha terminado es la era de la libertad en internet.

A lo largo de los treinta años de existencia de la web, las democracias mundiales han dejado bien en claro que no apoyan una regulación explícita del contenido online. Pero una gran parte del contenido online todavía enfrenta la censura. La policía arresta a miles de personas cada año en el propio Reino Unido por sus posteos, especialmente los que violan las leyes anti odio en la web.

Está claro que las últimas disposiciones del gobierno británico marcan un significativo y decisivo vuelco en contra de la libertad de expresión en internet. El ejemplo de lo que ocurre en Inglaterra puede extenderse al resto del mundo, donde el tema sigue siendo estudiado día a día con un ánimo parecido. El ente regulador creado en el Reino Unido ―que aun no entró en funciones― tendrá como misión redactar un código de prácticas y aplicar un “duty of care” sobre las firmas tecnológicas. En algunos casos, los servicios proveedores de la web podrán recibir la orden de bloquear totalmente los websites.

Pero lo que el gobierno define como “contenido dañino” ―y, por lo tanto, objeto de censura― es algo nebuloso. Para apoyar su posición sobre la censura, los funcionarios combinan las actividades que ya son ilegales tanto online como offline, incluyendo el terrorismo, los abusos a menores y la esclavitud moderna, que son dañinos sin lugar a dudas, con otros que, según el propio Libro Blanco, tienen una “definición poco clara”, tales como el “ciberbullying y el trolling”, los “contenidos extremistas” y la desinformación, es decir, las famosas “fake news”.

Las multas, castigos y prohibiciones le permitirán al poder central accionar contra las malas compañías tecnológicas. El secretario del interior Sajid Javid, al hablarles a esas empresas, les dijo secamente: “Yo les advertí y ustedes no hicieron lo suficiente. Por eso ya no se trata de una cuestión de opción”.


El marco previo

Antes de estos sucesos, Mark Zuckerberg había escrito un artículo de fondo en The Washington Post enque solicitaba leyes para los “contenidos dañinos” y un esquema global común para la regulación de internet. Aun sin la intervención de los gobiernos, las firmas de redes sociales habían tomado por su cuenta decisiones de prohibición en los casos de Tommy Robinson y Alex Jones. Twitter había prohibido a varios usuarios por sus actitudes hacia las personas trans, mientras Facebook también lo había hecho con contenidos que promovían el “nacionalismo blanco”. Las firmas tecnológicas actuaron también en el escándalo de Cambridge Analytica y en otros casos similares.

Pero la elite liberal culpa a los redes sociales por el voto a favor del Brexit y la elección de Donald Trump, además de permitir la propagación de fake news y la desinformación sobre Rusia.

Está claro que amenazar con grandes multas a las compañías de redes sociales por albergar contenidos dañinos significa que las plataformas deberán censurar primero y preguntar después. Esa política ya produjo daños importantes en la propia Europa, como las nuevas leyes alemanas que amenazan con grandes multas a los redes que no eliminen los contenidos observados dentro de las 24 horas. También en Francia, las leyes contra las fake news, vigentes desde diciembre, hicieron que Twitter bloqueara una campaña de registro de votantes promovida por el propio gobierno central.

Las propuestas de los gobiernos, coinciden analistas de distintos países, son “un desastre para la libre expresión online”, y significarían el fin de la internet tal como se la ha conocido en sus treinta años de historia.


La falla de los algoritmos

Con el incendio de la catedral de Notre-Dame en París, un esfuerzo de YouTube para luchar contra la desinformación falló. La capacidad de chequeo de datos de la plataforma ―un recuadro que muestra hechos que ayudan a los lectores a contextualizar la información― desplegó incorrectamente esa noticia junto con otras vinculadas a la caída de las Torres Gemelas, del 11 de septiembre de 2001.

En una declaración posterior, YouTube reconoció que “esos paneles son activados por algoritmos, y nuestros sistemas a veces cometen estos errores”.

Pero la falla despertó la pregunta: si una plataforma no puede proveer datos confiables, ¿cómo podemos creer en que va a eliminar correctamente los malos contenidos?

Facebook, YouTube y otras compañías de la Big Tech dicen que los contenidos malignos tendrán que ser eliminados automáticamente, porque sería un enorme trabajo para los seres humanos. Pero ocurre que los algoritmos no son en absoluto infalibles.

Es un problema difícil de resolver. La chief executive officer de YouTube, Susan Wojcicki, dijo que los contenidos “borderline” ―material que es potencialmente dañino, pero que no viola las normas― son particularmente difíciles de controlar.

Rasmus Nielsen, un profesor de comunicación política de la Universidad de Oxford que estudia expresamente la desinformación, dijo que “este problema nunca se podrá resolver, si eso significa librarse del mal contenido, porque no podemos ponernos de acuerdo con lo que es exactamente un mal contenido”. Entonces el profesor Nielsen preguntó: “¿Qué se debe elegir? ¿Un sistema que se equivoca hacia el lado de alertar, o uno que se vuelca hacia la permisividad?”.

La decisión final, si la hubiere, podría girar entre la regulación o la última que adoptó el Reino Unido. La primera se acerca a la legislación que fue aprobada por la Unión Europea, que requiere que las plataformas eliminen el contenido terrorista dentro de la primera hora de la notificación de las autoridades. Y la segunda, la última propuesta por el Reino Unido, multa rápidamente a las compañías que no quiten los contenidos dañinos de la red.

Allí surge una cuestión de fondo: al espinoso tema de infringir potencialmente los derechos de libre expresión para asegurar que las plataformas permanezcan limpias. Los legisladores tendrán que decidir qué clase de algoritmos quieren ver aplicados para usar sus regulaciones, y ya se sabe que ese problema no tiene una fácil solución.

Redacción Adlatina

Por Redacción Adlatina

Compartir nota