Publicidad > Global | (AD AGE) DESDE EL BOICOT PUBLICITARIO A FACEBOOK
Redacción Adlatina |
(Ad Age) - Desde el boicot publicitario a Facebook ha habido un impulso por civilizar a las redes sociales, con un enfoque renovado en la seguridad de la marca, pero las plataformas pueden hacer mucho para eliminar todo el material potencialmente ofensivo y engañoso que surge a través de sus páginas y videos.
Un primer borrador de una propuesta de un influyente grupo de la industria, Global Alliance for Responsible Media, parece reconocer estas limitaciones. El grupo, conocido por su acrónimo GARM, ha hecho circular un borrador de las nuevas reglas que está redactando a raíz del boicot a Facebook.
La propuesta intenta definir contenido ofensivo, impulsar plataformas para demostrar cuán frecuente es ese contenido en sus servicios y brindar transparencia a las marcas sobre cuándo aparecen anuncios junto a ese contenido.
En un comunicado de GARM se aclara: “Independientemente del contenido dañino que se publique, todos los especialistas en marketing deben tener la capacidad de administrar el entorno en el que se anuncian y los riesgos”.
GARM se negó a discutir la propuesta ya que no había terminado con el trabajo. El organismo está trabajando para materializar todo a finales de este mes. Los planes abarcan la definición del discurso del odio, la calificación de las plataformas según su capacidad para vigilar el contenido dañino, la realización de auditorías para demostrar que las plataformas están tomando las acciones que prometen y otorgar a los anunciantes más controles.
GARM es solo una de las entidades que busca cómo limpiar las redes sociales. Fue ungido como un perro guardián de la industria a raíz del boicot de la marca Facebook, un movimiento que fue apodado Stop Hate for Profit por los grupos de derechos civiles que lo organizaron. En las últimas semanas, las principales firmas de Madison Avenue, incluidas las principales compañías de medios como Omnicom e IPG Mediabrands, una parte del Interpublic Group of Companies, también han avanzado sus propios planes en torno a la seguridad de la marca.
Omnicom obtuvo compromisos firmes de Snapchat y TikTok para ofrecer controles de “adyacencia”, lo que permitirá a los anunciantes evitar publicar anuncios junto con el contenido que consideren perjudicial. TikTok desplegará sus controles en el cuarto trimestre, mientras que Snapchat los prometió en el primer trimestre de 2021. YouTube ya proporcionó dichos controles desde que enfrentó a una rebelión de anunciantes en 2017 por publicar anuncios en videos que presentaban temas relacionados con el terrorismo y el discurso del odio.
Mientras tanto, Twitter y Facebook, posiblemente dos de los entornos más difíciles de controlar, han prometido considerar controles de adyacencia. El News Feed de Facebook y la cronología de Twitter han sido un terreno incómodo para las marcas preocupadas por aparecer cerca de una cobertura electoral combativa o problemas sociales.
Ben Hovaness, director de inteligencia e innovación de Omnicom Media Group, aseguró: “Les estamos dando a los anunciantes control sobre dónde exactamente se publican sus anuncios y luego obteniendo información sobre dónde se entregaron”. Por su parte, IPG Mediabrands ha perseguido objetivos similares con una iniciativa denominada Principios de responsabilidad de los medios, que promueve la transparencia publicitaria e insta a las plataformas a vigilar el discurso de odio y las publicaciones dañinas.
La dificultad de vigilar las redes sociales se hizo aún más evidente la semana pasada con la violencia en Kenosha, Wisconsin, donde un tirador fue acusado de matar a tres manifestantes que estaban en las calles exigiendo justicia para la última víctima de la violencia policial, Jacob Blake. El tirador de la protesta parecía estar afiliado a un grupo de milicias que se había organizado en Facebook, el tipo de grupos que Facebook había prometido unos días antes desterrar de su servicio. Facebook dijo que no ha descubierto enlaces que vinculen al atacante con grupos de milicias en la red social.
Joshua Lowcock, director digital de UM y director de seguridad de marca global en Mediabrands, que es parte de IPG, argumentó: “Facebook deberá priorizar algún tipo de controles de seguridad de marca en el feed, así como resolver los grupos de Facebook para demostrar que se preocupa por proteger a la sociedad y a los anunciantes”.
Facebook ha puesto su fe en GARM para ser parte de la respuesta a sus problemas, pero parece que su orientación no llegará lo suficientemente pronto. GARM está redactando nuevas definiciones en 11 áreas que definirán el discurso de odio y otras formas de contenido ofensivo, que incluyen sexo, violencia, armas, drogas, delitos y violaciones de derechos humanos. El borrador inicial de su propuesta muestra que GARM también planea introducir una nueva categoría: “desinformación”, que está relacionada con su sección sobre “temas sociales sensibles”.
GARM no puede hacer que las plataformas eliminen todo el contenido potencialmente dañino, pero puede incitar a las plataformas a estudiar cuánto de este contenido aparece en sus servicios y cuándo aparecen anuncios cerca de ese contenido.
Facebook ha insistido en que capta el 95% del contenido ofensivo, que cubre el discurso de odio, a través de inteligencia artificial antes de que llegue al público.