(Ad Age) - Los atentados de Israel han vuelto a plantear la cuestión del extremismo y el terrorismo en las plataformas sociales y el papel de las marcas en su monetización.
Los anunciantes se enfrentan a los retos del marketing digital en las redes sociales mientras las imágenes de la guerra inundan los espacios en línea. Las marcas han renovado su preocupación por la monetización de contenidos extremistas, mientras que las plataformas luchan por mantener la moderación, según los líderes publicitarios.
En medio de la violencia, varias marcas están recurriendo a nuevos controles en algunas plataformas, como en TikTok y en los Reels de Meta, para aparecer únicamente cerca de videos que cumplan las normas más estrictas de idoneidad, según Andrew Serby, director comercial de Zefr, un servicio independiente de verificación de anuncios que mide los sitios de medios sociales, incluidos Meta, TikTok y YouTube.
Según informó el miércoles la CNN, han habido informes de escuelas y organizaciones de padres que aconsejan a los niños que abandonen las aplicaciones de las redes sociales por los efectos que podría tener en su salud mental ver imágenes en directo de los atentados. Durante el fin de semana, Hamás utilizó las redes sociales y los teléfonos móviles como armas; los terroristas enviaron mensajes a familiares de israelíes que estaban siendo asesinados. Ahora hay más preocupación por la posibilidad de que Hamás difunda más videos de rehenes en las plataformas sociales.
"Esto es una prueba de lo lejos que han llegado las plataformas desde el "adpocalypse"", dijo Serby el jueves. "Es casi volver a la cuestión central, que es si las marcas están apoyando el terrorismo".
Antes y ahora
El "adpocalypse" fue un término que cobró relevancia en 2017, después de que grandes marcas retiraran anuncios de YouTube ante el temor de que se estuvieran emitiendo anuncios en canales afiliados al extremismo y, en algunos casos, con contenido relacionado con el terrorismo. Desde entonces, todas las plataformas han pasado por periodos en los que la seguridad de las marcas ha sido un problema. Meta, YouTube y TikTok, entre otras, han colaborado con un grupo denominado Global Alliance for Responsible Media (GARM) para aplicar políticas de moderación y controles publicitarios.
Esta misma semana, Meta puso en marcha la última fase de los controles de idoneidad de las marcas en Reels -los videos de Facebook e Instagram al estilo de TikTok- ampliando los filtros de contenido, que la plataforma ya ofrecía a las marcas en otras partes de sus aplicaciones. Los filtros de contenido intentan evitar que los anuncios aparezcan antes o después de material inadecuado, según la definición de GARM, que incluye imágenes de violencia, guerra y terrorismo.