Solo en el 2023 se bloquearon o eliminaron 206.5 millones de anuncios de potenciales estafas virtuales, así como 273.4 millones de anuncios relacionados a riesgosos servicios financieros y 1,000 millones de promociones de malware (código malicioso) en Google. Descubre cómo se utiliza inteligencia artificial para evitar que estos falsos anunciantes lleguen a los usuarios de internet.
El 2023 Ads Safety Report -que hace un repaso de las acciones en Google Ads- revela que los modelos de
inteligencia artificial son capaces de revisar e interpretar rápidamente gran volumen de contenido, y al mismo tiempo captar variaciones importantes dentro de esos contenidos.
Sin embargo, los estafadores que están detrás de este tipo de anuncios se han vuelto más sofisticados. Ajustan sus tácticas y adaptan anuncios en torno a nuevos productos y/o servicios financieros, como asesorías en inversiones o monedas digitales, para estafar a los usuarios.
Logros al usar inteligencia artificial en Google Ads
En general, durante al año pasado, gracias al uso de
inteligencia artificial , se logró bloquear o eliminar más de 5,500 millones de anuncios, un poco más que el año anterior, y 12,7 millones de cuentas de anunciantes, casi el doble que en 2022.
La mayoría (1.04 mil millones) estuvo relacionado a incumplimiento de las políticas, así como de abuso de la marca registrada (548 millones). Los juegos de apuestas (192 millones) y anuncios de salud (80 millones) también fueron bloqueados o eliminados a lo largo del año pasado.
También se restringieron más de 2,100 millones de publicaciones de anuncios sobre contenido sexual, una cifra un poco superior a la de 2022.
En cuanto a la lucha contra las infracciones graves o generalizadas, se evaluaron más de 395.000 sitios web, un aumento notable con respecto a 2022.
Además, se restringió la monetización en sitios web de contenido sexual (1.8 mil millones), contenido de riesgo (104 millones), armas (61 millones), contenido sensible (40 millones), juegos de apuestas (38 millones) y malware o programas maliciosos que pueden causar otros delitos informáticos (25 millones).
Para
Google, el impacto de la
inteligencia artificial en esta labor se traduce en que, el año pasado, más del 90% de las acciones de cumplimiento, a nivel de página de editor, comenzaron con el uso de modelos de aprendizaje automático, incluidos los últimos grandes modelos de lenguaje (LLM).
Si se tratara de un error, el anunciante puede apelar a una acción de cumplimiento y un equipo humano revisará el caso.
(FIN) SPV