Meta eliminó más de 600.000 cuentas vinculadas a comportamiento depredador en Instagram y Facebook
- Malka Mekler
- 24 jul
- 2 Min. de lectura
La compañía introdujo nuevas funciones de seguridad dirigidas a los usuarios adolescentes, incluidas protecciones mejoradas para la mensajería directa.

Meta anunció una serie de actualizaciones en sus sistemas de seguridad dirigidas a proteger a los usuarios adolescentes en Instagram y Facebook, en medio de crecientes presiones regulatorias. Según reportó CNBC, la compañía implementó nuevas funciones de detección y bloqueo automático que ahora restringen el contacto entre menores y cuentas potencialmente dañinas, mediante filtros más estrictos en los mensajes directos y comentarios.
La plataforma incorporará avisos que informan a los adolescentes con quién están interactuando, incluyendo datos como la fecha de creación del perfil y consejos de seguridad para identificar cuentas sospechosas. Además, Meta habilitó una acción combinada para bloquear y reportar perfiles desde una sola interfaz. Solo en junio, los adolescentes utilizaron estos avisos de seguridad para bloquear un millón de cuentas y reportar otro millón, según datos de la compañía.
Como parte de esta estrategia proactiva, Meta comenzó a colocar de forma automática las cuentas de adolescentes y niños, o aquellas manejadas por adultos en representación de menores, en configuraciones que filtran mensajes ofensivos y limitan el contacto con usuarios desconocidos. Estas medidas surgen luego de que la empresa eliminara, solo este año, más de 135.000 cuentas en Instagram por conductas como comentarios sexualizados o solicitudes de imágenes explícitas a cuentas de menores administradas por adultos. A estos se suman otras 500.000 cuentas en Instagram y Facebook que estaban vinculadas con los perfiles eliminados.
La compañía también confirmó la eliminación de 10 millones de cuentas que suplantaban a creadores de contenido en la primera mitad de 2025, como parte de su combate a la desinformación y los contenidos “spam”.
Estas acciones tecnológicas buscan responder a las críticas que han enfrentado las plataformas sociales por su impacto en la salud mental de los jóvenes y su vulnerabilidad ante abusos digitales. Mientras tanto, el Congreso de EE. UU. retomó en mayo el proyecto de ley Kids Online Safety Act, que obligaría a las plataformas a asumir un “deber de cuidado” hacia los menores, con especial atención a su seguridad y bienestar en línea.
Komentarze