Meta refuerza protección para adolescentes y elimina 635,000 cuentas con contenido inapropiado hacia menores

4 Min Read

Meta intensifica medidas para proteger a adolescentes y elimina más de medio millón de cuentas con contenido inapropiado

San José, Costa Rica — Meta, la empresa matriz de Facebook e Instagram, ha anunciado una serie de nuevas medidas destinadas a reforzar la seguridad de los adolescentes en sus plataformas, al tiempo que reveló la eliminación de 635,000 cuentas en lo que va del año por infringir políticas relacionadas con el contenido inapropiado hacia menores.

El anuncio se produce en medio de un creciente escrutinio internacional sobre la seguridad infantil en línea y las responsabilidades de las grandes tecnológicas para proteger a los usuarios más jóvenes. Según portavoces de Meta, estas cuentas fueron suprimidas por violar normas vinculadas al comportamiento de adultos que potencialmente representan una amenaza para menores, incluyendo intentos de contacto inadecuado o contenido explícito.

Las medidas de Meta buscan fortalecer la protección preventiva de adolescentes al restringir el tipo de cuentas que pueden interactuar con ellos desde el inicio. Una de las estrategias más importantes es la implementación por defecto del “Modo de privacidad reforzada” para todos los perfiles de usuarios entre 13 y 17 años. Con esta configuración activa, se limita quién puede enviar mensajes, ver contenidos o encontrar el perfil en búsquedas.

Adicionalmente, Meta ha anunciado la expansión del uso de inteligencia artificial y aprendizaje automático para detectar patrones de comportamiento sospechosos. Entre estos se incluyen mensajes repetitivos a perfiles juveniles y solicitudes de contacto inusuales, los cuales ahora podrán ser marcados automáticamente para revisión y acción rápida.

Otra función en desarrollo es un sistema de advertencia para informar a los adolescentes si un adulto con historial de comportamiento inapropiado intenta contactarlos. Esta alerta irá acompañada de opciones claras para bloquear, denunciar o restringir dicha interacción.

En cuanto a los 635,000 perfiles eliminados, Meta precisó que estas acciones se tomaron tras una revisión exhaustiva de reportes de usuarios y procesos automatizados. La compañía destacó que continúa colaborando con organizaciones especializadas en derechos de la niñez, así como con organismos policiales, para detectar y actuar ante cualquier señal de explotación o acoso sexual en sus plataformas.

El impacto de estas medidas ha sido recibido con cauteloso optimismo por parte de activistas y especialistas en seguridad digital. Juan Carlos Vindas, analista en protección infantil en línea, señaló que “estos pasos son importantes y necesarios, pero deben ir acompañados de transparencia continua sobre su implementación y resultados”. Además, enfatizó la necesidad de incluir a padres y menores en campañas de educación digital para maximizar la efectividad de estas herramientas.

Por su parte, Meta reiteró su compromiso con mantener espacios digitales seguros para personas jóvenes, reconociendo que el trabajo en este ámbito “nunca está terminado” debido a la constante evolución del comportamiento en línea y las amenazas emergentes.

Estas acciones llegan en un contexto global donde los gobiernos, incluido el costarricense, están exigiendo mayor rendición de cuentas a las plataformas digitales en temas de protección infantil. La reciente eliminación masiva de cuentas y el endurecimiento de políticas son vistos como una respuesta tangible al incremento de la presión social y legislativa por mejorar los estándares de seguridad para los más vulnerables en el entorno digital.

Share This Article