Discord exigirá verificación de edad: cómo funcionará el nuevo control de identidad
La plataforma endurece sus reglas desde marzo para proteger a los menores de 18 años. Los usuarios deberán validar su identidad para modificar ajustes de privacidad y acceder a contenidos sensibles.
La validación de identidad mediante tecnología biométrica busca impedir que menores de edad accedan a servidores con temáticas no aptas para su rango etario.
Discord aplicará cambios profundos en su estructura de seguridad a partir de marzo de 2026. La aplicación de mensajería busca blindar la experiencia de los adolescentes y, para lograrlo, introducirá un sistema de verificación de edad obligatorio.
Esta medida afectará a todos los usuarios de entre 13 y 17 años, quienes deberán superar un proceso de validación antes de realizar ajustes en su cuenta o interactuar con desconocidos.
La compañía confirmó que las cuentas de menores tendrán activadas, de forma predeterminada, configuraciones de privacidad mucho más estrictas. Esta política impactará tanto en los perfiles actuales como en los nuevos que se registren en la plataforma.
El sistema de desenfoque automático ocultará contenidos multimedia sensibles para perfiles adolescentes, una medida que ya superó pruebas con éxito en mercados internacionales.
Cómo será el proceso para validar la edad en Discord
Para cumplir con este requisito, Discord ofrecerá distintas alternativas tecnológicas que el usuario podrá elegir según su preferencia. El sistema solicitará este paso únicamente cuando el adolescente intente acceder a funciones restringidas o cuando existan dudas sobre la veracidad de los datos del perfil.
Videoselfie: el usuario podrá grabar un video breve de su rostro para que el sistema valide su rango etario.
Documento oficial: la plataforma permitirá subir una foto de un documento de identidad legal que certifique la fecha de nacimiento.
Métodos múltiples: si los moderadores detectan inconsistencias en la información, podrían requerir más de una forma de comprobación para evitar fraudes.
El nuevo esquema de Discord incluye herramientas de moderación automática que funcionarán de forma constante para proteger a los más jóvenes. Estas medidas buscan reducir el contacto con material inapropiado y evitar interacciones peligrosas con terceros.
Contenido difuminado: el sistema ocultará automáticamente imágenes o mensajes que considere sensibles para los menores de edad.
Alertas de amistad: los adolescentes recibirán avisos inmediatos cuando reciban solicitudes de personas desconocidas.
Bandeja de mensajes diferenciada: los textos provenientes de cuentas externas a la lista de amigos se dirigirán a una carpeta específica para evitar el acoso.
Discord pide verificación de identidad (2)
Discord implementará un mecanismo de detección en segundo plano para asegurar que solo los adultos verificados puedan entablar conversaciones globales fuera de su círculo de confianza.
Cómo es el sistema de verificación de indentidad para adultos
La plataforma también implementará un mecanismo de verificación que trabajará en segundo plano para identificar las cuentas de mayores de edad. Este motor de seguridad permitirá que solo los perfiles confirmados como adultos participen en los denominados "escenarios de conversación" y utilicen herramientas de interacción global.
Acceso total: solo los usuarios verificados como adultos podrán visualizar contenidos sensibles sin restricciones.
Gestión de privacidad: los mayores de edad mantendrán la facultad de modificar libremente el destino de sus mensajes y sus niveles de visibilidad.
Despliegue global: tras una fase de prueba exitosa en el Reino Unido y Australia, la empresa extenderá estas funciones a todo el mundo para estandarizar la protección digital.