Las estadísticas fueron reveladas en su último informe de transparencia
Discord prohibió 5,2 millones de cuentas entre abril y diciembre del año pasado, reveló hoy la empresa en su segundo informe de transparencia. Las razones más comunes para la prohibición de cuentas fueron el spam y los contenidos de explotación, que incluyen la pornografía no consentida (la llamada “pornografía de venganza”), así como los contenidos sexuales relacionados con menores.
El informe revela una marcada diferencia en los tipos de violaciones que la mayoría de los usuarios suelen denunciar, en comparación con las acciones que tienen más probabilidades de hacer que se prohíban personas y servidores. Los informes más comunes que Discord recibe de los usuarios están relacionados con el acoso, sin embargo, sólo una proporción relativamente pequeña de estos informes da lugar a la adopción de medidas. Discord dice que en muchos casos enseñará a la gente cómo bloquear al usuario infractor sin tomar ninguna otra acción.
HAY UNA GRAN DIFERENCIA EN LOS INFORMES MÁS COMUNES Y LAS RAZONES MÁS COMUNES PARA UNA PROHIBICIÓN
Por otra parte, el contenido de explotación constituye sólo el 6,7 por ciento de los informes, pero lleva a la segunda mayor cantidad de prohibiciones. Parte de la razón de esto es que es mucho más probable que Discord tome medidas después de recibir uno de estos informes, pero la compañía dice que también está tomando un enfoque mucho más proactivo para eliminarlo. Discord escanea cada imagen y video subido a su servicio y utiliza PhotoDNA para compararlo con material conocido de abuso sexual infantil. En la mayoría de los casos, este enfoque significa que los servidores infractores pueden ser eliminados antes de que alguien los denuncie, dice Discord.
El spam era un área donde había un número consistentemente alto de reportes y prohibiciones. Era el tercer tipo de reporte más común, tenía la tasa de acción más alta de todos los reportes, y resultó en la mayor cantidad de prohibiciones. Discord dice que es mucho más probable que se tomen medidas sobre los informes de spam porque suelen afectar a una gran cantidad de usuarios, y son fáciles de verificar.
Aunque 5.2 millones suena como un montón de prohibiciones para repartir, es sólo una fracción de lo que Facebook reveló que eliminó en su último informe de transparencia el año pasado. La compañía dijo que eliminó 54 millones de piezas de contenido violento o gráfico, más de 10 millones de posts que contenían expresiones de odio, 5,7 millones de posts que violaban sus políticas de intimidación o acoso, y 18,5 millones de piezas de contenido de explotación. Por otra parte, con más de 2 mil millones de usuarios en comparación con el cuarto de mil millones que tenía Discord en mayo del año pasado, la disparidad no es una gran sorpresa.
Discord publicó su primer informe de transparencia en agosto pasado, que cubría el primer trimestre del año pasado. De cara al futuro, Discord dice que espera publicar los informes de forma semestral, con su próximo informe en agosto.
Añadir comentario