TikTok eliminó más de 104,54 millones de videos de su plataforma en la primera mitad de este año por infringir las pautas de la comunidad o los términos de servicio. El número representa menos del 1% de todos los videos cargados en la plataforma del fabricante de aplicaciones chino, con los mayores volúmenes eliminados de India y EE. UU. con 37,68 millones y 9,82 millones, respectivamente.
Alrededor del 96,4% de los videos se identificaron y eliminaron antes de que los usuarios los informaran, mientras que el 90,3% se eliminaron antes de que registraran cualquier visualización, según el último informe de transparencia de TikTok publicado el martes. La mayoría, con un 30,9 %, se eliminó por contener desnudez y actividades sexuales, mientras que el 22,3 % se eliminó por violar la seguridad de los menores y el 19,6 % se eliminó por contener actividades ilegales y bienes regulados.
Además de India y EE. UU., la mayor cantidad de videos también se eliminó de Pakistán, Brasil y el Reino Unido con 6,45 millones, 5,53 millones y 2,95 millones, respectivamente.
TikTok también cumplió con las solicitudes gubernamentales y policiales «válidas» en todo el mundo para la información del usuario. Dichas solicitudes tendrían que presentarse con los documentos legales correspondientes, como una citación, una orden judicial, una orden judicial o una solicitud de emergencia. Entre estos, India presentó la mayor cantidad de solicitudes con 1206, de las cuales TikTok cumplió con el 79 %, seguida de EE. UU. con 290, de las cuales se cumplió con el 85 %. Israel hizo 41 solicitudes, de las cuales TikTok cumplió con el 85 %, mientras que Alemania presentó 37 solicitudes, pero solo se cumplió con el 16 %.
En situaciones de emergencia limitadas, TikTok dijo que divulgaría la información del usuario sin un proceso legal. Esto generalmente ocurría cuando tenía motivos para creer que la divulgación de información era necesaria para evitar el riesgo inminente de muerte o lesiones físicas graves para cualquier persona.
China estaba notablemente ausente de la lista de solicitudes del gobierno.
Además, TikTok dijo que también recibió solicitudes legales de gobiernos y agencias de aplicación de la ley, así como de titulares de derechos de propiedad intelectual (PI) para restringir o eliminar cierto contenido. Estos, dijo la compañía, serían respetados si se hicieran a través de los «canales apropiados» o si lo exigiera la ley.
Entre estos, Rusia presentó solicitudes que identificaron la mayor cantidad de cuentas con 259, de las cuales se cumplió con el 29%. India presentó solicitudes que especificaban 244 cuentas, de las cuales se cumplió con el 22%.
Señalando sus esfuerzos para «conectar» a sus usuarios, TikTok dijo que promovió contenido, en medio de la pandemia mundial, a través de páginas de información en la aplicación y organizó desafíos de hashtag con socios como la Organización Mundial de la Salud, UNICEF India y personas conocidas. como Bill Nye the Science Guy y Prince’s Trust. También desarrolló páginas dedicadas dentro de su aplicación que permitieron a los usuarios aprender más sobre la historia negra, en apoyo de la comunidad negra.
Propuesta de un grupo global para salvaguardar contra contenido nocivo
En una declaración separada el martes, TikTok dijo que su directora interina, Vanessa Pappas, envió una carta a los directores de nueve plataformas sociales y de contenido, proponiendo un Memorando de Entendimiento destinado a alentar a las empresas a advertirse entre sí sobre contenido gráfico violento en sus propias plataformas.
«Las plataformas sociales y de contenido se enfrentan continuamente a la publicación y publicación cruzada de contenido dañino, y esto nos afecta a todos». [including] nuestros usuarios, nuestros equipos y la comunidad en general”, dijo la compañía. “A medida que el contenido se mueve de una aplicación a otra, las plataformas a veces se quedan con un enfoque de golpe cuando el contenido inseguro les llega por primera vez. La tecnología puede ayudar a autodetectar y limitar mucho, pero no todo eso, y los moderadores humanos y los equipos de colaboración a menudo están en la primera línea de estos problemas».
«Cada esfuerzo individual de una plataforma para salvaguardar a sus usuarios se haría más efectivo a través de un enfoque formal y colaborativo para la identificación temprana y notificación entre empresas», dijo TikTok. «Al trabajar juntos y crear un banco de hash para contenido violento y gráfico, podríamos reducir significativamente las posibilidades de que las personas lo encuentren y sufran el daño emocional que puede causar ver dicho contenido, sin importar la aplicación que usen».
TikTok dijo que lanzó anteriormente un programa de verificación de hechos en ocho mercados para ayudar a verificar contenido engañoso, como información errónea sobre COVID-19, elecciones y cambio climático. También introdujo anuncios educativos de servicio público en la aplicación sobre hashtags relacionados con temas importantes en el discurso público, como las elecciones, Black Lives Matter y conspiraciones dañinas, incluido QAnon.