Siguiendo a Meta y X, YouTube respalda el contenido atroz moderador

YouTube aflojó en silencio sus reglas de moderación de video unas semanas antes de que Donald Trump jurara como presidente por segunda vez, informa el New York Times.
Las nuevas reglas alientan a los moderadores del sitio a no eliminar videos que rompan el código de conducta de YouTube, que prohíbe la desnudez, la violencia gráfica, el discurso de odio y la información incendiaria, si los videos se consideran de interés público. Anteriormente, YouTube mantendría los videos que consideraba en interés público si solo se considerara una cuarta parte de su contenido en violación de sus reglas; Ahora, la mitad del contenido de un video aún puede romper las reglas y permanecer arriba, según el Veces.
YouTube considera el contenido relativo a las “elecciones, ideologías, movimientos, raza, género, sexualidad, aborto, inmigración, censura y otros asuntos” parte del interés público, según el Vecesque vio los materiales de capacitación donde se describió el cambio.
Velocidad de luz mashable
YouTube, propiedad de Alphabet, la empresa matriz de Google, hizo el cambio a mediados de diciembre al presentar los materiales de capacitación actualizados a los moderadores. Del mismo modo, Meta, propietario de Facebook e Instagram, finalizó la verificación de hechos en las publicaciones sociales en eneroel mismo mes que Trump entró en la Casa Blanca. Muchos republicanos, incluido Trump, han pedido a los gigantes tecnológicos para que minimizar o finalizar la moderación en el contenido de sus usuarios. X terminó la verificación de hechos después Elon Musk compró el sitio de redes sociales en 2022implementando una función de notas comunitarias de crowdsourced en su lugar. Mientras que X y Meta anunciaron públicamente que estaban terminando o minimizando la moderación, YouTube no lo hizo.
El Veces citó varios ejemplos de la nueva política de YouTube. Uno incluía un video de 43 minutos sobre el designado del gabinete de Trump que permaneció despierto a pesar de que incluía un insulto contra una persona transgénero. Otro incluyó un video surcoreano que no fue eliminado a pesar de que un comentarista discutió un escenario imaginado que involucra a un político asesinado por una guillotina. YouTube decidió mantener el video en alto porque “la ejecución de Guillotine no es factible”.
Cuando se contactó para hacer comentarios, los representantes de YouTube declararon que los moderadores eliminaron 192,856 videos en el primer trimestre de 2025, lo que en realidad constituyó un aumento de 22 por ciento año tras año. Además, un portavoz de YouTube ordenó a los espectadores preocupados a visitar su Informe de transparencia de las pautas de la comunidad Para más detalles y claridad sobre el cambio de política.
“Actualizamos regularmente las pautas de nuestra comunidad para adaptarnos al contenido que vemos en YouTube”, dijo la portavoz de YouTube, Nicole Bell, en un comunicado a Mashable. “Como ejemplos, a principios de este año, retiramos nuestras políticas de Covid-19 restantes y agregamos nuevas protecciones relacionadas con el contenido del juego. El artículo del New York Times trata sobre un aspecto separado de nuestro enfoque: nuestra práctica de larga data de aplicar las excepciones a nuestras políticas para el contenido que sirve al interés público o tiene el contexto EDSA (educativo, documental, científico, artístico). Asegurar que el contenido importante esté disponible.