YouTube relaja sus reglas de moderación: ¿libertad de expresión o puerta abierta a la desinformación?
La plataforma más grande de videos en el mundo ajusta sus políticas y permite contenidos antes prohibidos si considera que tienen “interés público”
YouTube anunció esta semana un giro significativo en sus políticas de moderación de contenido. La plataforma, propiedad de Google, permitirá que videos que anteriormente serían eliminados por infringir sus normas puedan permanecer en línea si menos del 50% de su contenido infringe las reglas y si son considerados de “interés público”. El cambio ha generado reacciones encontradas entre defensores de la libertad de expresión y expertos en desinformación.
La empresa argumenta que la medida busca equilibrar el derecho del público a informarse con la necesidad de mantener una comunidad segura. De acuerdo con el comunicado oficial, los contenidos que contengan datos erróneos sobre elecciones, género, salud pública o raza podrán mantenerse en línea si aportan contexto, valor informativo o fomentan el debate, siempre y cuando no superen el umbral del 50% de infracción.
¿Qué cambia?
Hasta ahora, cualquier video que contuviera afirmaciones falsas sobre fraudes electorales, vacunas, salud pública o teorías conspirativas podía ser eliminado, sin importar su contenido adicional. Con esta nueva política, YouTube abre la puerta a materiales mixtos, como entrevistas, documentales o análisis donde haya fragmentos problemáticos, pero que también presenten datos verificados o voces críticas.
“Queremos evitar la eliminación de contenido que, aunque imperfecto, pueda contribuir a una comprensión más amplia del contexto en el que ocurre un fenómeno social o político”, señaló un vocero de la empresa.
Preocupaciones por la desinformación
Aunque el cambio ha sido bien recibido por algunos sectores que acusan a YouTube de censura excesiva, expertos advierten que podría facilitar el regreso de narrativas peligrosas, especialmente en un contexto de polarización global y campañas electorales cercanas, como las de Estados Unidos y la Unión Europea.
“Esto puede ser explotado por creadores que saben cómo camuflar desinformación bajo una capa de aparente neutralidad”, alertó Joan Donovan, investigadora de medios digitales y desinformación.
Organizaciones como el Center for Countering Digital Hate (CCDH) señalaron que YouTube corre el riesgo de convertirse nuevamente en terreno fértil para discursos de odio y teorías conspirativas, disfrazadas de debates académicos o periodísticos.
¿Hacia una moderación más flexible?
Este movimiento se suma a otras decisiones recientes de plataformas como Meta o X (antes Twitter), que también han relajado sus reglas de moderación bajo el argumento de proteger la pluralidad. Algunos lo interpretan como un intento por recuperar a los creadores que han migrado a otras plataformas menos restrictivas, como Rumble o TikTok.
No obstante, los críticos recuerdan que YouTube fue durante años uno de los principales vectores de desinformación durante la pandemia y las elecciones de 2020, lo cual obligó a la plataforma a endurecer sus reglas en primer lugar.
Un debate sin resolución simple
La decisión de YouTube reabre una vieja discusión: ¿quién decide qué contenido merece permanecer online y bajo qué criterios? Para algunos, el nuevo enfoque permite un debate más libre y matizado; para otros, es una concesión peligrosa al populismo digital y a los intereses comerciales de la empresa.
Por ahora, la plataforma insiste en que los cambios se aplicarán con “criterio editorial” y se mantendrá la eliminación de contenidos que inciten a la violencia, al acoso o contengan información deliberadamente falsa y dañina.
El resultado de esta nueva política será evidente en los próximos meses, cuando veamos si el equilibrio entre libertad y responsabilidad se mantiene, o si YouTube vuelve a ser un megáfono para los peores discursos de internet.
