El
derecho a la información y la libertad de expresión en el contexto digital:
Retos y oportunidades
Gabriel Adrián Lara Santa Cruz
Universidad Jaime Bausate y Meza
https://orcid.org/0009-0005-4752-4850
Cluber Fernando Aliaga-Lodtmann
Universidad Jaime Bausate y Meza
https://orcid.org/0000-0001-9819-3362
DOI: https://doi.org/10.71187/brc.v0i6.110
Recibido: 10-10-2024 - Aceptado: 3-11-2024
Resumen
El derecho a la información y la libertad de expresión son derechos fundamentales en las sociedades democráticas. Sin embargo, el contexto digital ha transformado radicalmente cómo se accede, distribuye y controla el flujo de informaciones y opiniones en dicho entorno. El presente artículo realiza el estudio de los desafíos y oportunidades que surgen para estos derechos en el entorno digital, destacando cuestiones como la desinformación, la censura, la privacidad y el papel de las plataformas en la regulación de contenido. La investigación se basa en una revisión de la literatura y en casos recientes para ilustrar los cambios en las prácticas y legislaciones que buscan equilibrar la protección de los derechos humanos con la necesidad de regular los flujos de información en Internet.
Palabras clave: derecho a la información, libertad de expresión, contexto digital, desinformación, censura, redes sociales
Abstract
The right to information and freedom of expression are fundamental rights in democratic societies. However, the digital context has radically transformed how the flow of information and opinions is accessed, distributed and controlled in this environment. This article studies the challenges and opportunities that arise for these rights in the digital environment, highlighting issues such as disinformation, censorship, privacy and the role of platforms in regulating content. The research is based on a review of the literature and recent cases to illustrate the changes in practices and legislation that seek to balance the protection of human rights with the need to regulate information flows on the Internet.
Keywords: right to information, freedom of expression, digital context, disinformation, censorship, social networks
Introducción
El derecho a la información y la libertad de expresión son pilares esenciales de las sociedades democráticas. Ambos permiten a los ciudadanos participar en el proceso político y acceder a información relevante para la toma de decisiones informadas (Smith, 2020). Con la irrupción del entorno digital, estos derechos se han visto afectados tanto positiva como negativamente, generando un nuevo panorama que plantea preguntas sobre su regulación, la privacidad y la responsabilidad de los gestores de las plataformas digitales (Jørgensen, 2019).
El acceso al uso del internet ha expandido el alcance y la accesibilidad a gran cantidad de informaciones, democratizando su distribución. No obstante, la misma tecnología ha dado lugar a nuevos desafíos, como la proliferación de noticias falsas, la vigilancia masiva y el papel todavía no precisado de los gigantes tecnológicos en la moderación de contenidos. El objetivo de este artículo es examinar estos retos y oportunidades en el marco de los derechos humanos y el contexto legal actual.
Por ejemplo, durante las protestas 2020, tras la destitución del presidente Martín Vizcarra y el ascenso de Manuel Merino, se reportó la suspensión o censura de varios canales de televisión y emisoras de radio, así como de varias plataformas digitales (Defensoría del Pueblo, 2020).
En el Brasil, la administración de Jair Bolsonaro solicitó que Twitter bloquease cuentas asociadas con grupos y personas acusadas de difundir desinformación, especialmente durante el período electoral, para evitar la propagación de noticias falsas que podrían influir en la opinión pública y los resultados electorales.
Luego tenemos el caso que Twitter, bajo la nueva administración de Elon Musk, adoptó una política más permisiva sobre la moderación de contenido, lo que permitió un aumento de la desinformación en la plataforma.
El objetivo general del artículo es analizar los retos y oportunidades de los derechos a la información y la libertad de expresión en el contexto digital. Los objetivos específicos buscan desglosar este análisis en tres áreas clave: los desafíos en la era digital, las oportunidades que la tecnología ofrece para fortalecer estos derechos y las políticas regulatorias actuales.
Las hipótesis se derivan de la relación entre el contexto digital y los derechos humanos fundamentales, basadas en la literatura previa que menciona el impacto tanto negativo (desinformación, censura, vigilancia) como positivo (acceso a información, participación ciudadana) del entorno digital.
Las variables seleccionadas (desinformación, censura, vigilancia, acceso a la información y participación ciudadana) son esenciales para comprender cómo se ejercen los derechos a la información y la libertad de expresión en plataformas digitales. Los indicadores permitirán medir la incidencia de cada variable en el contexto digital.
Técnicas de Recolección de Datos: La recolección de datos se realizó principalmente mediante una revisión documental de estudios previos, informes legales y análisis de plataformas tecnológicas. Las fuentes clave incluyen artículos académicos, investigaciones de ONGs y casos legales.
Para el análisis se empleó el enfoque cualitativo interpretando los datos, buscando patrones que permitan construir una visión integrada de los retos y oportunidades. Además, se realizó un análisis comparativo entre las políticas actuales y su efectividad en la protección de estos derechos.
1. Marco Teórico
El derecho a la información y la libertad de expresión están consagrados en instrumentos internacionales de derechos humanos como la Declaración Universal de Derechos Humanos (ONU, 1948) y el Pacto Internacional de Derechos Civiles y Políticos (ONU, 1966).
Estos derechos establecen que toda persona tiene el derecho de buscar, recibir y difundir información sin restricciones arbitrarias. En el contexto digital, estas libertades han tomado nuevas dimensiones debido al poder y alcance de las plataformas tecnológicas que controlan la mayor parte del flujo de información en internet (Balkin, 2018).
1.1 El Derecho a la información
El derecho a la información es un derecho fundamental que garantiza a las personas el acceso a datos y contenidos relevantes, permitiéndoles participar en una sociedad democrática informada. Este derecho implica tanto la posibilidad de buscar información como de recibirla y difundirla sin restricciones indebidas. Según la Declaración Universal de Derechos Humanos, "toda persona tiene derecho a la libertad de opinión y de expresión; este derecho incluye el de no ser molestado a causa de sus opiniones, el de investigar y recibir informaciones y opiniones, y el de difundirlas, sin limitación de fronteras, por cualquier medio de expresión" (Naciones Unidas, 1948, art. 19).
Características:
a. Acceso: Derecho a recibir información pública y a obtener datos relevantes de interés social.
b. Universalidad: Es aplicable a todas las personas, independientemente de su condición.
c. Participación: Fomenta la participación ciudadana en decisiones públicas.
d. Responsabilidad: Implica que las autoridades proporcionen información veraz y transparente.
e. Limitaciones justificadas: Puede estar sujeto a restricciones legítimas, como la seguridad nacional o la protección de la privacidad, según lo precisa el artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (Naciones Unidas, 1966).
Según la jurisprudencia internacional de la Corte Interamericana de Derechos Humanos (Corte IDH), se reconoce que el derecho a la información es esencial para la democracia. En el caso Claude Reyes vs. Chile, estableció que los Estados tienen la obligación positiva de garantizar el acceso a la información en poder de las instituciones públicas (Corte IDH, 2006). Además, el Tribunal Europeo de Derechos Humanos subraya que este derecho incluye la libertad de buscar y recibir información, pero no obliga a los Estados a proporcionarla si no se trata de un asunto de interés público significativo (Leander vs. Suecia, 1987).
1.2 La libertad de expresión
Es un derecho humano que garantiza a todas las personas la capacidad de manifestar ideas, opiniones e información, sin interferencias ni represalias. Este derecho, fundamental para la democracia y el desarrollo personal, está consagrado en instrumentos como el artículo 19 de la Declaración Universal de Derechos Humanos: "Todo individuo tiene derecho a la libertad de opinión y de expresión; este derecho incluye el de no ser molestado a causa de sus opiniones" (Naciones Unidas, 1948).
Características:
a. Amplitud: Protege opiniones, ideas y hechos, incluso aquellos que puedan ser ofensivos o impopulares.
b. Medios diversos: Puede ejercerse a través de cualquier medio, como prensa, internet o redes sociales.
c. Independencia: Protege contra censura previa y garantiza la autonomía frente a injerencias estatales.
d. Relación con otros derechos: Es interdependiente con la libertad de información y la libertad de prensa.
e. Restricciones justificadas: Puede limitarse en casos de discurso de odio, incitación a la violencia o seguridad nacional, siempre bajo estándares estrictos de proporcionalidad.
Según la jurisprudencia internacional de la Corte IDH, se ha subrayado que la libertad de expresión es una piedra angular de las sociedades democráticas, así lo reconoció en el caso Kimel vs. Argentina, donde se afirmó que las restricciones a este derecho deben estar justificadas y no ser desproporcionadas (Corte IDH, 2008). Por su parte, el Tribunal Europeo de Derechos Humanos ha defendido este principio incluso frente a expresiones polémicas, como en Handyside vs. Reino Unido, donde se afirmó que la libertad de expresión protege también ideas que "ofenden, escandalizan o perturban" (TEDH, 1976).
1.3 La legislación internacional
La legislación internacional en materia de derechos a la información y libertad de expresión se fundamenta en tratados y acuerdos que establecen estándares mínimos para garantizar estos derechos en todos los Estados. Entre los principales instrumentos destacan:
a. Declaración Universal de los Derechos Humanos (1948): Su artículo 19 establece la libertad de opinión, expresión y acceso a la información como derechos fundamentales (Naciones Unidas, 1948).
b. Pacto Internacional de Derechos Civiles y Políticos (1966): Reconoce el derecho a la libertad de expresión y regula sus limitaciones justificadas, como la seguridad nacional o el respeto a los derechos de terceros (artículo 19).
c. Convención Americana sobre Derechos Humanos (1969): El artículo 13 protege estos derechos en el ámbito regional de las Américas, prohibiendo la censura previa salvo en casos excepcionales, como la protección de niños.
d. Convenio Europeo de Derechos Humanos (1950): En su artículo 10, garantiza la libertad de expresión y subraya que las limitaciones deben ser necesarias y proporcionadas en una sociedad democrática.
1.4 La legislación nacional:
En el ámbito nacional, los países adaptan estos estándares internacionales a sus legislaciones internas:
a. Constitución del Perú (1993): El artículo 2 establece el derecho de toda persona a "solicitar, sin expresión de causa, la información que requiera y a recibirla de cualquier entidad pública", así como se garantiza la libertad de expresión sin previa censura.
b. Ley de Transparencia y Acceso a la Información Pública (2002): Promueve la transparencia gubernamental y regula el acceso ciudadano a documentos e información en poder del Estado.
c. Código Penal: Tipifica delitos como la difusión de información falsa o calumnias que puedan afectar derechos de terceros.
1.5 Desafíos presentes y futuros de los derechos a la información y libertad de expresión en el entorno digital:
a. Desinformación: El auge de noticias falsas afecta la calidad de la información disponible y socava la confianza pública.
b. Censura digital: Algunos Estados emplean restricciones en internet para controlar la expresión y acceso a la información.
c. Privacidad vs. transparencia: La protección de datos personales y el derecho al olvido generan tensiones con el acceso público a información histórica.
d. Control algorítmico: Las plataformas digitales influyen en el acceso a la información mediante algoritmos que priorizan ciertos contenidos, lo que plantea desafíos éticos y regulatorios.
e. Brecha digital: Las desigualdades en el acceso a tecnología limitan el ejercicio pleno de estos derechos en poblaciones vulnerables.
1.6 Políticas regulatorias actuales en el entorno digital
A nivel internacional:
a. Alemania: Implementó la NetzDG (Ley de Aplicación en las Redes Sociales) que obliga a plataformas como Facebook a eliminar contenido ilegal, como discursos de odio, en un plazo de 24 horas.
b. Reino Unido: La Ley de Seguridad en Línea (Online Safety Bill) busca regular contenido dañino en internet, priorizando la protección infantil.
c. Estados Unidos: La Primera Enmienda garantiza la libertad de expresión, pero carece de una regulación específica para plataformas digitales, delegando su autorregulación.
d. China: Opera bajo un modelo restrictivo con un "Gran Cortafuegos" que censura contenido crítico del gobierno y regula estrictamente las plataformas digitales.
e. Rusia: Ha implementado leyes que exigen a las plataformas almacenar datos de ciudadanos rusos en servidores locales y permite bloquear contenido considerado dañino para la seguridad nacional.
A nivel nacional:
a. Ley N° 28278 de Radio y Televisión: Regula contenidos audiovisuales, incluyendo en plataformas digitales, bajo estándares éticos y de protección infantil.
b. Ley de Protección de Datos Personales (2011): Establece normas para la recopilación y uso de datos personales en entornos digitales.
c. Regulación sobre ciberseguridad: Proyectos de ley buscan proteger el entorno digital frente a delitos como el robo de datos y la desinformación, aunque carecen de avances significativos en regular las redes sociales.
2. Retos en el Contexto Digital
2.1 Desinformación y Noticias Falsas
Uno de los principales desafíos en el contexto digital es la proliferación de noticias falsas, que afectan la percepción pública y pueden influir en decisiones políticas importantes. La rapidez y alcance de internet permiten que la desinformación se propague con facilidad, lo que puede distorsionar el debate público y erosionar la confianza en los medios de comunicación (Wardle & Derakhshan, 2017). Según Allcott y Gentzkow (2017), la difusión de noticias falsas en redes sociales durante eventos críticos, como elecciones, ha tenido un impacto significativo en la opinión pública, lo que plantea el dilema de hasta qué punto las plataformas deberían regular el contenido.
Cantidad de noticias falsas difundidas en redes sociales (estimaciones):
Twitter (2006-2017): Un análisis de 126,000 noticias falsas verificadas mostró que estas fueron compartidas por 3 millones de usuarios en 4.5 millones de ocasiones. Este fenómeno se intensifica en eventos importantes, como elecciones presidenciales, donde el contenido falso se difunde más rápido y ampliamente que las noticias verificadas (Vosoughi, Roy & Aral, 2018).
Bots en redes sociales: En Facebook, se estima que 60 millones de cuentas están involucradas en la diseminación automatizada de noticias falsas, mientras que en Twitter esta cifra asciende a 48 millones. Estas cuentas generan contenido falso para amplificar su alcance y manipular la opinión pública (Emisoras Unidas, 2024; Allcott & Gentzkow, 2017).
Elecciones presidenciales en EE.UU. (2016): Durante este período, noticias falsas generaron millones de interacciones en redes sociales, superando incluso el alcance de algunas noticias verificadas de medios reconocidos. Esto muestra cómo la desinformación puede alterar significativamente el debate público y el proceso democrático (Allcott & Gentzkow, 2017).
2.2 Censura y Moderación de Contenido
La censura en el entorno digital es otra preocupación fundamental. En países con regímenes autoritarios, el gobierno a menudo utiliza herramientas digitales para limitar el acceso a ciertos sitios web o silenciar voces disidentes (Freedom House, 2021). Por otro lado, las plataformas privadas como Facebook y Twitter, que ejercen control sobre sus redes, toman decisiones de moderación de contenido que pueden llevar a restricciones en la libertad de expresión. Esto genera un debate sobre el rol que deben desempeñar estas empresas tecnológicas, y si deberían ser consideradas responsables del contenido que se distribuye en sus plataformas (Gillespie, 2018).
Casos de censura en las plataformas digitales (estimaciones):
Los casos de censura en plataformas digitales reflejan una combinación de moderación de contenido automatizada y restricciones impulsadas por gobiernos o las mismas empresas. A nivel mundial, en 2021, se reportaron 19 cierres de redes sociales, lo que representó una disminución del 35 % respecto al año anterior. Sin embargo, estas restricciones afectaron a 250 millones de personas, especialmente en África, donde se concentró el 53 % de los incidentes. La mayoría de estos casos ocurrieron durante protestas, elecciones presidenciales o crisis políticas. (Surfshark, 2021).
En términos de censura algorítmica, estudios revelan que las plataformas han bloqueado contenido relevante sobre temas como la represión policial o derechos humanos, especialmente durante eventos críticos. Este tipo de moderación automatizada ha afectado también a colectivos marginados, como en el caso de etiquetas como #lesbiana, que son censuradas en plataformas como Instagram debido a asociaciones erróneas generadas por algoritmos.
Estos datos destacan la necesidad de un debate más amplio sobre la regulación de contenido en plataformas digitales, asegurando tanto la libertad de expresión como la responsabilidad en la difusión de información.
2.3 Privacidad y Vigilancia Masiva
En el contexto digital, la privacidad está intrínsecamente vinculada a la libertad de expresión y el derecho a la información. La vigilancia masiva, tanto por gobiernos como por empresas, representa una amenaza significativa para estos derechos (Zuboff, 2019). La recolección masiva de datos personales y su uso para controlar y manipular el comportamiento de los usuarios cuestiona el derecho de las personas a expresarse libremente sin temor a represalias.
Impacto de la regulación en la libertad de expresión:
La regulación de las plataformas digitales tiene un impacto directo sobre la libertad de expresión. En algunos casos, las restricciones a contenidos pueden ser vistas como una medida necesaria para contrarrestar la desinformación, el discurso de odio y la violencia en línea. Sin embargo, también plantean riesgos significativos al limitar el acceso a información diversa y al interferir con el derecho de los individuos a expresar sus opiniones sin restricciones. El equilibrio entre protección y libertad es un tema recurrente en la discusión global sobre regulación digital (Meyer, 2020).
Un estudio de la Fundación Datos Protegidos (2020) expone que la censura en plataformas como Twitter y Facebook se ha intensificado en regiones donde el control gubernamental sobre internet es más estricto. Esto puede resultar en la eliminación de contenidos legítimos que no necesariamente constituyen violaciones de las políticas de las plataformas, lo que afecta directamente la libertad de expresión (Peña, 2020).
2.4 Regulación de las plataformas digitales
La regulación de las plataformas digitales busca asegurar que las compañías tecnológicas cumplan con normas específicas para evitar la propagación de contenido dañino. Por ejemplo, la Ley de Servicios Digitales de la Unión Europea, que entró en vigor en 2022, establece principios para la moderación de contenido y sanciona las plataformas por no cumplir con la eliminación de discursos de odio o desinformación (European Commission, 2022).
La autorregulación también juega un papel clave en la gestión de contenido. Las plataformas como Facebook y Twitter han adoptado políticas internas para moderar y eliminar contenido que infrinja sus normas comunitarias, pero sin intervención externa. Aunque esto puede ser eficaz en algunos aspectos, las políticas de autorregulación se critican por ser inconsistentes y a veces excesivamente censoras (Gillespie, 2018).
Autoregulación de las plataformas digitales:
La autoregulación de plataformas digitales permite que estas gestionen internamente las violaciones de contenido, como la desinformación, la violencia y el discurso de odio. Las plataformas como YouTube e Instagram implementan políticas para abordar la moderación de contenido sin que los gobiernos intervengan directamente, lo que se conoce como "moderación algorítmica". Sin embargo, las críticas apuntan a la falta de transparencia en estos procesos y al potencial de sesgo en la toma de decisiones (Gillespie, 2018; Zeng, 2020).
Aunque la autorregulación permite a las plataformas actuar rápidamente ante amenazas, también ha sido cuestionada por no ser suficientemente exhaustiva o justa, dado que los algoritmos de moderación no siempre reconocen el contexto o la intención del contenido publicado. Esto puede llevar a la eliminación de publicaciones legítimas y generar problemas de censura excesiva.
3. Oportunidades en el Contexto Digital
3.1 Acceso a Información y Participación Ciudadana
Internet ha democratizado el acceso a la información, permitiendo a las personas acceder a noticias y datos que anteriormente estaban limitados por barreras geográficas o económicas. Además, el contexto digital facilita la participación ciudadana a través de redes sociales y otras plataformas, donde los usuarios pueden compartir informaciones y expresar sus opiniones y participar en debates de interés público (Castells, 2015). Esta transformación ha empoderado a los ciudadanos, permitiéndoles colaborar y organizarse en torno a causas comunes.
Acceso de usuarios a fuentes de información verificadas:
El acceso a fuentes de información verificadas es fundamental para garantizar que los usuarios reciban contenidos precisos y confiables. La desinformación en plataformas digitales ha generado desafíos significativos, por lo que es crucial que los usuarios puedan distinguir entre fuentes fidedignas y aquellas que difunden información errónea o sesgada. Organizaciones como FactCheck.org y PolitiFact han trabajado en la creación de herramientas que permitan verificar los datos y noticias en tiempo real, ayudando a los usuarios a confirmar la veracidad de la información que consumen (Gottfried, 2020).
Plataformas como Twitter y Facebook han implementado etiquetas de verificación en los artículos y publicaciones para alertar sobre contenidos cuestionables o falsos. Sin embargo, estos mecanismos han sido criticados por no ser suficientemente efectivos para detener la propagación de desinformación, y algunos expertos sugieren que las plataformas deberían aumentar su esfuerzo para promover fuentes de información de calidad (Meyer, 2021).
Participación ciudadana en plataformas que tratan temas públicos:
La participación ciudadana en plataformas digitales ha cambiado la forma en que los ciudadanos interactúan con temas públicos, permitiendo una comunicación directa entre el público y las autoridades. La interacción a través de redes sociales y foros en línea ha proporcionado una vía para que las personas expresen sus opiniones sobre políticas gubernamentales, temas sociales y eventos globales (Chadwick, 2020).
Plataformas como Change.org y Twitter permiten que los ciudadanos se involucren en debates públicos, realicen peticiones, y movilicen acciones de protesta o apoyo a leyes y políticas públicas. Sin embargo, este tipo de participación puede estar limitado por factores como el acceso a internet, la falta de alfabetización digital y la censura en plataformas, lo que limita su efectividad en algunos contextos (Fuchs, 2020).
3.2 Fortalecimiento de Movimientos Sociales
Las redes sociales han servido como herramientas poderosas para el fortalecimiento de movimientos sociales que buscan justicia y derechos humanos. Ejemplos como el movimiento #BlackLivesMatter y el #MeToo han demostrado cómo el entorno digital puede amplificar voces de colectivos marginados y generar un cambio social positivo (Jackson, Bailey & Foucault Welles, 2020). Estas campañas han hecho posible que personas de todo el mundo se movilicen y presionen por cambios políticos y sociales.
Crecimiento e impacto de los movimientos sociales digitales:
Los movimientos sociales digitales han experimentado un notable crecimiento en las últimas dos décadas, principalmente debido al uso de las redes sociales y plataformas de comunicación en línea. Estas herramientas han permitido a los activistas movilizarse de manera más rápida, llegar a audiencias más amplias, y organizar protestas y campañas de manera más efectiva.
Tufekci (2017), señala que el uso de redes sociales como Twitter y Facebook ha transformado los movimientos sociales al proporcionar un espacio en el que los activistas pueden comunicarse sin los filtros tradicionales de los medios de comunicación, lo que facilita la propagación de mensajes y movilizaciones.
Un ejemplo claro del impacto de los movimientos sociales digitales es el movimiento #MeToo, que comenzó en plataformas como Twitter y rápidamente se extendió a nivel global, generando un cambio cultural en torno al acoso sexual y la violencia de género (García, 2019). Igualmente, el movimiento Black Lives Matter, que también ha utilizado ampliamente las redes sociales, ha creado un espacio digital para el debate sobre el racismo sistémico y las injusticias policiales, con un impacto significativo en las políticas públicas y en el discurso social (Freelon, McIlwain, & Clark, 2016).
Estos movimientos no solo se caracterizan por su capacidad para generar conciencia y discusión, sino también por la presión sobre las instituciones para que adopten medidas concretas. Sin embargo, el crecimiento de estos movimientos también ha traído desafíos, como la censura por parte de las plataformas digitales y la manipulación de los mismos movimientos a través de bots o cuentas falsas que distorsionan su mensaje (Binns, 2020).
4. Regulación y Protección de Derechos en el Entorno Digital
Para proteger la libertad de expresión y el derecho a la información en el contexto digital, varios países han implementado marcos regulatorios específicos. Sin embargo, estas legislaciones deben equilibrar la protección de los derechos con la regulación del contenido en internet, evitando el uso excesivo de herramientas de censura (Kaye, 2019).
La Unión Europea, por ejemplo, ha adoptado el Reglamento General de Protección de Datos (GDPR) para proteger la privacidad de los usuarios y asegurar el derecho a la información.
Evaluación de las leyes y regulación del entorno digital:
La evaluación de las leyes y la regulación del entorno digital ha sido un tema crucial en los últimos años debido al rápido crecimiento de internet y las plataformas digitales. Las leyes deben equilibrar la protección de los derechos de los usuarios con la necesidad de garantizar un entorno seguro y justo. En muchos países, las regulaciones buscan proteger a los usuarios de la desinformación, el discurso de odio y el contenido nocivo sin violar principios fundamentales como la libertad de expresión. Un ejemplo es la Ley de Servicios Digitales de la Unión Europea, que impone responsabilidades a las plataformas para moderar contenido perjudicial y garantizar transparencia (European Commission, 2022). Sin embargo, la regulación varía significativamente entre países, lo que plantea desafíos para la implementación global de normas coherentes.
Casos de censura y control de plataformas:
Los casos de censura y control de plataformas digitales han sido una preocupación creciente, especialmente cuando gobiernos o corporaciones moderan el contenido de forma excesiva o sesgada. Ejemplos notables incluyen la censura durante protestas políticas en países como China y Rusia, donde se bloquean plataformas enteras o se censuran publicaciones para suprimir disidencias. La plataforma WeChat en China, por ejemplo, ha sido acusada de censurar mensajes políticos sensibles, mientras en Rusia, la ley de "fake news" ha dado al gobierno la capacidad de bloquear contenido que considera subversivo (Tufekci, 2020).
La protección de la privacidad en las plataformas digitales:
La protección de la privacidad en plataformas digitales es uno de los temas más debatidos en la actualidad, ya que la recopilación y el uso de datos personales por parte de estas plataformas plantean serias preocupaciones sobre la seguridad y el derecho a la privacidad de los usuarios. El Reglamento General de Protección de Datos (GDPR) en la Unión Europea es un intento de mitigar estos riesgos, estableciendo reglas estrictas sobre cómo las plataformas deben manejar los datos personales (European Union, 2018). A pesar de esto, numerosas brechas de privacidad han surgido, como los casos relacionados con Facebook y Cambridge Analytica, donde la información de millones de usuarios fue utilizada sin su consentimiento para fines políticos (Cadwalladr, 2018). Estas brechas subrayan la necesidad urgente de una mayor regulación global para proteger la privacidad y asegurar que las plataformas no abusen de los datos de los usuarios.
Conclusiones
El derecho a la información y la libertad de expresión han adquirido especial relevancia en el contexto digital. Dado que internet ofrece oportunidades sin precedentes para el acceso y la difusión de informaciones y opiniones, también plantea desafíos que requieren especial atención.
La desinformación, la censura y la vigilancia masiva son algunos de los nuevos problemas que plantea el uso del internet y las nuevas tecnologías de la información y comunicación de manera masiva.
La situación demanda que tanto los gobiernos y las empresas tecnológicas deban colaborar para crear políticas y regulaciones que se cumplan realmente y sirvan para proteger los derechos fundamentales de información y libertad de expresión, sin comprometer la integridad de la información y la privacidad de los usuarios.
La sociedad civil también juega un rol importante en este nuevo escenario, a ella le corresponde abogar por un entorno digital que respete y permita el pleno ejercicio de las libertades de expresión y de información.
Allcott, H., & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives, 31(2), 211-236. https://doi.org/10.1257/jep.31.2.211
Balkin, J. M. (2018). Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. UC Davis Law Review, 51(3), 1149-1210.
Binns, A. (2020). The dark side of digital activism: How bots and trolls affect online movements. Journal of Digital Activism, 5(3), 45-60.
Castells, M. (2015). Networks of Outrage and Hope: Social Movements in the Internet Age. Cambridge: Polity Press.
Cadwalladr, C. (2018). The Cambridge Analytica scandal: How Facebook used your data. The Guardian.
Chadwick, A. (2020). The hybrid media system: Politics and power. Oxford University Press.
Corte Interamericana de Derechos Humanos (2006). Claude Reyes y otros vs. Chile.
Corte Interamericana de Derechos Humanos (2008). Kimel vs. Argentina.
Convención Americana sobre Derechos Humanos (1969).
Constitución Política del Perú (1993).
Emisoras Unidas. (2024). Las “noticias falsas” se difunden más que la verdad en las redes sociales.
European Commission. (2022). Digital Services Act: Ensuring a safer digital space for all users. Retrieved from
European Union. (2018). General Data Protection Regulation (GDPR). Retrieved from
European Commission. (2022). Digital Services Act: Ensuring a safer digital space for all users.
Freedom House. (2021). Freedom on the Net 2021: The Global Drive to Control Big Tech. Retrieved from https://freedomhouse.org/report/freedom-net/2021
Freelon, D., McIlwain, C.D., & Clark, M.D. (2016). Beyond the hashtag: #BlackLivesMatter and the struggle for online justice. Journal of Race, Ethnicity, and Politics, 2(1), 75-94.
Fundación Datos Protegidos. (2024). Informe de evidencia sobre censura algorítmica y ataques a medios disidentes.
Fuchs, C. (2020). Social media: A critical introduction. Sage.
García, M. (2019). MeToo: El impacto de los movimientos digitales en la lucha contra la violencia de género. Editorial Universitaria.
Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions that Shape Social Media. New Haven, CT: Yale University Press.
Gillespie, T. (2018). The relevance of algorithms in the regulation of content on social media platforms. In Platforms and Publics. Routledge.
Gobierno del Reino Unido. (2024). Online Safety Bill.
Gobierno de Alemania. (2017). NetzDG.
Gottfried, J. (2020). The role of fact-checking in combating digital misinformation. Pew Research Center.
Jackson, S. J., Bailey, M., & Foucault Welles, B. (2020). #HashtagActivism: Networks of Race and Gender Justice. MIT Press.
Jørgensen, R. F. (2019). Human Rights in the Age of Platforms. MIT Press.
Kaye, D. (2019). Speech Police: The Global Struggle to Govern the Internet. Columbia Global Reports.
Meyer, M. (2020). Freedom of Expression in the Age of Digital Platforms: Balancing Regulation and Speech. Oxford University Press.
Meyer, M. (2021). The challenges of promoting verified information in the digital era. Oxford University Press.
Naciones Unidas. (1948). Declaración Universal de los Derechos Humanos.
Naciones Unidas. (1966). Pacto Internacional de Derechos Civiles y Políticos.
Peña, P. (2020). Censura digital y derechos humanos: una mirada crítica a la regulación de plataformas. Fundación Datos Protegidos.
Pallero, J., Peña, P., & Rojas, N. (2020). Censura en redes sociales: Ataques, discursos de odio y algoritmos. Informe sobre libertad de expresión y censura digital. Universidad de Chile.
Ribeiro, J. (2024). Censura en redes sociales y el caso Twitter en Brasil: Entre la libertad de expresión y la desinformación. Noticias del Mundo.
Rodrigues, M. (2024). La moderación de contenido en Twitter: Desafíos y controversias bajo Elon Musk. Diario Digital.
Smith, R. (2020). Media, Law, and Ethics in the Digital Age. Routledge.
Surfshark. (2021). Informe sobre restricciones de internet 2021.
Tribunal Europeo de Derechos Humanos (1976). Handyside vs. Reino Unido.
Tribunal Europeo de Derechos Humanos (1987). Leander vs. Suecia.
Tufekci, Z. (2017). Twitter and tear gas: The power and fragility of networked protest. Yale University Press.
Tufekci, Z. (2020). Twitter and tear gas: The power and fragility of networked protest. Yale University Press.
Vosoughi, S., Roy, D., & Aral, S. (2018). The Spread of True and False News Online. Science, 359(6380), 1146-1151.
Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making. Council of Europe.
Zeng, Z. (2020). The Limits of Platform Regulation: A Study on Digital Moderation. Journal of Digital Policy and Regulation, 22(4), 36-49.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.