La Corte Suprema considerará otorgar protecciones de la Primera Enmienda a las publicaciones en las redes sociales

La Primera Enmienda no protege los mensajes publicados en las plataformas de redes sociales.

Las empresas propietarias de las plataformas pueden (y lo hacen) eliminar, promover o limitar la distribución de cualquier publicación. según las políticas corporativas. Pero todo eso podría cambiar pronto.

El Tribunal Supremo ha aceptado escuchar cinco casos durante este mandato actual, que finaliza en junio de 2024, que en conjunto brindan al tribunal la oportunidad de reexaminar la naturaleza de la moderación de contenido (las reglas que rigen las discusiones en plataformas de redes sociales como Facebook y X, antes conocida como Twitter) y las limitaciones constitucionales a que el gobierno afecte el discurso en las plataformas.

La moderación de contenido, ya sea que la realicen manualmente los empleados de la empresa o automáticamente mediante el software y los algoritmos de una plataforma, afecta lo que los espectadores pueden ver en una página de medios digitales. Los mensajes promocionados obtienen una mayor audiencia y una mayor interacción; aquellos a los que se les ha quitado prioridad o se han eliminado obviamente recibirán menos atención. Las políticas de moderación de contenido reflejan decisiones de las plataformas digitales sobre el valor relativo de los mensajes publicados.

Como abogado, profesor y autor de un libro sobre la límites de la Primera EnmiendaCreo que los desafíos constitucionales presentados por estos casos darán a la corte la oportunidad de asesorar al gobierno, las corporaciones y los usuarios de tecnologías interactivas cuáles son sus derechos y responsabilidades a medida que las tecnologías de las comunicaciones continúan evolucionando.

A finales de octubre de 2023, la Corte Suprema escuchó argumentos orales sobre dos casos relacionados en los que ambos grupos de demandantes argumentaron que los funcionarios electos que utilizan sus cuentas de redes sociales exclusiva o parcialmente para promover sus políticas y políticas. no puede bloquear constitucionalmente a los electores publicar comentarios en las páginas de los funcionarios.

En uno de esos casos, O’Connor-Radcliff contra Garnierdos miembros de la junta escolar del Distrito Escolar Unificado de Poway en California impidieron que un grupo de padres, que frecuentemente publicaban comentarios repetitivos y críticos en las cuentas de Facebook y Twitter de los miembros de la junta, vieran las cuentas de los miembros de la junta.

En el otro caso visto en octubre, Lindke contra liberadoel administrador de la ciudad de Port Huron, Michigan, aparentemente enojado por los comentarios críticos sobre una foto publicada, bloqueó a un elector para que no pudiera ver o publicar en la página de Facebook del administrador.

Los tribunales han sostenido durante mucho tiempo que los espacios públicos, como parques y aceras, son foros públicos que deben permanecer abiertos a conversaciones y debates libres y sólidossujeto únicamente a reglas neutrales sin relación con el contenido del discurso expresado. Los electores silenciados en los casos actuales insistieron en que en un mundo donde gran parte del debate público se lleva a cabo en medios sociales interactivos, los espacios digitales utilizados por los representantes gubernamentales para comunicarse con sus electores También son foros públicos y deben estar sujetos a las mismas reglas de la Primera Enmienda que sus contrapartes físicas.

Si la Corte Suprema dictamina que los foros públicos pueden ser tanto físicos como virtuales, los funcionarios del gobierno no podrán bloquear arbitrariamente a los usuarios para que no vean y respondan a su contenido ni eliminar los comentarios de los electores con los que no estén de acuerdo. Por otro lado, si la Corte Suprema rechaza el argumento de los demandantes, el único recurso para los electores frustrados será crear espacios competitivos en las redes sociales donde puedan criticar y argumentar a voluntad.

Otros dos casos – NetChoice LLC contra Paxton y Moody contra NetChoice LLC – también se relacionan con la cuestión de cómo el gobierno debería regular las discusiones en línea. Florida y Texas Ambos han aprobado leyes que modifican las políticas internas y los algoritmos de las grandes plataformas de redes sociales al regular cómo las plataformas pueden promover, degradar o eliminar publicaciones.

NetChoice, un grupo comercial de la industria tecnológica que representa a amplia gama de plataformas de redes sociales y las empresas en línea, incluidas Meta, Amazon, Airbnb y TikTok, sostienen que las plataformas no son foros públicos. El grupo dice que la legislación de Florida y Texas restringe inconstitucionalmente el derecho de las empresas de medios sociales de la Primera Enmienda a crear sus propias redes sociales. opciones editoriales sobre lo que aparece en sus sitios.

Además, NetChoice alega que al limitar la capacidad de Facebook o X para clasificar, reprimir o incluso eliminar expresiones (ya sea manualmente o con algoritmos) las leyes de Texas y Florida equivalen a requisitos gubernamentales que exigen plataformas presentan discursos que no queríanque también es inconstitucional.

NetChoice está pidiendo a la Corte Suprema que declare que las leyes son inconstitucionales para que las plataformas sigan siendo libres de tomar sus propias decisiones independientes sobre cuándo, cómo y si las publicaciones permanecerán disponibles para verlas y comentarlas.



En un esfuerzo por reducir el discurso dañino que prolifera en Internet (discurso que apoya actividades criminales y terroristas, así como información errónea y desinformación), el gobierno federal ha entablado conversaciones de amplio alcance con empresas de Internet sobre sus políticas de moderación de contenido.

Con ese fin, la administración Biden ha aconsejado periódicamente: algunos dicen armado fuerte – plataformas de redes sociales para despriorizar o eliminar publicaciones que el gobierno había señalado como engañosas, falsas o dañinas. Algunas de las publicaciones relacionado con la desinformación sobre las vacunas contra el COVID-19 o promovieron la trata de personas. En varias ocasiones, los funcionarios sugirieron que las empresas de plataformas prohibieran a un usuario que publicó el material realizar más publicaciones. A veces, los propios representantes corporativos preguntaban al gobierno qué hacer con un puesto en particular.

Si bien el público puede ser generalmente consciente de que existen políticas de moderación de contenidos, no siempre es consciente de cómo esas políticas afectan la información a la que están expuestos. Específicamente, las audiencias no tienen forma de medir cómo las políticas de moderación de contenido afectan el mercado de ideas o influyen en el debate y la discusión sobre temas públicos.

En Misuri contra Biden, los demandantes argumentan que los esfuerzos del gobierno para persuadir a las plataformas de redes sociales para que publicaran o eliminaran publicaciones fueron tan implacables e invasivos que las políticas de moderación ya no reflejaban las propias decisiones editoriales de las empresas. Más bien, argumentan, las políticas fueron en realidad directivas gubernamentales que efectivamente silenciaron… y censurado inconstitucionalmente – oradores con los que el gobierno no estaba de acuerdo.

La decisión del tribunal en este caso podría tener efectos de amplio alcance en la forma y los métodos de los esfuerzos del gobierno para influir en la información que guía los debates y decisiones del público.

Fuente

Related posts

Necesitamos desafiar la insidiosa guerra de la OTAN en la cumbre de Washington

Biden intenta calmar a los demócratas mientras aumenta la presión para que abandonen las primarias en 2024: «No me voy»

¿Joe Biden ha talado el cerezo?