¿Pueden los estados limitar la forma en que las empresas de redes sociales pueden moderar el contenido? Esto está nuevamente bajo consideración en la Corte Suprema de Estados Unidos.

El lunes, el tribunal superior del país pasó horas escuchando argumentos orales sobre las leyes estatales de Florida y Texas, que se aprobaron en 2021 después de que el expresidente Donald Trump fuera expulsado de las principales plataformas sociales tras el ataque al Capitolio el 6 de enero. Ambas leyes estatales fueron impugnadas por NetChoice, un grupo de la industria tecnológica que representa a gigantes como Google, Meta, TikTok y Snap. Los abogados de NetChoice dicen que las leyes estatales violan los derechos de la primera enmienda de las empresas al obligar a las plataformas en línea a permitir contenido que viole las políticas de sus plataformas. Sin embargo, Florida y Texas dicen que sus leyes permiten la libertad de expresión.

Aunque los temas se superponen, existen diferencias clave. La ley de Florida protege a los candidatos políticos de ser prohibidos permanentemente por las plataformas en línea. En Texas, las empresas de redes sociales con más de 50 millones de usuarios mensuales tienen prohibido prohibir usuarios por publicaciones políticas. La ley de Texas también excluye los sitios web y, en particular, los sitios web centrados en noticias, deportes y entretenimiento.

Los casos llegan apenas un año después de que la Corte Suprema escuchara argumentos en otros dos casos de libertad de expresión. Sin embargo, los argumentos de la audiencia de febrero de 2023 abordaron si Google y Twitter deberían ser responsables del contenido dañino, y específicamente del contenido terrorista. La Corte Suprema se puso del lado unánime de las empresas de tecnología, pero decidió no abordar el alcance de la Sección 230 de la Ley de Decencia en las Comunicaciones, que también surgió mucho en las discusiones sobre leyes estatales.

El caso contra Texas y Florida

En representación de las empresas de tecnología estuvo el ex procurador general de Estados Unidos, Paul Clement, quien presentó los argumentos orales de NetChoice tanto en el caso Moody contra NetChoice, relacionado con Florida, como en NetChoice contra Paxton, relacionado con Texas. Dijo que los esfuerzos de moderación de contenido de las plataformas representan “discreción editorial para hacerlo menos ofensivo para los usuarios y anunciantes”. Cuando el juez Samuel Alito preguntó si la moderación de contenido es “algo más que un eufemismo para referirse a la censura”, Clement respondió sólo “si el gobierno lo está haciendo”, pero por lo demás es sólo discreción editorial.

“Dada la gran cantidad de material en Internet en general, y en estos sitios web en particular, ejercer discreción editorial es absolutamente necesario para que los sitios web sean útiles para los usuarios y anunciantes”, dijo Clement. “Y cuanto más se analiza la ley de Florida, más problemáticos se vuelven los problemas de la Primera Enmienda”.

Más allá de las principales redes sociales como Facebook y YouTube, los jueces preguntaron sobre una variedad de empresas, incluidas Etsy, LinkedIn y DropBox, y cómo podrían verse afectadas por la ley estatal. ¿Se aplicaría la ley de Florida a los conductores de Uber que discriminan según a quién recogerán? ¿Venmo se vería obligado a permitir que las personas realizaran transacciones en la plataforma incluso si no creyera en un punto de vista? ¿Tendría Google derecho a prohibir a personalidades políticas utilizar Gmail?

Ambos casos también llevaron a decenas de empresas, grupos de expertos, políticos e individuos a presentar escritos ante el tribunal, incluso de empresas como Yelp, Reddit y Discord. Otros citaron nuevas leyes relacionadas con la privacidad de los datos y límites a la publicidad dirigida a menores. En una presentación en nombre de Etsy y eBay, la Marketplace Industry Association señaló que los socios de marketing y los inversores “desconfían del contenido potencial” y que los “entornos legales inciertos” podrían disuadir futuras inversiones.

“Leyes como [Florida and Texas] requeriría que las empresas de redes sociales difundan puntos de vista, independientemente de que las apoyen o no, incluso si esos puntos de vista entran en conflicto con sus normas establecidas y alienan a los usuarios y anunciantes”, según un escrito presentado por Interactive Advertising Bureau.

La procuradora general de Estados Unidos, Elizabeth Prelogar, también estuvo en el tribunal del lado de NetChoice. En sus comentarios del lunes, Prelogar señaló que las plataformas en línea no son lo mismo que las líneas telefónicas o los camiones de correo. Añadió que la Primera Enmienda protege a las entidades que “curan, organizan y presentan palabras e imágenes de otras personas en compilaciones expresivas”.

“Existe una gran diferencia entre un conducto puro y el tipo de empresa que se dedica literalmente a transmitir el habla”, dijo Prelogar. “… [Platforms are] no sólo facilitar literalmente la capacidad de los usuarios para comunicarse con otros usuarios. En cambio, lo toman, lo organizan y lo excluyen”.

Preocupaciones del Tribunal Superior

En la audiencia del lunes, los miembros de la Corte Suprema se preguntaron si las leyes podrían tener consecuencias no deseadas para la libertad de expresión en general. Si bien la jueza Sonia Sotomayor señaló que la ley de Florida parece “muy amplia” y “casi cubre todo”, la jueza Ketanji Brown Jackson preguntó si es necesario “profundizar más para determinar realmente si las cosas están protegidas o no”. A otros, incluida la jueza Amy Coney Barrett, también les preocupaba que confundir el enfoque del caso en cuestiones de la Primera Enmienda con debates sobre las protecciones de la Sección 230 pudiera conducir a posibles “minas terrestres”.

“Si lo que decimos sobre esto es que se trata de un discurso que tiene derecho a las protecciones de la Primera Enmienda, creo que eso tiene implicaciones de la Sección 230 para otro caso”, dijo Barrett. “Y por eso siempre es complicado escribir una opinión cuando sabes que podría haber minas terrestres que afectarían las cosas más adelante”.

Más allá de abordar la moderación de contenidos, los jueces también preguntaron sobre la curación de contenidos. La jueza Elena Kagan mencionó el ejemplo del cambio de nombre de Twitter a X y del cambio del contenido que la gente veía en su línea de tiempo.

“De repente, cada mañana recibían un periódico en línea diferente, por así decirlo, en un sentido metafórico”, dijo Kagan. “Y muchos usuarios de Twitter pensaron que eso era genial, y muchos usuarios de Twitter pensaron que era horrible porque, de hecho, se hacían diferentes juicios de contenido que afectaban en gran medida el entorno de habla en el que ingresaban cada vez que abrían su aplicación.”

Publicidad, algoritmos y otras cuestiones.

Aunque la publicidad no fue el tema principal de los argumentos orales del lunes, sí surgió dentro del caso más amplio. Una presentación señaló que YouTube perdió millones en ingresos publicitarios en 2017 después de que las empresas eliminaran los anuncios “después de verlos distribuidos junto a videos que contenían contenido extremista y discursos de odio”. Otros citaron casos pasados ​​que hacen referencia al papel de la publicidad, incluido un caso de 1985 que determinó que las empresas podían exigir divulgaciones de los anunciantes sin violar sus derechos de la Primera Enmienda.

“Las plataformas de Internet controlan hoy la forma en que millones de estadounidenses se comunican entre sí y con el mundo”, dijo Henry Whitaker, procurador general de Florida, durante la audiencia del lunes mientras argumentaba a favor de la ley estatal. “Las plataformas lograron ese éxito promocionándose como foros neutrales para la libertad de expresión. Ahora que alojan las comunicaciones de miles de millones de usuarios, cantan una melodía muy diferente”.

Los miembros de la Corte Suprema también abordaron el papel de los algoritmos en el contexto de la moderación de contenidos. El juez Neil Gorsuch preguntó a Clement si las plataformas podrían utilizar algoritmos para influir en los adolescentes hacia problemas de salud mental. Otros, incluido el juez Clarence Thomas, se preguntaron si los medios no humanos para moderar el contenido todavía contaban como libertad de expresión. Al dar un ejemplo de un algoritmo de aprendizaje profundo que “se aprende solo y tiene muy poca intervención humana”, Thomas preguntó: “¿Quién habla entonces, el algoritmo o la persona?”

Según el procurador general de Texas, Aaron Nielson, quien argumentó a favor del estado, el expediente del tribunal no tiene evidencia suficiente para saber qué están haciendo los algoritmos de las plataformas. Dijo que un algoritmo “podría ser expresivo”, pero también podría hacerse neutral para reflejar la elección del usuario.

Un factor en ambos casos es si las empresas de medios sociales se parecen más a periódicos a los que se les permite tomar sus propias decisiones editoriales o más bien a “operadores comunes”, como los proveedores de telefonía o las oficinas de correos, a los que se les exige dar a todos el mismo acceso independientemente de lo que digan. NetChoice argumentó que las plataformas sociales no deberían estar en el mismo grupo que las compañías telefónicas y hacer algo más que simplemente transmitir contenido.

Los abogados que defienden las leyes estatales dijeron que empresas como Google y Meta tienen un enorme poder de mercado y deberían ser tratadas como plazas públicas, algo que también sugirieron los miembros de SCOTUS, incluido el presidente del Tribunal Supremo Roberts. Otros, incluido el juez Samuel Alito, señalaron que plataformas como Gmail podrían parecerse más a un operador común, ya que no seleccionan mensajes.

La persectiva

Ninguna de las leyes estatales ha entrado en vigor aún y NetChoice ganó una orden judicial preliminar contra ambas. Como máximo, el tribunal podría confirmar la medida cautelar. También podría decidir enviarlo de vuelta a los tribunales inferiores para desarrollar más el expediente de hechos del caso. Los expertos también señalan que el resultado no impedirá que los estados apliquen nuevas leyes que regulen Internet.

Durante una discusión en línea después de la audiencia, Lawrence G. Walters, abogado general de la Woodhull Freedom Foundation, dijo que dejar las leyes estatales vigentes podría conducir a una “mezcolanza de regulaciones onerosas e inconsistentes” que podrían ser perjudiciales para las empresas y los usuarios. En el mismo foro, la abogada de privacidad y tecnología de la ACLU, Vera Eidelman, dijo que hay que elegir entre la moderación por parte de empresas privadas o la censura gubernamental. “Hay aspectos en los que ambas cosas resultan poco atractivas”, afirmó. “Pero la opción del gobierno es seguramente peor y también es inconstitucional”.

Texas y Florida han “delineado claramente su visión de Internet”, según Jess Miers, asesora principal de la Cámara del Progreso, afiliada a la tecnología.

“Están buscando un espacio dominado por las voces más fuertes, fomentando contenidos que pongan en peligro a los grupos marginados y al público más joven”, dijo a Digiday Miers, profesor de la Universidad de Santa Clara. “Han enviado un mensaje claro a sus electores de que preferirían que estas plataformas abandonaran sus estados por completo en lugar de simplemente permitirles la libertad de discreción editorial”.

Con información de Digiday

Leer la nota Completa > ¿Hasta qué punto pueden los estados regular las redes sociales? La Corte Suprema conoce casos a favor y en contra

LEAVE A REPLY

Please enter your comment!
Please enter your name here