Desde litigios en la Corte Suprema hasta legislación federal, una ley de casi 30 años está cada vez más en el centro de atención: la Sección 230.

Aprobada por el Congreso en 1996 como parte de la Ley de Decencia en las Comunicaciones (CDA), la ley ha sido un eje para proteger las plataformas en línea de desafíos legales. Si bien la CDA tenía como objetivo evitar que los menores accedieran a contenido explícito, la Sección 230 creó un marco para proteger a empresas como Google y Facebook de ser demandadas por lo que publican las personas.

En medio de la creciente preocupación por el contenido generado por los usuarios, la Sección 230 se encuentra cada vez más bajo el microscopio. En los últimos años, los legisladores estadounidenses de ambos lados del pasillo han introducido legislación para modificar la Sección 230 para frenar la desinformación y otros contenidos dañinos, incluida la IA generativa. Y apenas el mes pasado, la Corte Suprema de Estados Unidos escuchó argumentos orales sobre si se debería permitir que Florida y Texas limiten la forma en que las empresas de tecnología moderan el contenido generado por los usuarios.

A pesar de los pedidos de cambio, algunos expertos dicen que cambiar la Sección 230 podría provocar una avalancha de demandas por mala fe contra empresas de tecnología y medios en línea en general. Otros dicen que obligar a las plataformas a permitir todo el contenido sin consecuencias podría crear un entorno más peligroso tanto para los usuarios como para los anunciantes.

Entonces, ¿qué es exactamente la Sección 230?

Si bien la Sección 230 es a la vez controvertida y compleja, muchos expertos señalan una sección de 26 palabras que ayuda a resumir la jerga legal hasta su esencia: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de cualquier información proporcionada. por otro proveedor de contenidos de información”. Y, sin embargo, hay una ambigüedad clave: ¿quién debe ser considerado editor y quién sólo distribuidor?

La Sección 230 tiene dos partes clave. La primera es una disposición de responsabilidad limitada que otorga a las empresas una amplia inmunidad frente a quejas legales relacionadas con el contenido de sus plataformas. La segunda parte proporciona inmunidad a las empresas cuando toman medidas contra contenidos considerados “obscenos, lascivos, lascivos, sucios, excesivamente violentos, acosadores o de otro modo objetables”.

A medida que Internet creció, las plataformas en línea tuvieron la tarea de analizar cantidades masivas de contenido y decidir qué censurar o no. Eso requirió que las plataformas tuvieran más influencia en garantizar que el contenido fuera seguro pero también relevante, algo que se volvió cada vez más importante a medida que miles de millones de usuarios en todo el mundo alimentaron una explosión de contenido generado por los usuarios.

“Se puede argumentar que estas empresas son empresas de medios [and] sus algoritmos son editores”, dijo Robyn Caplan, profesora de la Universidad de Duke que investiga las redes sociales y las políticas públicas. “E incluso si se hace a través de medios automatizados, un algoritmo no está exento de participación humana: están aportando información para comprender y determinar qué priorizar con un algoritmo”.

¿Por qué es relevante la Sección 230 en este momento?

La evolución de Internet ha llevado a muchos a preguntarse si la Sección 230 debería actualizarse para los tiempos modernos para ayudar a abordar una gran cantidad de cuestiones relacionadas con el contenido en línea. Si bien los expertos se preguntan cómo la Sección 230 podría cruzarse con varias propuestas para proteger a los niños de contenido dañino, otros advierten que hacer retroceder la Sección 230 también podría debilitar las protecciones de la privacidad digital. Mientras tanto, los miembros del Congreso han sugerido formas de enmendar la Sección 230 para responsabilizar a las plataformas por la información errónea sobre elecciones y emergencias de salud pública.

La proliferación de la IA generativa también plantea nuevas preguntas sobre si la Sección 230 protegerá a las empresas de ser responsables por el contenido generado por la IA, algo que también se pregunta la Corte Suprema. Cuando el tribunal superior escuchó casos contra Twitter y Google en febrero de 2023, el juez conservador Neil Gorsuch se preguntó si los algoritmos habían evolucionado más allá de estar protegidos como una “herramienta neutral”.

“En un mundo post-algoritmos, la inteligencia artificial puede generar algunas formas de contenido, incluso de acuerdo con reglas neutrales”, dijo Gorsuch. “La inteligencia artificial genera poesía, genera polémicas hoy. Sería contenido que va más allá de seleccionar, elegir, analizar o digerir contenido. Y eso no está protegido”.

Los debates sobre la Sección 230 surgen junto con un interés cada vez mayor (y una preocupación cada vez mayor) en torno a la IA generativa. ¿El contenido generado por IA también debería ser inmune a los litigios? Algunos expertos sostienen que los usuarios son responsables según sus indicaciones. Otros dicen que la herramienta de inteligencia artificial debería ser responsable, ya que tiene más control sobre el contenido.

“Cabe señalar que no todos los productos GenAI funcionan de la misma manera y, similar al análisis legal actual bajo la Sección 230, sería una determinación basada en hechos basada en la aplicación y funcionalidad de la herramienta GenAI”, dijo Monique Bhargava, una Socio del despacho de abogados Reed Smith.

¿Quién quiere cambiar la Sección 230?

Actualizar la Sección 230 es una cuestión bipartidista, pero las respuestas varían cuando se trata de encontrar el enfoque correcto. Junto con varios esfuerzos en el Congreso, otros que han pedido cambios incluyen al presidente Joe Biden y al expresidente Donald Trump.

El año pasado, los senadores estadounidenses Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.) introdujeron una legislación para despojar a la Sección 230 de la inmunidad cuando las demandas civiles y penales se relacionan con contenido generado por IA. Otro proyecto de ley presentado el año pasado fue la “Ley SAFE TECH”, un proyecto de ley respaldado por los demócratas que propuso abordar el acoso cibernético, la discriminación y el acoso en línea y al mismo tiempo eliminar las protecciones de la Sección 230 para anuncios y contenido pago.

¿Quién quiere dejarlo en su lugar?

Los gigantes tecnológicos, junto con varios grupos digitales y de derechos civiles, se encuentran entre los grupos que abogan contra el cambio de la Sección 230. Algunas actualizaciones advierten que podrían dañar la privacidad en línea, limitar el contenido en línea de usuarios LGBTQ y perjudicar la libertad de expresión de otras maneras.

Si bien TikTok, Reddit y otras plataformas importantes dependen del contenido generado por los usuarios para prosperar, las empresas de tecnología dicen que las enormes cantidades de contenido requieren poder tomar decisiones sobre curación y moderación. Aunque los expertos dicen que las redes sociales comprenden la importancia de mantener plataformas seguras, también señalan la difícil tarea de mantener Internet libre de contenido dañino. Melinda Sebastian, analista senior de políticas de Data & Society, dijo que los usuarios de las redes sociales, en cierto sentido, están “alquilando espacio” cuando publican comentarios u otro contenido.

“Especialmente si se han promocionado como un lugar para niños, no quieren que la gente tenga la experiencia de estar en un lugar horrible, peligroso o inseguro”, dijo Sebastian, que investiga ética y tecnología. “A su mercado le interesa ser moderado y ser un espacio más sano y limpio. La mayoría de ellos quiere tener la capacidad de hacerlo”.

También están a favor de defender la Sección 230 sus coautores, el senador estadounidense Ron Wyden (demócrata por Oregon) y el ex representante estadounidense Christopher Cox (republicano por California), quienes expresaron sus preocupaciones el año pasado en una presentación ante la Corte Suprema. Corte.

“La transmisión en tiempo real de contenido generado por el usuario que fomenta la Sección 230 se ha convertido en la columna vertebral de la actividad en línea, en la que confían innumerables usuarios de Internet y plataformas por igual”, escribieron Wyden y Cox. “Dado el enorme volumen de contenido creado por [i]Para los usuarios de Internet de hoy, la protección de la Sección 230 es incluso más importante ahora que cuando se promulgó el estatuto”.

Los orígenes del artículo 230

La Sección 230 surgió de dos demandas separadas presentadas contra las plataformas en línea de la era 1.0 Prodigy y CompuServe en la primera mitad de la década de 1990. Aunque ambos fueron demandados por contenido difamatorio publicado en foros de anuncios en línea alojados en los servidores de las empresas, los casos llegaron a resultados diferentes. En 1991, un tribunal de Nueva York falló a favor de CompuServe al determinar que era un distribuidor en lugar de un editor y, por lo tanto, no era responsable de su contenido. Cuatro años después, la Corte Suprema de Nueva York falló en contra de Prodigy. Había otra diferencia clave: CompuServe no moderó su contenido, pero Prodigy lo intentó.

“Lo que no querían era desincentivar a estas empresas para que no moderaran lo que había en sus plataformas”, dijo Caplan de la Universidad de Duke. “Y entonces, lo que hicieron fue incluir esta disposición de buena fe que permitía a las empresas moderar el contenido como mejor les pareciera”.

Una de las primeras pruebas de la Sección 230 fue un caso de 1997 sobre un anuncio en AOL. En Zeran contra America Online Inc, Kenneth Zeran alegó difamación después de que un usuario anónimo publicara el nombre y el número de Zeran en un anuncio en el tablón de anuncios de AOL de camisetas que celebraban el atentado de Oklahoma City. Después de que Zeran recibiera llamadas de acoso y amenazas, AOL eliminó el anuncio a pedido, pero un anuncio similar ocupó su lugar. El caso finalmente llegó a la Corte Suprema, que falló a favor de AOL al determinar que era un distribuidor y no un editor.

Las apuestas

Los favoritos de Internet del pasado y del presente han citado la Sección 230 como escudo contra numerosas demandas. Según una lista compilada por la Electronic Frontier Foundation, las empresas que utilizaron la inmunidad de la Sección 230 para ganar casos incluyen eBay, MySpace, Yahoo, Google, Village Voice y Craigslist. El año pasado, Twitter y Google citaron la Sección 230 en sus argumentos ante la Corte Suprema en casos duales que abordaban si las empresas deberían ser responsables por el contenido terrorista en sus plataformas.

Cualquier cambio en la Sección 230 podría tener implicaciones importantes para las plataformas en línea, los proveedores de contenido y los anunciantes. El año pasado, varias empresas mencionaron que los cambios a la Sección 230 podrían tener un impacto en sus negocios. Algunos de ellos incluyen Meta, Roblox, Vimeo, Zoom, Microsoft, Coursera, Roku, Snap y Squarespace. La Sección 230 también apareció en presentaciones regulatorias de empresas que buscaban posibles OPI, incluidas Reddit y Rumble.

“El impacto de la sección 230 en la publicidad es en general similar al impacto en otros tipos de contenido de terceros”, dijo Scott Wilkens, abogado principal del Instituto Knight de la Primera Enmienda de la Universidad de Columbia. “Sin embargo, creo que es importante que la prueba que adopte la Corte Suprema (si es que se pronuncia sobre el fondo aquí, al igual que la prueba que adoptaron los tribunales inferiores y los tribunales de apelaciones) deje espacio para reclamos de discriminación de una manera, por ejemplo. , que los anuncios se entreguen a los usuarios “.

¿Qué pasa después?

Es demasiado pronto para saber cuál podría ser el resultado de los distintos debates. Varios esfuerzos legislativos en el Congreso no han logrado aprobarse y un fallo de la Corte Suprema podría tardar meses. También existe la posibilidad de que el tribunal decida no pronunciarse sobre el caso en absoluto, tal como se negó a reconsiderar la Sección 230 en los casos del año pasado contra Twitter y Google. Muchos expertos dicen que las preguntas del tribunal durante el argumento oral del mes pasado sugieren que será cauteloso a la hora de profundizar demasiado en el debate, al menos por ahora.

“Muchos de [the Supreme Court justices] “Parecía muy preocupado por lo rápido que avanza la tecnología aquí”, dijo Wilkens. “Y cómo lo que dicen podría tener un impacto en el tipo de desarrollo de iInternet y el desarrollo de las tecnologías que impulsan Internet: cómo lo usamos y cómo podría afectar nuestra capacidad de libertad de expresión”.

Como la innovación suele superar a la legislación, a menudo se deja que los legisladores intenten captar el espíritu de lo que quieren promover o prevenir, según Sebastian. En cambio, están tratando de adivinar cómo evolucionará una industria a continuación.

“Nadie predijo palabras como ‘toma de decisiones algorítmica’ en 1996”, dijo. “No pudieron predecir cómo sería eso”.

Con información de Digiday

Leer la nota Completa > ¿Qué es la Sección 230? – Digidía

LEAVE A REPLY

Please enter your comment!
Please enter your name here