La cuenta de Twitter del nuevo propietario, Elon Musk, que muestra « Chief Twit » se muestra en un teléfono inteligente en octubre. Foto de archivo de Ismael Mohamad/UPI | Licencia de foto

Ene. 5 (UPI) — Una de las razones declaradas por Elon Musk para comprar Twitter fue usar la plataforma de redes sociales para defender el derecho a la libertad de expresión. La capacidad de defender ese derecho, o de abusar de él, se encuentra en una ley específica aprobada en 1996, en los albores de la era moderna de las redes sociales.

La legislación, la Sección 230 de la Ley de Decencia en las Comunicaciones, brinda a las plataformas de redes sociales algunas protecciones realmente asombrosas bajo la ley estadounidense. La Sección 230 también se ha llamado las 26 palabras más importantes en tecnología : « Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o hablante de cualquier información proporcionada por otro proveedor de contenido de información ».

Pero cuanto más prueban las plataformas como Twitter los límites de su protección, más políticos estadounidenses de ambos lados del pasillo se han sentido motivados a modificar o derogar la Sección 230. Como profesor de redes sociales y abogado de redes sociales con una larga historia en este campo, creemos que se avecina un cambio en la Sección 230, y creemos que es necesario desde hace mucho tiempo.

Nacido del porno

La Sección 230 tuvo su origen en el intento de regular la pornografía en línea. Una forma de verlo es como una especie de ley de « graffiti de restaurante ». Si alguien dibuja grafitis ofensivos o expone la información privada y la vida secreta de otra persona en el baño de un restaurante, el dueño del restaurante no se hace responsable de ello. No hay consecuencias para el propietario. En términos generales, la Sección 230 extiende la misma falta de responsabilidad a los Yelps y YouTubes del mundo.

Pero en un mundo en el que las plataformas de redes sociales están dispuestas a monetizar y beneficiarse de los grafitis en sus muros digitales, que no solo contienen pornografía, sino también información errónea y expresiones de odio, la postura absolutista de que tienen protección total e « inmunidad » legal total es insostenible.

Mucho bien ha resultado de la Sección 230. Pero la historia de las redes sociales también deja en claro que está lejos de ser perfecta para equilibrar las ganancias corporativas con la responsabilidad cívica.

Teníamos curiosidad sobre cómo el pensamiento actual en los círculos legales y la investigación digital podría dar una imagen más clara sobre cómo la Sección 230 podría modificarse o reemplazarse de manera realista, y cuáles podrían ser las consecuencias. Visualizamos tres escenarios posibles para enmendar la Sección 230, que llamamos disparadores de verificación, límites de responsabilidad transparentes y tribunal de Twitter.

Activadores de verificación

Apoyamos la libertad de expresión y creemos que todos deberían tener derecho a compartir información. Cuando las personas que se oponen a las vacunas comparten sus preocupaciones sobre el rápido desarrollo de las vacunas COVID-19 basadas en ARN, por ejemplo, abren un espacio para una conversación y un diálogo significativos. Tienen derecho a compartir tales preocupaciones, y otros tienen derecho a contrarrestarlas.

Lo que llamamos un « disparador de verificación » debería activarse cuando la plataforma comience a monetizar contenido relacionado con información errónea. La mayoría de las plataformas intentan detectar información errónea y muchas etiquetan, moderan o eliminan parte de ella. Pero muchos también lo monetizan a través de algoritmos que promueven contenido popular, y a menudo extremo o controvertido. Cuando una empresa monetiza contenido con desinformación, afirmaciones falsas, extremismo o discurso de odio, no es como el inocente dueño de la pared del baño. Es más como un artista que fotografía el grafiti y luego lo vende en una exhibición de arte.

Twitter comenzó a vender marcas de verificación para cuentas de usuario en noviembre. Al verificar que una cuenta de usuario es una persona o empresa real y cobrar por ella, Twitter garantiza y monetiza esa conexión. Alcanzar un cierto valor en dólares a partir de contenido cuestionable debería desencadenar la capacidad de demandar a Twitter, o cualquier plataforma, en los tribunales. Una vez que una plataforma comienza a ganar dinero con los usuarios y el contenido, incluida la verificación, se sale de los límites de la Sección 230 y entra en la brillante luz de la responsabilidad, y en el mundo de las leyes de responsabilidad extracontractual, difamación y derechos de privacidad.

tapas transparentes

Las plataformas de redes sociales crean sus propias reglas sobre el discurso de odio y la desinformación. También mantienen en secreto mucha información sobre cuánto dinero gana la plataforma con el contenido, como un tweet determinado. Esto vuelve opaco lo que no está permitido y lo que se valora.

Un cambio sensato a la Sección 230 sería expandir sus 26 palabras para explicar claramente lo que se espera de las plataformas de redes sociales. El lenguaje agregado especificaría qué constituye información errónea, cómo deben actuar las plataformas de redes sociales y los límites sobre cómo pueden beneficiarse de ello. Reconocemos que esta definición no es fácil, que es dinámica y que los investigadores y las empresas están luchando con ella.

Pero el gobierno puede subir el listón al establecer algunos estándares consistentes. Si una empresa puede demostrar que cumple con esos estándares, la cantidad de responsabilidad que tiene podría ser limitada. No tendría una protección completa como la tiene ahora. Pero tendría mucha más transparencia y responsabilidad pública. A esto lo llamamos un « límite de responsabilidad transparente ».

twitter corto

Nuestra enmienda final propuesta a la Sección 230 existe en forma rudimentaria. Al igual que Facebook y otras plataformas sociales, Twitter tiene paneles de moderación de contenido que determinan los estándares para los usuarios en la plataforma y, por lo tanto, los estándares para el público que comparte y está expuesto al contenido a través de la plataforma. Puedes pensar en esto como « Twitter short ».

La moderación efectiva del contenido implica el difícil equilibrio de restringir el contenido dañino y preservar la libertad de expresión.

Aunque la moderación de contenido de Twitter parece estar sufriendo cambios y reducciones de personal en la empresa, creemos que los paneles son una buena idea. Pero mantener los paneles ocultos detrás de las puertas cerradas de las empresas lucrativas no lo es. Si empresas como Twitter quieren ser más transparentes, creemos que eso también debería extenderse a sus propias operaciones y deliberaciones internas.

Prevemos extender la jurisdicción del « tribunal de Twitter » a árbitros neutrales que adjudicarían reclamos que involucran a individuos, funcionarios públicos, empresas privadas y la plataforma. En lugar de ir a la corte real por casos de difamación o violación de la privacidad, la corte de Twitter sería suficiente bajo muchas condiciones. Una vez más, esta es una forma de retirar algunas de las protecciones absolutistas de la Sección 230 sin eliminarlas por completo.

¿Funcionaría?

Desde 2018, las plataformas han tenido una protección limitada de la Sección 230 en casos de tráfico sexual. Una propuesta académica reciente sugiere extender estas limitaciones a la incitación a la violencia, el discurso de odio y la desinformación. Los republicanos de la Cámara también han sugerido una serie de exclusiones de la Sección 230, incluidas aquellas para contenido relacionado con el terrorismo, la explotación infantil o el ciberacoso.

Nuestras tres ideas de disparadores de verificación, límites de responsabilidad transparentes y corte de Twitter pueden ser un lugar fácil para comenzar la reforma. Podrían implementarse individualmente, pero tendrían una autoridad aún mayor si se implementaran juntos. La mayor claridad de los desencadenantes de verificación transparente y la responsabilidad transparente ayudaría a establecer estándares significativos que equilibren el beneficio público con la responsabilidad corporativa de una manera que la autorregulación no ha podido lograr. El tribunal de Twitter brindaría una opción real para que las personas arbitren en lugar de simplemente observar la desinformación y el discurso de odio florecer y las plataformas se benefician de ello.

Agregar algunas opciones y enmiendas significativas a la Sección 230 será difícil porque no será fácil definir el discurso de odio y la desinformación en contexto, y establecer límites y medidas para la monetización del contexto. Pero creemos que estas definiciones y medidas son alcanzables y valiosas. Una vez implementadas, estas estrategias prometen fortalecer el discurso en línea y las plataformas más justas.

Robert Kozinets es profesor de periodismo en la Escuela Annenberg de Comunicación y Periodismo de la USC. Jon Pfeiffer es profesor adjunto de derecho en la Universidad de Pepperdine.

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.

Los puntos de vista y opiniones expresados ​​en este comentario son únicamente del autor.