La conocida protección legal que evita que las plataformas sean responsables por lo que publican sus usuarios volvió a estar en el centro de la escena en una audiencia del Comité de Comercio del Senado. Dos corrientes dominaron la discusión: una ola poco habitual de demandas que cuestionan el alcance de la norma y un creciente nerviosismo bipartidista por la posibilidad de que el gobierno presione para controlar el contenido.
Qué protege la norma y por qué algunos la quieren cambiar
La sección en cuestión inmuniza a redes sociales, foros y secciones de comentarios de responsabilidad por lo que postean sus usuarios. También protege a las plataformas cuando moderan o eliminan contenido. Para mucha gente, es la base de servicios en línea tal y como los conocemos. Para otros, su protección es demasiado amplia y quedó anticuada frente a gigantes tecnológicos.
Propuestas concretas
- Sunset total: legisladores como los senadores Dick Durbin y Lindsey Graham han propuesto dejar que la protección caduque por completo.
- Acotarla: otros plantean reformas que limiten su alcance en temas concretos.
Dos ejes del debate: daño a menores y censura
La audiencia giró sobre dos problemas recurrentes. Primero, demandas que atribuyen a decisiones de diseño de apps efectos dañinos sobre menores. Segundo, reclamos de que las plataformas censuran desproporcionadamente voces conservadoras.
En Los Ángeles hay un juicio reciente en el que un jurado decide si Instagram y YouTube fueron diseñadas de forma que dañaron a una demandante joven, y si ciertas decisiones de diseño quedan fuera de la protección legal. Matthew Bergman, del Social Media Victims Law Center, declaró ante el comité acompañado de padres que mostraban fotos de sus hijos víctimas de daños vinculados a internet. Bergman no aboga por la eliminación total de la norma, pero pide que el Congreso aclare que las decisiones de diseño no deben quedar siempre protegidas. Según él, si se espera solo a los tribunales, más niños podrían morir.
El miedo a la presión gubernamental
Al mismo tiempo hay inquietud por la posibilidad de que el gobierno coaccione o ejerza presión para que las plataformas retiren contenido. El senador Brian Schatz señaló que la idea de que la norma sea intocable es exagerada, y resaltó que la puerta en Washington se puede abrir en ambos sentidos: medidas para frenar desinformación pueden convertirse en herramientas para limitar la libertad de expresión.
El presidente del comité, Ted Cruz, criticó la intervención del Ejecutivo en ciertos episodios y advirtió que eliminar la protección podría incentivar a las plataformas a auto-censurarse para evitar demandas. Aun así dijo que merece la pena estudiar reformas que promuevan más libertad de expresión en línea.
Choques en la sala: Schmitt contra Keller
La audiencia tuvo momentos tensos. El senador Eric Schmitt confrontó a Daphne Keller, directora de regulación de plataformas en la Facultad de Derecho de Stanford, por la relación de su centro con el análisis de desinformación. Schmitt recordó su demanda anterior contra la administración por supuesta presión sobre redes sociales y criticó el trabajo del observatorio de Stanford, que fue objeto de fuertes ataques y terminó reduciendo su actividad.
Keller reconoció que no le gustó la presión de algunos funcionarios, pero dijo que la demanda no logró probar que el gobierno obligara a las plataformas a eliminar contenido. Consideró que una decisión judicial reciente hará más difícil que víctimas de presunta presión gubernamental accedan a los tribunales en el futuro. Negó asimismo que el observatorio tuviera un papel coordinado con la administración para censurar puntos de vista.
En un intercambio subido de tono, Schmitt mencionó el caso Missouri contra Biden. Keller respondió con ironía cuando le recordaron el resultado del litigio.
Alternativas y futuro: privacidad, interoperabilidad e IA
No todos piden eliminar la protección. Nadine Farid Johnson, del Knight First Amendment Institute, propuso otras herramientas: leyes de privacidad más fuertes, requisitos de interoperabilidad entre redes y mayor acceso de investigadores a datos. La idea es reducir el uso de datos personales para enganchar usuarios y hacer más transparente cómo operan las plataformas.
El tema de la inteligencia artificial añadió otra capa. Líderes del sector y expertos advirtieron que los resultados generados por IA no deberían gozar automáticamente de la misma protección. Brad Carson dijo que las salidas de IA no deberían quedar cubiertas por la norma y pidió cuidado para no bloquear leyes que regulen el sector emergente. Como ejemplo de legislación específica, se mencionó una ley que obliga a retirar imágenes íntimas no consentidas, reales o generadas por IA, sin reformar toda la norma.
Un cierre humano
Para terminar con un toque humano, Ted Cruz contó una anécdota sobre su hija adolescente que mostró lo complicado que es para los padres controlar lo que hacen los menores en línea. Tras confiscarle el teléfono, la chica habría retirado la tarjeta SIM y usado un teléfono alternativo. Cruz dijo que le molestó, pero también que le impresionó la creatividad de su hija para saltarse las restricciones.
La conclusión de la audiencia fue que hay mucha presión para cambiar cosas, pero también advertencias sobre efectos indeseados. Reformar o mantener la protección legal tendrá que equilibrar la seguridad de los menores, la libertad de expresión y el riesgo de que el gobierno o las plataformas terminen limitando discursos legítimos.