Tanto los demócratas como los republicanos perdieron el punto el miércoles, cuando los miembros del Comité de Comercio del Senado tuvieron su última oportunidad antes de las elecciones para interrogar a los directores ejecutivos de Facebook, Twitter y Google.
Stephen L. Carter/ Bloomberg
Con el Partido Republicano en busca de prejuicios partidistas y los demócratas pidiendo mayores esfuerzos para reducir la desinformación, ambas partes ignoraron algunos principios fundamentales de la democracia.
El propósito aparente de la audiencia era reanudar el argumento sobre si enmendar la Sección 230 de la Ley de Decencia en las Comunicaciones.
En verdad, los republicanos llamaron a los directores ejecutivos de tecnología para presionarlos sobre su manejo de una controvertida historia del New York Post que alega irregularidades de Hunter Biden, hijo del candidato presidencial demócrata Joe Biden. Los senadores demócratas respondieron que el Partido Republicano estaba tratando de "intimidar" a los técnicos.
Bueno, Dios mío.
Es cierto que la desinformación es rampante en línea. Uno recuerda lo que Isaac Asimov llamó la Ley de Gennerat: "Lo falsamente dramático expulsa a lo verdaderamente aburrido". Hay muchas cosas falsamente dramáticas flotando por ahí, y la gente tiende a gravitar hacia las partes que hacen que el otro lado se vea peor.
Sin embargo, los gigantes de la tecnología, al emitir juicios sobre lo que es demasiado poco confiable para ser visto, están dando pasos tentativos por un camino que rara vez conduce a un buen lugar.
Incluso la restricción privada, aunque no coincide con ninguna de las definiciones clásicas de censura, delata una especie de arrogancia, lo que John Stuart Mill se burló como una creencia en la propia infalibilidad.
Peor aún, lo que tiende a motivar la eliminación de mala información es el temor al peligro que representa cualquier cosa que se omita o suprima, una preocupación por lo que podría suceder si las personas equivocadas terminan viéndolo.
El problema profundo aquí no es que las empresas a menudo actúan como si estuvieran usando anteojeras partidistas. El problema es que incluso si el trabajo se hiciera con perfecta neutralidad política, la determinación de evitar el uso de una plataforma para difundir “desinformación” seguiría mostrando la misma actitud básica.
Cuando una plataforma detecta una pieza que considera sospechosa y su personal o socios de revisión dicen: "No, no puedo dejar que la gente vea esto", el mensaje tácito es: "Aquí en Twinstabook somos lo suficientemente inteligentes como para comprender lo que realmente está sucediendo. Las personas que confían en nuestra plataforma no lo son ".
En cuestiones que van desde el cambio climático hasta Covid-19, las empresas de redes sociales a menudo opinan que hay argumentos demasiado peligrosos para permitir que los usuarios los vean.
Estoy de acuerdo en que el cambio climático representa una amenaza peligrosa y que un mal consejo sobre el nuevo coronavirus podría conducir a una propagación más mortal. Pero es un salto enorme de ocupar un puesto, incluso con pasión, a creer que los demás no deben ser tratados como lo suficientemente sabios como para tomar sus propias decisiones.
Sí, la plaza pública está inundada de desinformación. Siempre ha sido así. Soy de la generación entrenada para creer que la cura para la mala información es buena información. Si la gente a veces es persuadida por lo falso, es un riesgo asociado a la práctica adecuada de la democracia.
Hoy en día, cuando decimos “democracia” casi siempre pensamos en votar. Pero me aferro a una visión clásica en la que votar es solo una parte de lo que hace que la democracia sea valiosa.
Más vital es reconocer nuestra participación conjunta, junto con co-iguales, en una empresa común de autogobierno; una empresa en la que respetamos, entre otras cosas, la capacidad de nuestros conciudadanos para decidir por sí mismos qué argumento aceptar.
Cuando se suprime un punto de vista porque quienes tienen el poder de dar forma al diálogo lo consideran incorrecto, incluso peligrosamente incorrecto, estamos comprometidos en lo opuesto a la democracia.
La censura priva a las personas del derecho ético a decidir por sí mismas qué creer. El hecho de que una empresa privada tenga la libertad incuestionable de violar ese derecho ético no significa que deba hacerlo.
Nada de esto significa que me opongo a los esfuerzos de las empresas de redes sociales para moderar el contenido. Dada la influencia de sus plataformas, creo que es prudente y bueno eliminar los ataques personales, el acoso y cosas por el estilo.
Pero la misma razón, la importancia de las plataformas, me obliga a concluir que las empresas se equivocan al restringir puntos de vista que consideran erróneos.
Mi alma libertaria teme cualquier esfuerzo del gobierno para imponer a las empresas privadas un conjunto diferente de reglas. Y lloraré por la verdadera democracia si los gigantes de las redes sociales continúan mostrando tanta fe en la capacidad de sus propios empleados y socios para tomar decisiones sobre lo que es verdad y lo que no, y tan poca fe en la capacidad del resto. de nosotros, para tomar nuestras propias decisiones.
Stephen L. Carter es columnista de opinión de Bloomberg. Es profesor de derecho en la Universidad de Yale y fue secretario del juez de la Corte Suprema de Estados Unidos, Thurgood Marshall. Entre sus novelas se incluyen "El emperador de Ocean Park", y su último libro de no ficción es "Invisible: La historia olvidada de la abogada negra que derrotó al mafioso más poderoso de Estados Unidos".
Lea en El Político
Rusia también se queja de supuesta censura de Facebook y Twitter
Indignación republicana por el artículo sobre Hunter Biden que suprimió tanto Twitter como Facebook
Facebook y Twitter censuran a Trump por decir que el covid-19 es menos letal que la gripe