top of page
1A2.JMCS. CATEGORIAS.jpg

El Algoritmo Tú y el Dilema Digital

Adrienne LaFrance comparó Facebook con una máquina del fin del mundo en un artículo reciente para The Atlantic. En el documental de Netflix The Social Dilemma, los realizadores representan una sala de control digital donde los ingenieros manipulan a un adolescente a través de su teléfono inteligente presionando botones y girando diales. La psicóloga social de Harvard Shoshana Zuboff describe un mundo en el que las empresas tecnológicas han construido un sistema masivo de vigilancia que les permite manipular las actitudes, opiniones y deseos de las personas en su libro Surveillance Capitalism.


El Algoritmo, Tú y el Dilema Digital como funcionan los algoritmos
El Algoritmo, Tú y el Dilema Digital JMC Studio

Las personas son representadas en cada una de estas representaciones distópicas como víctimas impotentes, despojadas de su libre albedrío. Los humanos se han convertido en juguetes manipuladores de sistemas algorítmicos. Sin embargo, ¿es esto verdadero? ¿Realmente las máquinas se han hecho cargo?


Se dice que las redes sociales fomentan la polarización, aprovechan las debilidades e inseguridades humanas y crean cámaras de resonancia donde cada uno obtiene su propia porción de la realidad, erosionando la esfera pública y la comprensión de los hechos comunes. Peor aún, todo esto se hace con la intención deliberada de obtener ganancias.


La suposición de que no somos nosotros quienes tenemos el control en la relación entre los seres humanos y los sistemas automatizados complejos está en el centro de muchas de las preocupaciones. La agencia humana ha sufrido una degradación. En enero, Joanna Stern afirmó en el Wall Street Journal que hemos perdido el control de lo que observamos, leemos e incluso pensamos acerca de las empresas de redes sociales más importantes.


Los defensores de las redes sociales con frecuencia han ignorado o menospreciado estas críticas, creyendo que el progreso tecnológico las eliminará o considerándolas incorrectas. Esto es una equivocación: la tecnología debe ayudar a la sociedad en lugar de ayudarla al revés. No es una sorpresa que muchos asuman que la falta de transparencia existe para servir a los intereses de las elites tecnológicas y no de los usuarios, frente a sistemas opacos operados por empresas globales ricas. A largo plazo, las personas solo se sentirán cómodas con estos sistemas algorítmicos si tienen más visibilidad de cómo funcionan y pueden ejercer un control más informado sobre ellos.


Facebook y otras empresas deben ser honestas sobre cómo funciona la relación entre usted y sus principales algoritmos. Y deben darle más poder.

Algunos críticos parecen creer que las redes sociales son un error temporal en la evolución tecnológica y que Facebook y otras plataformas colapsarán y todos volveremos a los modos de comunicación anteriores una vez que recobremos el sentido colectivo. Se trata de una interpretación errónea de la situación que es tan inexacta como el titular del Daily Mail de diciembre de 2000 que afirmaba que Internet "puede ser simplemente una moda pasajera". Las redes sociales no pueden dejar de existir, incluso si Facebook desaparezca. El deseo humano de conectarse socialmente a través de Internet es profundo.


Las personas de los medios tienen una forma sin precedentes de expresarse y comunicarse con los demás gracias a los servicios personalizados basados en datos, como las redes sociales. Y han permitido que millones de pequeñas empresas en todo el mundo tengan acceso a herramientas que antes solo eran accesibles para las corporaciones más grandes. Miles de millones de personas usan las redes sociales de forma gratuita gracias a la publicidad digital personalizada, que también es más beneficiosa para los consumidores que la publicidad no dirigida y de baja relevancia. Retroceder a un falso pasado teñido de sepia (antes de la publicidad personalizada, la clasificación algorítmica de contenidos, antes de que las libertades populares de Internet desafiaran a los poderes fácticos) perdería muchos beneficios para la sociedad.


Pero eso no significa que deban ignorar las preocupaciones sobre cómo interactúan los sistemas algorítmicos y los humanos. Es obvio que hay preguntas que responder y cuestiones que resolver. Las empresas de tecnología deben asegurarse de que sus productos y prácticas estén diseñados de manera responsable y que tenga en cuenta su impacto potencial en la sociedad, y Internet necesita nuevas reglas, diseñadas y acordadas por instituciones elegidas democráticamente. Eso comienza, pero no termina, con un mayor control sobre las personas en lugar de las máquinas.


Para bailar un tango se requieren dos personas.


Imagina que recibes una llamada de tu pareja mientras te diriges a casa. Te informan que la nevera está vacía y te solicitan que recojas algunas cosas mientras regresas a casa. Ellos prepararán la cena si eliges los ingredientes. Luego vas al supermercado y llenas una canasta con doce productos. Por supuesto, solo eliges lo que te gusta comer; es posible que prefieras la pasta en lugar del arroz, o los tomates en lugar de los champiñones. Después de llegar a casa, colocas la bolsa en la cocina y tu pareja continúa cocinando, decidiendo qué comida preparar, qué ingredientes usar y en qué cantidades. Cuando te sientas a la mesa, la cena que tienes delante es el resultado de un esfuerzo conjunto, tus decisiones en el supermercado y las decisiones de los demás.


La relación entre los usuarios de Internet y los algoritmos que les presentan contenido personalizado es asombrosamente similar. Naturalmente, ninguna analogía es ideal y no debe interpretarse literalmente. Otras personas son responsables de todo, desde la producción de alimentos hasta la creación de envases y la organización de los estantes del supermercado, todas cuyas acciones tienen un impacto en la comida final.


Sin embargo, la clasificación de contenidos es en última instancia una conexión dinámica entre personas y algoritmos. En Facebook, dos personas son necesarias para bailar el tango.

La vicepresidenta ejecutiva de la Comisión Europea, Margrethe Vestager, comparó las redes sociales con la película El show de Truman en un discurso reciente. El Truman interpretado por Jim Carrey carece de agencia en su interpretación. Es la estrella involuntaria de un reality show de televisión en el que toda su vida es creada y manipulada por una productora. Sin embargo, esta comparación es injusta con los usuarios de las redes sociales. Participa activamente en la experiencia.


Sus elecciones y acciones determinan en gran medida el "mundo" particular de su sección de noticias. Se compone principalmente de contenido de amigos y familiares con los que elige conectarse en la plataforma, las páginas a las que elige seguir y los grupos a los que elige unirse. La clasificación es entonces el proceso de ordenar el contenido utilizando algoritmos.


Esta es la magia de las redes sociales que las distingue de los métodos de medios anteriores. Ningún editor puede escribir el titular de la portada que millones de personas leerán en Facebook. Por el contrario, hay miles de millones de portadas disponibles, cada una de las cuales se adapta a nuestros gustos y preferencias particulares, y cada una de las cuales representa nuestra red distintiva de amigos, páginas y grupos.


Durante las últimas dos décadas, la personalización ha sido el tema principal de la evolución de Internet. Una característica clave de Internet es que permite un rico circuito de retroalimentación en el que nuestras preferencias y comportamientos dan forma al servicio que se nos brinda, desde buscar en Google hasta comprar en Amazon y ver películas en Netflix. Significa que obtienes la información y la experiencia más relevantes. Imagina si Netflix simplemente enumerara miles y miles de películas y programas en orden de los más vistos en lugar de proporcionar recomendaciones basadas en lo que ha visto. ¿De qué manera iniciarías?


La primera cosa que probablemente pienses cuando piensas en cómo usas Facebook es lo que ves en tu sección de noticias. Esta es esencialmente la página principal de Facebook, personalizada para usted. La visualización vertical de texto, imágenes y videos se desplaza hacia abajo una vez que abre la aplicación en su teléfono o inicia sesión en facebook.com en su computadora. La persona promedio tiene miles de publicaciones que puede ver en un momento dado, por lo que utilizamos un proceso llamado clasificación para ayudarlo a encontrar el contenido que le parezca más significativo o relevante. Este proceso ordena las publicaciones en su Feed, poniendo las cosas Creemos que cerca de la cima encontrará lo más importante. La idea es que esto haga que el contenido de tu mejor amigo se coloque en lo más alto de tu Feed, mientras que el contenido de un conocido que conociste hace varios años estará con frecuencia mucho más abajo.


El proceso de clasificación incluye todo el contenido que pueda aparecer, incluidas las publicaciones que no has visto de tus amigos, las páginas que sigues y los grupos a los que te uniste.

El proceso de clasificación incluye todo el contenido que pueda aparecer, incluidas las publicaciones que no has visto de tus amigos, las páginas que sigues y los grupos a los que te uniste. Se analizan miles de señales para estas publicaciones, incluido quién las publicó, cuándo, si es una foto, un video o un enlace, y la popularidad en la plataforma o el dispositivo que utiliza. A partir de ahí, el algoritmo utiliza estas señales para predecir cuán relevante y significativo será para usted (por ejemplo, la probabilidad de que le dé "me gusta" o que piense que vale la pena verlo). El objetivo es que pueda ver lo que le parezca más importante en lugar de mantenerlo conectado a su teléfono inteligente durante horas y horas. Puede considerarlo como un filtro de spam en su bandeja de entrada: ayuda a filtrar el contenido que no encontrará significativo o relevante y prioriza el contenido que sí encontrará significativo o relevante.


Es cierto que estos sistemas están diseñados por personas antes de atribuirle al algoritmo un juicio demasiado independiente. Los líderes de Facebook son los que finalmente deciden qué contenido es permitido en la plataforma. Durante muchos años, Facebook ha desarrollado estándares comunitarios detallados que prohíben el contenido dañino y invierten mucho en desarrollar formas de identificarlo y actuar rápidamente.


Es razonable discutir si Facebook está haciendo las cosas correctamente o de acuerdo con las consideraciones adecuadas. Y es completamente razonable afirmar que las empresas privadas no deberían tomar decisiones tan cruciales sobre qué contenido es aceptable para ellas mismas. Sería mucho más beneficioso si estas elecciones fueran tomadas de acuerdo con normas establecidas por legisladores elegidos por la democracia. Sin embargo, si no hay tales leyes, las decisiones deben tomarse en tiempo real.


Facebook estableció una Junta de Supervisión el año pasado para tomar la decisión final sobre algunas de estas decisiones difíciles. Las decisiones tomadas por este organismo son vinculantes y no pueden ser anuladas por Mark Zuckerberg ni por nadie más en Facebook, ya que es un organismo independiente. De hecho, la Junta ya ha revocado la mayoría de las decisiones de Facebook que se le han remitido en el momento de redactar este informe. La propia junta está formada por expertos y líderes cívicos de todo el mundo con una amplia gama de antecedentes y perspectivas, y a principios de este año comenzó an emitir juicios y recomendaciones. Actualmente, la junta está considerando la decisión de Facebook de suspender indefinidamente al expresidente estadounidense Donald Trump a raíz de sus comentarios incitadores que contribuyeron a las horrendas escenas en el Capitolio.


El proceso de clasificación aborda más directamente otros tipos de contenido problemático. Por ejemplo, hay ciertos tipos de contenido que, aunque pueden no violar los estándares comunitarios de Facebook, siguen siendo problemáticos porque los usuarios lo critican. Al igual que lo hace con las publicaciones que una de las más de 80 organizaciones independientes de verificación de datos que evalúan el contenido de Facebook considera falsas, Facebook reduce su distribución. En otras palabras, la probabilidad de que una publicación sea relevante y significativa para usted actúa como algo positivo en el proceso de clasificación, y los indicadores de que la publicación puede ser problemática (pero no infractora) actúan como algo negativo. Las publicaciones con las puntuaciones más altas después de eso se colocan más cerca de la parte superior de su Feed.


Este proceso de selección y clasificación crea una sección de noticias exclusiva para usted. Sin embargo, por supuesto, no puede ver cómo funciona el algoritmo y tiene una comprensión limitada de por qué se seleccionó el contenido que aparece y qué podría hacer para modificarlo, si es que puede hacerlo. Las suposiciones, las verdades a medias y las tergiversaciones sobre cómo funciona Facebook pueden arraigarse en esta brecha en la comprensión.


esquema fotografía de una avenida con los autos a velocidad

¿Dónde reside el incentivo de Facebook?


La idea de que los sistemas algorítmicos de Facebook están diseñados para mantener a la gente navegando constantemente y fomentan activamente el intercambio de contenido sensacionalista es un tema central de muchas acusaciones de los críticos de Facebook. Por supuesto, en una plataforma donde la gente comparte cosas que les interesan o les conmueven, invariablemente se compartirá contenido que provoque emociones. La respuesta de las personas al contenido sensacionalista no es algo nuevo. El lenguaje emotivo y las imágenes impactantes atraen y captan la atención, como han demostrado generaciones de subeditores de periódicos. Es la esencia humana. Sin embargo, los sistemas de Facebook no funcionan bien con contenido provocativo. En realidad, partes clave de esos sistemas están diseñadas para hacer justo lo contrario.


Facebook reduce la distribución de muchos tipos de contenido, lo que significa que el contenido aparece más abajo en su sección de noticias porque es sensacionalista, engañoso, solicita participación gratuita o se considera falso por nuestros socios independientes de verificación de datos. Por ejemplo, Facebook elimina los clickbait (titulares engañosos o exagerados), las afirmaciones de salud altamente sensacionalistas (como las que promueven "curas milagrosas".


El enfoque de Facebook va más allá de publicar contenido sensacionalista y engañoso publicación por publicación. Cuando las páginas y grupos publican repetidamente estos tipos de contenido en Facebook, como clickbait o información errónea, Facebook reduce la distribución de sus publicaciones. Y cuando los sitios web generan una cantidad significativamente desproporcionada de su tráfico desde Facebook en comparación con el resto de Internet, esto puede indicar un patrón de publicación de contenido más sensacionalista o spam, Facebook también degrada todas las publicaciones de esos sitios web.


Facebook ha modificado otros aspectos de su sistema de clasificación, incluidos los elementos fundamentales, de manera que podría disminuir el contenido sensacionalista. Desde el inicio de la plataforma, la empresa ha utilizado métricas explícitas de participación para identificar las publicaciones más relevantes. Estas métricas incluyen la cantidad de personas que compartieron, comentaron o gustaron una publicación. Sin embargo, el uso de esas métricas ha cambiado y hay otras señales que Facebook cree que se han expandido.


En 2018, Mark Zuckerberg anunció que sus equipos de productos se concentrarían en ofrecer a las personas el contenido más relevante y en ayudarlas a tener interacciones sociales más significativas, principalmente promocionando contenido de amigos, familiares y grupos de los que forman parte en lugar de contenido de páginas que siguen. El efecto fue cambiar la clasificación de modo que las métricas de participación explícitas siguieran desempeñando un papel importante en el filtrado de las publicaciones que probablemente fueran más relevantes para usted, pero ahora con una capa adicional de evaluación de cuáles de esas publicaciones potencialmente relevantes también pueden ser significativas para usted. Al hacer esto, reconoció claramente que este cambio reduciría la cantidad de tiempo que las personas pasan en Facebook, ya que las páginas (donde suelen estar entidades de medios, equipos deportivos, políticos y celebridades, entre otros) suelen publicar contenido más atractivo aunque menos significativo que, por ejemplo, tu madre o tu papá. La predicción se cumplió porque el cambio resultó en una disminución de 50 millones de horas de tiempo diarias dedicadas a Facebook y una pérdida de miles de millones de dólares en la capitalización de mercado de la empresa.


Este cambio formó parte de un cambio en la forma en que Facebook clasifica el contenido. La empresa ha diversificado su enfoque desde entonces, descubriendo nuevas formas de determinar qué contenido las personas consideran más significativo, incluso preguntándoles directamente y luego incorporando esas respuestas al proceso de clasificación. Por ejemplo, Facebook utiliza encuestas para determinar qué publicaciones la gente cree que valen la pena y, en consecuencia, prioriza las publicaciones que se espera que se ajusten a los perfiles de esas personas. Además, las encuestas se utilizan para mejorar la comprensión de qué tan significativos son para las personas los diversos amigos, páginas y grupos, y se actualizan los algoritmos de clasificación en función de las respuestas. Este método ofrece una comprensión más amplia de los tipos de publicaciones que las personas consideran más importantes al evaluar su experiencia más allá de la reacción inmediata, incluida la atracción inmediata de cualquier contenido sensacionalista.


Además, Facebook aún está explorando si y cómo clasificar de manera diferente algunas categorías importantes de contenido (como noticias, política o salud) para que sea más fácil encontrar publicaciones valiosas e informativas. El mes pasado, se anunció que estaba considerando nuevas medidas para disminuir la cantidad de contenido político (donde el sensacionalismo no es ajeno) en News Feed, en respuesta a los fuertes comentarios de los usuarios que quieren ver menos contenido en general. Esto se debe a la reciente decisión de Facebook de dejar de recomendar a grupos políticos y cívicos en los Estados Unidos, que ahora se está extendiendo a nivel global.


Esta evolución también se aplica a los grupos de personas que se unen por intereses o experiencias compartidas. Facebook ha tomado medidas significativas para proteger estos sitios web, como la restricción o eliminación de personas o grupos que violen sus reglas comunitarias.


Ejemplos de la interfaz de usuario de facebook y su algoritmo en los feeds e inteligencia artificial

Facebook reconoce que hay momentos en los que la sociedad prefiere la información autorizada sobre temas de actualidad en sus noticias. Pero Facebook entiende que necesita complementar el proceso de clasificación para ayudar a más personas an encontrar información autorizada, al igual que los mensajes de médicos que nos dicen que comamos vegetales o los dentistas que nos recuerdan que usemos hilo dental. El año pasado, ayudó a las personas a encontrar información precisa y actualizada sobre COVID-19 y las elecciones presidenciales de Estados Unidos. Facebook creó centros de información con enlaces y recursos de fuentes oficiales en ambos casos y los promovió en las fuentes de noticias de las personas. Ambos tuvieron un impacto significativo: más de 600 millones de personas accedieron a fuentes confiables de información sobre el COVID-19 a través de Facebook e Instagram, y se estima que 4,5 millones de estadounidenses recibieron ayuda para registrarse para votar.


Facebook no tiene beneficios económicos ni reputacionales de aumentar constantemente la intensidad y atraer a los usuarios hacia contenidos cada vez más extremos.

Si las personas continúan utilizando sus productos durante los próximos años, el crecimiento a largo plazo de la empresa será mejor. Si priorizara permanecer en línea durante 10 o 20 minutos adicionales, sería contraproducente porque lo haría menos probable que regresaras en el futuro. Tenga en cuenta que la publicidad es la principal fuente de ingresos de Facebook. Los anunciantes no quieren que sus marcas y productos aparezcan junto a contenido extremo u odioso, un punto que muchos hicieron explícitamente el verano pasado durante un boicot de alto perfil por parte de varias marcas conocidas. A pesar de que el contenido preocupante representa solo una pequeña parte del total (el discurso de odio se ve 7 u 8 veces por cada 10.000 vistas de contenido en Facebook), la protesta demostró que Facebook está interesado en reducir el contenido preocupante en lugar de promoverlo. u optimizar para este propósito.


La Polarización con El Algoritmo Tú y el Dilema Digital


Incluso si se reconoce que los incentivos de Facebook no promueven de manera intencional contenido extremo, existe una creencia generalizada de que la influencia de las redes sociales ha aumentado la polarización política y social, especialmente en Estados Unidos. En los últimos años, se han llevado a cabo investigaciones académicas importantes sobre este tema. Sin embargo, los hallazgos son contradictorios, ya que varios estudios indican que las redes sociales no son el principal factor que provoca la polarización y que el impacto de la "burbuja de filtro" es mínimo en la mayoría de los casos.


Una investigación de Stanford del año pasado examinó las tendencias en nueve países durante 40 años y descubrió que la polarización estaba aumentando en algunos países incluso antes de la creación de Facebook, y la polarización ha disminuido en otros mientras el uso de Internet y Facebook aumentaban. Otros estudios recientes confiables han encontrado que la polarización en Estados Unidos ha aumentado más entre los grupos demográficos con menos probabilidades de utilizar Internet y las redes sociales. Los datos publicados en la UE sugieren que los niveles de polarización ideológica son similares independientemente de si recibe noticias de redes sociales o en cualquier otro lugar.


Un estudio de Harvard previo a las elecciones estadounidenses de 2020 encontró que las élites y los medios de comunicación, en particular las noticias por cable, fueron los principales impulsores de la desinformación relacionada con las elecciones, con las redes sociales desempeñando un papel secundario. Y una investigación realizada en 2019 por Pew y en 2017 por el Instituto Reuters reveló que al usar las redes sociales, es probable que descubras un conjunto más diverso de opiniones e ideas que al interactuar con otros tipos de medios.


Un estudio de Harvard previo a las elecciones estadounidenses de 2020

Un estudio previo de Stanford encontró que desactivar Facebook durante cuatro semanas antes de las elecciones estadounidenses de 2018 redujo la polarización en cuestiones políticas, pero también redujo el conocimiento de las noticias y la atención de la gente a la política. Sin embargo, la "polarización afectiva", que es una medida de los sentimientos negativos de alguien hacia la parte contraria, no disminuyó significativamente.


La evidencia no respalda la afirmación de que las redes sociales o las burbujas de filtro que supuestamente crean causan polarización. Sabemos que el contenido político solo representa una pequeña parte del contenido que la gente consume en Facebook; en Estados Unidos, nuestro análisis indica que es solo el 6%. A pesar de que Facebook incitó a las personas en la parte superior de su sección de noticias a publicar sobre las elecciones, Halloween el año pasado aumentó el doble de las publicaciones que vimos el día de las elecciones.


Cómo entrenar tu algoritmo

La relación entre un usuario y un algoritmo no es tan transparente como la relación entre una pareja que prepara la cena (uno compra los ingredientes y el otro cocina), donde ambas partes tienen una comprensión significativa de lo que ponen y salen.


Eso requiere un cambio. Debería tener una mejor comprensión de cómo funcionan los algoritmos de clasificación y por qué toman ciertas decisiones, y debería tener más control sobre el contenido que se le muestra. A través de espacios para respirar integrados en el diseño de la plataforma, debería poder responder al algoritmo y ajustar o ignorar conscientemente las predicciones que hace.


Para poner esto en práctica mejor, Facebook ha lanzado un conjunto de cambios de producto para ayudarte a identificar e interactuar más fácilmente con los amigos y las páginas que más te importan. Y está poniendo un nuevo énfasis no sólo en crear dichas herramientas, sino también en garantizar que sean fáciles de encontrar y utilizar.

Ejemplos de la interfaz de usuario de facebook y su algoritmo en los feeds

un producto nuevo llamado Favoritos que mejora el control anterior Primero, le permite ver los amigos y páginas principales que Facebook cree que son más importantes para usted; más importante aún, puede seguir esas recomendaciones o simplemente agregar amigos y páginas. Si lo deseas. Las publicaciones de personas o páginas que seleccione manualmente aparecerán en tu sección de noticias y recibirán una estrella. Además, estas publicaciones tendrán una nueva sección de Favoritos como sustituto de la sección de Noticias habitual.


Hace tiempo, se pueden ver las noticias en orden cronológico, lo que significa que las más recientes aparecen en la parte superior. Para aquellos que no confían en que los algoritmos de Facebook controlen lo que ven, esto desactiva la clasificación algorítmica. Sin embargo, esta característica ha sido difícil de encontrar. Por lo tanto, Facebook está introduciendo una nueva "Barra de filtro de feeds" para que los usuarios puedan alternar entre los feeds más recientes, los feeds de noticias estándar y los feeds de favoritos.


Ejemplos de la interfaz de usuario de facebook y su algoritmo

De manera similar, Facebook ha estado tratando de explicar por qué un anuncio específico apareció en su sección de noticias. Esto se puede hacer haciendo clic en los tres puntos en la esquina superior derecha de un anuncio y se encuentra en la sección "¿Por qué veo esto?". En 2019, esto se incluyó en la mayoría de sus publicaciones en su sección de noticias, y ahora también está disponible para algunas de sus publicaciones sugeridas para que pueda comprender mejor por qué esos videos de cocina o artículos de noticias de películas siguen apareciendo a medida que se desplaza.


Estas medidas son parte de un cambio significativo en la perspectiva de la empresa sobre cómo brindar a las personas una mayor comprensión y control sobre cómo sus algoritmos clasifican el contenido, así como puede utilizar la clasificación y distribución del contenido para garantizar que la plataforma tenga un impacto positivo en la sociedad en su conjunto.

Este año, se implementarán otras medidas, como proporcionar más claridad sobre cómo se reduce la distribución de contenido problemático; mejorar la comprensión de qué contenido es popular en News Feed; lanzar más encuestas para comprender mejor cómo se sienten las personas acerca de las interacciones que tienen en Facebook; y ajustar de manera transparente nuestros algoritmos de clasificación en función de los resultados. Más cambios están programados para este año.


Reconciliarse con las máquinas


Poner a la gente más opciones no resuelve todos los problemas que pueden surgir en una plataforma social abierta como Facebook. Muchas personas prefieren contenido sensacionalista y polarizador en lugar de contenido alternativo.


Las redes sociales permiten a las personas discutir, compartir y criticar libremente y a gran escala, sin límites o mediación previamente impuestos por los reguladores de la industria de los medios tradicionales. Es la primera oportunidad para cientos de millones de personas de hablar libremente y ser escuchados de esta manera, sin otra barrera que una conexión a Internet. Las personas no solo tienen una cámara de video en el bolsillo, sino que también tienen los medios para difundir lo que ven gracias a las redes sociales.


La democratización del discurso es significativa e histórica. Y, al igual que cualquier otra fuerza que promueve la democracia, se opone a las estructuras de poder existentes. Es comprensible que muchos estén ansiosos porque las élites políticas y culturales se enfrentan a una estridente conversación en línea que no pueden controlar.


Siempre que sea posible, creo que las personas deberían tener la libertad de elegir por sí mismas y que, en general, se puede confiar en que saben qué es lo mejor para ellas. Pero también soy plenamente consciente de que necesitamos reglas básicas acordadas colectivamente tanto en las plataformas de redes sociales como en la sociedad en general para reducir la probabilidad de que las decisiones tomadas por individuos conduzcan a daños colectivos. La política es en gran parte sobre cómo definimos esas reglas fundamentales de una manera que goce de la mayor legitimidad posible, y el desafío que enfrentan ahora las redes sociales es inherentemente político, para bien o para mal.


¿Es necesario que una organización privada tome medidas para influir en las ideas que circulan por sus sistemas, además de evitar daños graves como la incitación a la violencia y el acoso? ¿Quién debería tomar esa decisión si es así? ¿Es necesario que un grupo independiente de expertos decida? ¿Deberían los gobiernos determinar en qué tipos de conversaciones se permite que los ciudadanos participen? ¿Es posible que una sociedad tan polarizada como la de Estados Unidos pueda llegar an un consenso sobre la forma en que debe llevarse a cabo una conversación nacional constructiva? ¿De qué manera podemos justificar que Internet no tiene límites y que las normas de expresión deberán adaptarse an una variedad de puntos de vista culturales?


No se debe permitir que las empresas de tecnología respondan por sí solas a estas preguntas profundas.

Marilyn Monroe sonriendo en una publicidad para una revista de moda

La parte fácil es promover la agencia individual. Aunque es difícil, es posible identificar contenido potencialmente dañino y eliminarlo de Internet. Es muy difícil llegar an un consenso sobre qué es lo que constituye el bien colectivo. La decisión de Facebook de suspender al expresidente Trump de la plataforma es una ilustración de esto. La decisión fue bien recibida por muchos, de hecho, muchos sostuvieron que era hora de que Facebook y otros tomaran medidas tan importantes. Creo que tomé la decisión correcta. Pero también fue quizás el ejemplo más impresionante del poder de la tecnología en el discurso público y ha generado preguntas legítimas sobre el equilibrio de responsabilidad entre las empresas privadas y las autoridades públicas y políticas.


Debemos ser cautelosos al concluir que la respuesta a estos problemas es siempre menos discurso, ya sea que los gobiernos decidan endurecer los términos del debate en línea o que las empresas privadas decidan hacerlo ellas mismas. Aunque no debemos creer que la libertad completa conduce a resultados perfectos, tampoco debemos creer que aumentar la libertad de expresión resultará en una degradación de la sociedad. Muchos críticos de las redes sociales argumentan que no se puede confiar a las personas un amplio derecho a la libertad de expresión, o que esta libertad es una ilusión y que los algoritmos y las intenciones malintencionadas controlan sus mentes.


¿Quizás es momento de admitir que no todo es culpa de las máquinas sin rostro? Consideraremos, por ejemplo, la presencia de contenido negativo y polarizador en aplicaciones de mensajería privada (iMessage, Signal, Telegram y WhatsApp), que utilizan miles de millones de personas en todo el mundo. Ninguna de esas aplicaciones utiliza algoritmos de clasificación o contenido. Son solo personas hablando con personas sin que ninguna máquina los interrumpa. En muchos aspectos, sería más sencillo atribuir la culpa de todo a los algoritmos, pero hay fuerzas sociales más profundas y complejas que juegan un papel importante. Es necesario mirarnos en el espejo y no caer en la falsa comodidad de que las máquinas nos han manipulado todo el tiempo.


Aunque no tomaron el control, las máquinas llegaron para quedarse. Debemos reconciliarnos con ellos.

En El Algoritmo Tú y el Dilema Digital todos quieren una mejor comprensión de la relación entre el usuario y el algoritmo. La gente debe tener confianza en los sistemas, que son tan importantes para la vida contemporánea. Internet requiere nuevas normas de conducta que tengan una amplia aprobación del público. Y las compañías de tecnología deben comprender las normas dentro de las cuales las personas se sienten cómodas para operar, para que puedan continuar innovando. Eso comienza con ser honesto y transparente, y luego le da más control.


Servicios Profesionales

En JMC Studio somos una Agencia multidisciplinaria con gran talento creativo, desarrollamos todo tipo de proyectos puede revisar todos nuestros servicios de consultoría aquí. Estaremos felices de crear cosas maravillosas juntos


Fuentes: Medium, Adobe Stock

Entradas relacionadas

Ver todo

Espacio Publicitario Disponible

Descubra los excelentes planes publicitarios para su marca, servicios, o productos aquí para una gran audiencia

1A2.JMCS. SUSCRIPCIÓN 2.jpg
1A2.JMCS. 8 Logo Principal Vertical 1 Blanco - Fondo Transparente.png

SUSCRIPCIÓN GRATUITA

Obtén cada semana en tu bandeja de entrada nuestra Newsletter con toda la información destacada de Board,

únete a la comunidad creativa ¡ES GRATIS! 

¡Gracias por suscribirte!

bottom of page