Por Centro de Cultura Digital /
14 may 2018
A principios del mes de abril el dueño de la red social Facebook testificó ante el congreso de los Estados Unidos, luego del escándalo que se desató por una investigación difundida en el periódico The Guardian sobre la información personal de millones de personas que la empresa Cambridge Analytica pudo obtener a través de una aplicación en la red social. A partir de esta audiencia se han puesto a discusión varios temas: la idea tan querida por la cibernética norteamericana de que las herramientas son neutras; el apabullante monopolio de publicidad digital en manos de Facebook y Google que resuena ante la pregunta del Senador Orrin Hatch de cómo se mantiene libre la red social, a lo que Zuckerberg responde “Senador, nosotros ponemos anuncios”. Recomendamos leer los textos de Natalia Zuazo; “7 lecciones tecnopolíticas del affaire Facebook – Cambridge Analytica” donde expone los riesgos que representa el monopolio de las empresas de internet y “Facebook se volvió un peligro para todos incluso para Zuckerberg”.
Se ha hablado mucho sobre los algoritmos de Facebook y su efecto en las democracias. La idea de Eli Pariser de que las redes sociales generan «filtros burbujas» o cámaras de resonancia donde el usuario de plataformas de redes sociales sólo ve contenidos afines a su ideología, a sus opiniones y a sus preferencias políticas y sociales. Sobre todo en Facebook, ha permeado el imaginario político y teórico en los últimos meses. La idea de que todo contenido que te ofrece esta red social está dictada por un algoritmo que intenta predecir tus preferencias y a su vez evita presentar ideas contrarias o críticas a las propias ha causado revuelo sobre la pertinencia misma de Facebook y de nuestras nociones de democracia. Natalia Zuazo habla un poco de este algoritmo con el que las redes sociales nos muestran recomendaciones personalizadas. La idea misma del «filtro burbuja» ha sido tan popular que el año 2017 se ha considerado como el año del «filtro burbuja». Pero esa percepción sobre las cámaras de resonancia y las burbujas de información es una noción teórica a la cual le hace falta una revisión crítica y científica que permita preguntarnos y probar si en realidad sucede. Una serie de estudios han intentado probar la dimensión de estos fenómenos en usuarios de redes sociales como Facebook, llegando a la conclusión de que los usuarios que son afectados por estas cámaras de resonancia son bastante menos de los que se esperaba, encontrando que buena parte de los usuarios tiene el suficiente criterio como para encontrar y comparar fuentes de información confiable y verificable.
Sobre los códigos debajo de la interface de estas redes sociales hay varias páginas que, desde diversos enfoques, reflejan un poco las inquietudes que generan estas redes sociales y sus códigos ocultos. Por ejemplo Algotransparency tiene como fin informar a los usuarios de los mecanismos detrás del algoritmo que determina y da forma al acceso a la información. La primera plataforma en la cual han llevado a cabo el experimento es YouTube. Desarrollado a partir de un código abierto que analiza la manera con la cual YouTube te conduce dentro de su opción de videos recomendados, Algotransparency intenta informarnos sobre la responsabilidad que tienen tanto la compañía como el usuario en la manera de acceder a fuentes confiables de información.
Cogito de Milton Läufer es una pieza de arte electrónico que emula una red social con un solo usuario, bajo la infraestructura de Facebook. Cogito no te permite postear, y de todas maneras te informa que sólo lo puedes ver tú. Con ello, Cogito te pide que vuelvas al mundo exterior para poder intercambiar pensamientos con otros humanos.
Go Rando es una app para el navegador que impide que puedas seleccionar alguna de las opciones de respuesta a los post en Facebook. Bajo la idea de que las opciones que presenta Facebook con su botón de Like el usuario puede expresar emociones como enojo, tristeza o diversión. Go Rando ofusca las emociones del usuario escogiendo aleatoriamente alguna de las opciones de expresiones de estados de ánimo para reaccionar a los posts que aparecen en su red social. Con ello no sólo fuerza al usuario a reflexionar sobre sus comportamientos automáticos de respuesta con el botón like, sino que permite confundir a los mecanismos ocultos de Facebook que recopilan información personal sobre las preferencias de los usuarios.
Facebook Demetricator es una app para el navegador que desmantela una de las principales características de la red social y de las maneras epistémicas con las que las redes sociales funcionan: a partir de los números. Los números son una de las principales herramientas de control de las redes sociales, el peso de ciertos usuarios los hace nodos determinantes en la manera con la que se distribuye la información y se arman las narrativas de los acontecimientos. Esta fijación por los número ha llevado a la consolidación de la noción de influencer. Y han generado toda una serie de trastornos psicológicos sobre la popularidad. Con esta app no es posible ver los indicadores numéricos de Facebook. En lugar de tener tantas notificaciones o tantos likes a tus post, verás solamente la advertencia de “tienes notificaciones” o “le ha gustado a las personas”.
Data selfie es una extensión para el navegador que simula la forma con la que Facebook analiza tus comportamientos en la red social para decidir quién eres y cuáles son tus gustos. Es una aplicación que se ejecuta detrás de la red social, analiza todas tus interacciones y predice ciertos rasgos de tu personalidad. De esta manera puedes saber qué es lo que Facebook ve de tu persona en línea y qué es lo que busca comercializar de tus actividades. Esta extensión muestra análisis predictivos y perspectivas de tu personalidad usando algunas APIs de machine learning como Apply Magic Sauce y IBM Watson.
czp y acm