Cuando uno va todos los días al mismo café, o
al mismo bar, es grato que al llegar el mesero
nos diga, más que preguntarnos, “¿Lo de siempre?”
y sin tener que decir de qué se trata, en la barra
aparezca el tinto, el capuchino, el ron o el aguardiente,
aquello que nos gusta para saludar el día o despedir la
noche. Y quizá que nos entregue, además, una copia
de nuestro periódico favorito. Que el tipo sepa lo que
nos gusta no es molesto; no lo sentimos como una
intromisión en nuestra vida privada, sino más bien como
una deferencia.
Otra cosa es que Google, Yahoo News y Facebook
sepan lo que nos gusta y nos ofrezcan cada día, como
un camarero fiel a nuestra mente rutinaria, “lo de siempre”.
Si bien este buscador, esta cadena de noticias y esta red
social no son personas, sino algoritmos en una máquina,
esas máquinas han sido programadas por personas y por
empresas que están interesadas en darnos algo (pues si
no, no las usaríamos), pero también en recibir algo de
nosotros: información sobre lo que nos gusta, e, indirectamente,
sobre lo que somos.
Según Eli Pariser, autor de The Filter Bubble, en ese espacio
democrático y aparentemente muy abierto de la red, están
apareciendo unas especies de burbujas (generadas por
nuestros propios clics y por la memoria de los sitios que
más usamos) que pueden producir, poco a poco, una
especie de “lobotomía global”, de mentes encerradas
en la repetición neurótica de sus mismas rutinas. Los
resultados de nuestras búsquedas están prefabricados
para nosotros mismos. Si uno viaja mucho y entra con
frecuencia en páginas de agencias de viajes, cuando hace
una búsqueda de “Grecia” no le saldrán las protestas que
hay en ese país, sino planes de excursiones por las islas
griegas. Una burbuja filtrada, diseñada específicamente según
nuestro historial de búsquedas.
Esta información “personalizada”, que
aparentemente nos ayuda a seguir con
fidelidad nuestros intereses, lo que genera,
a la larga, es una limitación de la libertad. Según
Yonchai Benkler, citado por Pariser: “tenemos la
ilusión de ser los dueños de nuestro destino, cuando
la personalización puede producir una especie de
determinismo de la información, en la cual los clics de
nuestro pasado determinan lo que veremos en el futuro (…),
una especie de
círculo vicioso”. No estamos viendo todo el abanico de
opciones, sino unas pocas, para decidir lo que queremos
leer y la información que queremos recibir.
Soy un novato de Twitter y algo parecido he empezado a notar
allí. La gente tiende a seguir y a ser seguida sólo por sus “similares”.
El mismo Twitter te sugiere que sigas a “similares a ti”: por profesión,
ideología, tipo de seguidores. Si alguien se fija a quiénes sigue el
expresidente Uribe, por ejemplo, verá que prácticamente sigue
solamente a los “similares a él”, ideológicamente, incluyendo
a varios que son mucho más papistas que el Papa. Por mecanismos
así es que Pariser señala el peligro de que nos quedemos “aislados
en una red de uno solo”. En vez de estar abiertos a un mundo
de estímulos distintos, la red personalizada nos puede
convertir en egocéntricos que se embelesan en la contemplación
permanente del propio ombligo. Porque no sólo están
personalizados nuestros patrones de consumo, sino también
nuestros patrones ideológicos y de pensamiento.
Es grave que vivamos en la pura retroalimentación del ego,
en una burbuja de mutuos elogios. Tener enemigos, contrincantes
ideológicos, es, en realidad, una bendición. Son los antagonistas
los que te dicen, con toda la brutalidad del caso, cuándo la
estás embarrando, y así nuestros enemigos son nuestros mayores
aliados involuntarios: es a ellos a quienes les debemos la
imagen más precisa de nuestras deformaciones y defectos.
Si nos limitamos a leer y a seguir a nuestros similares, y a
repetir (por cuenta de algoritmos de la red) nuestros patrones
ideológicos de lectura, caeremos en un grave empobrecimiento
como ciudadanos críticos y pensantes.
No hay comentarios:
Publicar un comentario