Cuando Google no es suficiente: el filtro se convierte en la agenda

Muchos de nosotros buscamos en Google. Nos relacionamos en Facebook. Vivimos en entornos digitales rebosantes de contenidos e interacciones. Esta efervescencia genera una economía de la atención en la que el recurso más escaso es el tiempo. Hace unos pocos años David Weinberger, que tiene una certera vocación de filósofo del mundo digital, publicaba el libro Everything Is Miscellaneous para analizar cómo nos relacionamos y consumimos una ingente cantidad de datos (por ejemplo: 350.000 vídeos visualizados en Youtube cada 10 segundos).

¿Cómo digerir tanta información en Internet y que sea útil? Lo hacemos con más información: cada usuario codifica y clasifica a través de modelos mentales propios. Así, los datos se entienden por más datos inconexos mezclados o unidos entre sí para cada persona. Una fotografía es una imagen, pero también es un retrato, una persona famosa, publicada en una revista, compartida en las redes sociales, en infinitos contextos digitales diferentes… Existen millones de ‘únicas visiones’ sobre un mismo objeto, y el orden se genera para cada usuario al buscar en Google o al relacionar en Facebook ese contenido.

Académicos como Manuel Castells describen nuestro mundo como la sociedad del conocimiento (que otros denominan sociedad de la información o sociedad-red), por la relevancia crucial de los contenidos en casi todos los órdenes de la vida. El proceso no es sencillo, pero según el teórico de sistemas y transformaciones organizativas Rusell Ackoff, se pueden establecer cinco fases. Cuando organizamos los datos pueden convertirse en información, que cuando es comprendida y aplicada puede convertirse en conocimiento. Aplicados en un campo pueden convertirse en sabiduría, que es el fundamento para la acción.

El riesgo de exclusión social es frecuentemente uno de los retos más acuciantes, debido a la importancia del acceso a la información y al conocimiento. Se describe especialmente en forma de brecha digital. Indudablemente es uno de los desafíos más relevantes en este terreno, pero el reciente libro del activista Eli Pariser ahonda desde otra perspectiva. Pariser está muy vinculado con movimientos que tratan de asegurar la libertad en la red como MoveOn.org.

El exceso de información exige de más intermediaciones. Por más que se asegure que Internet desintermedia, el proceso no es exactamente así: aparecen nuevos intermediarios en determinadas situaciones, y perduran mientras que aporten valor. Así, a las tradicionales agencias de viaje en declive se suman nuevos filtros como Tripadvisor. Los medios de comunicación, editores de noticias, compiten hoy con agregadores de contenidos como Google Reader, Netvibes o Yahoo News. Basta un dato: cuando la granja de contenidos Demand Media empezó a cotizar en Bolsa en enero de 2011 alcanzó una capitalización superior a los 1.500 millones de dólares, más de lo que vale la editoria The New York Times Company. Por esas mismas fechas el propio New York Times lanzaba su propia plataforma de recomendaciones, basada, también, en un algoritmo para ayudar a los lectores a encontrar noticias a partir del tipo de artículos que los visitantes ya han leído. Marc Frons, director de tecnología de The New York Times, explicó que se trata de una personalización pasiva: “hemos creado un algoritmo que expone a los usuarios a contenidos que quizá no habrían visto de otra manera”.

En todo caso, los filtros son un elemento crítico para transformar los datos (una masa de cifras en bruto) en información, que se procesa para satisfacer un requerimiento específico, o en conocimiento, donde ya podemos tomar decisiones de forma aplicada. Eli Pariser dibuja en The Filter Bubble: What the Internet Is Hiding from You un ecosistema con tal inmensidad de datos que su procesamiento exige nuevos filtros en forma de algoritmos. Y aquí está el tema de fondo de su análisis: cada vez más, Internet nos muestra lo que considera que queremos ver, pero no necesariamente lo que necesitamos ver o lo que queremos ver realmente.

Pariser destaca que la combinación omnipresente de algoritmos y filtros genera una especie de “filter bubble”. Esta burbuja crea un universo personal de información digital cada vez más inteligente y sobre el que apenas tenemos capacidad de decisión. Desconocemos qué está incluido y qué queda al margen, pero hemos sustituido a los editores por los algoritmos. El algoritmo de Google detecta, por ejemplo, si el usuario busca sobre un acontecimiento reciente (un tema con noticias de última hora) o sobre uno permanente (un manual sobre una cuestión). En el primer caso ofrecerá contenidos en tiempo real, en el segundo caso no aplicará esta variable del algoritmo. La propia compañía lo describía de este modo: “dado el ritmo increíblemente rápido al que se mueve la información hoy en día (…), el algoritmo necesita ser capaz de entender si el resultado de búsqueda sobre un programa de televisión de hace una semana es reciente o si el resultado acerca de una noticia de actualidad de hace una semana es demasiado viejo”.

Este proceso se reproduce, por ejemplo, en Yahoo News, por la que personas diferentes visualizan distintas noticias (y, además, se integra totalmente en la experiencia de usuario en Facebook).

Contenido no disponible.
Por favor, acepta las cookies haciendo clic en el aviso

La personalización siempre ha sido una quimera de muchas empresas y consumidores. Es uno de los corazones del marketing. Se trata de un enfoque de gran valor, pues adecua la oferta a los gustos y preferencias que manifestamos tener (y pocos sistemas hay mejores para saber qué nos interesa que conocer nuestras búsquedas en Google). El riesgo es circunscribir nuestra experiencia en Internet a una burbuja personalizada que filtre el acceso a otro tipo de contenidos también relevantes.

 

Para activistas como Pariser, este filtro provoca que ni Google ni Facebook ni Amazon sean neutrales con cada uno de nosotros, pues los resultados son diferentes para cada uno de nosotros en función de nuestras conexiones y pasado cuando navegamos en Facebook o buscamos información en Google. Hoy los algoritmos están tejiendo un “ecosistema personal de información” que, progresivamente, estructura un verdadero frame ideológico. Sobre estos temas conversó con el suplemento tecnológico de Time en una interesante entrevista.

Uno de los resultados más evidentes es la teoría del refuerzo. Según este mecanismo, consumimos preferentemente contenidos que refuerzan nuestros puntos de vista, más para auto-afirmarnos que para adquirir nuevos contenidos. Es un proceso de retroalimentación muy estudiado en el caso de la prensa escrita: en muchas ocasiones elegimos una cabecera sobre otra por su capacidad de afirmar nuestros puntos de vista. En el esquema que dibuja Pariser, este proceso es todavía más potente: el filtro digital no es humano, es invisible y adopta reglas que difícilmente podemos modificar o, incluso, desentrañar.

Los filtros generan, en definitiva, una nueva agenda sobre lo que es relevante que vive de cuántas personas también lo consideran relevante y del comportamiento pasado del usuario. El cambio, en este modelo el debate, el contraste, la duda o la confrontación de ideas serán, quizá, elementos a la baja. Como recuerda Toni Piqué, algoritmo no es sinónimo de periodismo. Ni mucho menos, por más que algunos lo intenten:

“Publicar no es periodismo. Los datos no son periodismo. El algoritmo no es periodismo. La participación no es periodismo. Un hashtag con millones de entradas no es periodismo. Las preguntas sin resolver –con ninguna respuesta o con mil respuestas–, tampoco. Ni siquiera clasificar hechos, opiniones, datos. Periodismo es, sobre todo, edición. Mucha edición. Los medios son, sobre todas las cosas, máquinas de editar”.

Artículo publicado originalmente en catalán en el blog del Escacc. Y, sí, espero que sea el inicio de algo más de continuidad en este blog. Confieso que lo echaba de menos.