Close

En la era de los algoritmos ¿somos dueños de nuestras elecciones?

Los nuevos medios sociales de comunicación, como Facebook, Instagram y TikTok, se alimentan de nuestras interacciones para entregarnos contenido a la medida que, a su vez, confirma continuamente nuestras propias creencias, convicciones y deseos. Un loop infinito de consumo, del bueno y del malo, que limita cada vez más nuestro poder de elección.

En el mundo de las noticias, si dos personas ven CNN o BBC, están recibiendo la misma información. En caso de que no guste la línea editorial, pueden cambiar a Fox News o ampliar lo visto leyendo The Economist o Bloomberg. Como sea, el contenido que consumimos es compartido idénticamente con otras personas.

Por otro lado, en redes como X (Twitter), Instagram, Facebook, LinkedIn, TikTok y más, cada individuo “tiene” su propio algoritmo que se alimenta de datos con sus gustos, intereses, ideas políticas, historial de compras, etc. Es decir, el contenido que recibimos es definido por una plataforma, ¿cierto? Si es así, ¿cómo podemos estar seguros de que somos los dueños de nuestras elecciones?

Facebook y Cambridge Analytica

Esta preocupación no es nueva. Incluso hasta ha sido escándalo mundial cuando Facebook publicó un test de personalidad y luego vendió la información recolectada a Cambridge Analytica. Vale la pena repasar el caso:

El año 2016 fue muy relevante para la política internacional, se realizaron elecciones presidenciales en Estados Unidos y se llevó a cabo el referendo del Brexit en Reino Unido. Si bien el proceso democrático de los votos no es perfecto, es hasta la fecha el mejor modelo para la toma de decisiones en los países libres.

Previo a cada elección, los candidatos o partidarios de ideas (en el caso de Reino Unido) definen sus mensajes clave y lanzan campañas indicando por qué son ellos la mejor opción, su plan de gobierno y, en algunos casos, las terribles calamidades que sucederían si ganara el oponente. En este proceso, se supone que los ciudadanos reciben la misma información, la analizan y luego deciden a través del voto.

El problema no estuvo ahí, sino en el uso antiético de los datos por parte de los diseñadores de las campañas. Lo que hoy celebramos como “contenido a la medida” o “que tu mensaje llegue a la persona indicada”, no fue más que un análisis y uso de todos esos test de personalidad para la generación de mensajes a la medida que influyeran en la decisión.  

Para terminar el repaso, los resultados fueron Trump en EE.UU. y sí al Brexit en Reino Unido.

¿La publicidad tradicional no hace lo mismo?

No, y NO en mayúsculas y negritas. La publicidad tradicional también estudia al consumidor, lo investiga para saber qué hace, qué le gusta, a qué le tiene miedo y qué lo motiva. El objetivo ciertamente es el mismo, diseñar campañas por audiencias y sus características, para presentar contenidos que resuelvan su “problema”.

Las redes sociales, por otro lado, funcionan con un modelo de negocio basado en datos. Esto quiere decir que primero “conocen” al usuario y sus preferencias, para posteriormente vender esta información a marcas que luego volverán al individuo para ofrecerle aquello que resolverá su necesidad. Se trata de un cambio de paradigmas: las empresas ya no compran espacios, compran audiencias. El producto ahora eres tú.

Si antes un anunciante iba a CNN y compraba el espacio estelar, sabía que llegaría a cierto grupo de personas con las características ideales para posicionar su producto, servicio o idea. En la era de los algoritmos, los datos son el nuevo poder.

Con cada interacción, like, compartir, comentario, click a guardar, o incluso, el tiempo que nos quedamos leyendo, generamos un nuevo dato que es utilizado por la plataforma de turno para establecer clusters o segmentos y luego venderlos. Así, siempre que abrimos nuestro teléfono, nos encontramos con ideas que son afines y que refuerzan lo que ya creíamos o terminan de convencernos de la compra que debíamos hacer.

No es magia, es matemática. Al generar datos, los algoritmos hacen lo suyo con las estadísticas, generan patrones, tendencias y son capaces de predecir y decidir sobre nuestras vidas. Si antes la captación de atención era orgánica, hoy es algorítmica. 

Más allá de las Fake News

Podemos definir Fake new o noticia falsa, a ese post que es muy similar en forma y el estilo a las noticias convencionales, pero que transmite intencionalmente datos o hechos inexactos o falsos con objetivos ideológicos o económicos.

Mientras estemos expuestos a más cantidad de medios y opiniones, será más fácil identificarlas y desecharlas. Sin embargo, en el tema de los algoritmos es más difícil encontrar ese pensamiento crítico que permite discernir.

Como define el portal TreceBits, “El objetivo de los algoritmos, las inteligencias artificiales y del machine learning es replicar los procesos de decisión del cerebro humano.”

Y es que estamos hablando de emociones, ¿qué te hace sentir este post? Con una simple interacción, la plataforma genera una especie de medio exclusivo y personalizado en donde el usuario confirma continuamente que está en lo correcto y que los demás son los equivocados. Es decir, esta hiperpersonalización podría significar el fin de la exposición a ideas pluralistas y al fomento de grupos extremistas que se refuerzan en cada conexión.

Este modelo es tan peligroso porque tampoco es abordable como si se tratara de libertad de expresión. En este nuevo ecosistema no hablamos de periodistas o medios coartados, sino de la dominación de la tecnología y cómo les estamos cediendo nuestro poder de elección.

Si antes, en mi época universitaria, decíamos que el periodismo es el cuarto poder, ¿qué debemos decir ahora de las empresas de tecnología que realmente son empresas de comunicaciones? Es necesario establecer un marco regulatorio, pero ¿cómo hacerlo cuando la IA avanza más rápido que nuestros gobiernos?

Ingresa a tu cuenta aquí

Licenciada en Comunicación Social, Mg. en Dirección de Comunicación Estratégica. Docente en Panamerican Business School.

Deja un comentario

Leave a comment
scroll to top