¿Qué es el ‘big data’ y para qué sirve?

«Los frutos de la sociedad de la información están bien a la vista, con un teléfono móvil en cada bolsillo, un ordenador portátil en cada mochila, y grandes sistemas de tecnología de la información funcionando en las oficinas por todas partes. Menos llamativa resulta la información en sí misma. Medio siglo después de que los ordenadores se propagaran a la mayoría de la población, los datos han empezado a acumularse hasta el punto de que está sucediendo algo nuevo y especial. No solo es que el mundo esté sumergido en más información que en ningún momento anterior, sino que esa información está creciendo más deprisa. El cambio de escala ha conducido a un cambio de estado. El cambio cuantitativo ha llevado a un cambio cualitativo. Fue en ciencias como la astronomía y la genética, que experimentaron por primera vez esa explosión en la década de 2000, donde se acuñó el término big data, ‘datos masivos’. El concepto está trasladándose ahora hacia todas las áreas de la actividad humana».

El párrafo anterior pertenece al libro Big Data, la revolución de los datos masivos, escrito por el profesor de regulación y gestión de internet en la Universidad de Oxford Viktor Mayer-Schönberger y por el periodista de The Economist Kenneth Cukier, y publicado en 2013, hace ya cinco años. Desde entonces, el uso de los macrodatos, datos masivos, inteligencia de datos o datos a gran escala (las diversas formas en que se suele traducir el término inglés big data, literalmente, «grandes datos») no ha dejado de crecer.

Gracias a todo lo que generamos y compartimos, especialmente en las redes sociales y a través de internet, cada vez hay más y más datos disponibles (y accesibles), y cada vez se emplean más esos datos, en combinación con los algoritmos, y en cualquier campo imaginable, desde la investigacióncientífica,la sanidad o la educación, hasta el marketing, el periodismo, o, por supuesto, la política. Es la enorme cantidad de datos que recogen y procesan plataformas como Google lo que permite que su buscador nos corrija cuando introducimos un término mal escrito y nos de ideas sobre lo que estamos buscando, o que su traductor sea más preciso cuanto más se utilice.

Amazon, por poner otro ejemplo, no sería lo que es sin la minería de datos masiva que le permite establecer los patrones de compra de un usuario, cruzarlos con los datos de compra de otro, y crear así anuncios personalizados. Y algunas de las mejores historias periodísticas recientes han salido, también, del análisis y la interpretación de montañas de datos. Una encuesta de 2016 realizada por la European Public Relations Education and Research Association (Euprera) revelaba que el 72% de los profesionales de la comunicación creen que el big datacambiará la profesión periodística.

Del censo a la lucha contra el cáncer

En 2014, el Instituto Nacional de Estadística (INE) anunció que, por primera vez, iba a combinar mapas interactivos con análisis de big data para la consulta del censo por áreas geográficas hasta el detalle de los barrios, algó que calificó como «la operación estadística de mayor envergadura» de esta institución en los últimos diez años.

Hasta entonces, el desglose del censo por áreas poblacionales solo se recogía en tablas alfanuméricas. El cambio suponía volcarlo en un Sistema de Información Geográfica (GIS por sus siglas en inglés), para poder visualizar toda la información censal en mapas que incorporan y procesan estas capas de datos. A través de la web oficial del INE, ahora se tiene acceso a un mapa de España en el que se pueden efectuar distintos tipos de consulta, obtener indicadores predefinidos para una selección geográfica determinada, consultar mapas temáticos o transferir la selección geográfica realizada a un sistema de consulta de los datos en tablas. Todo, gracias al procesamiento de datos masivos.

Los macrodatos están adquiriendo asimismo un papel clave para el desarrollo de la medicina personalizada, y se prevé que lo hagan también a medio plazo en el descenso de la mortalidad por cáncer y en el control del gasto sanitario. En este sentido, el pasado mes de abril, los oncólogos participantes en el XIV Simposio Abordaje Multidisciplinar del Cáncer destacaban cómo la adaptación de los hospitales a la era digital, sumada a la aparición de nuevas técnicas diagnósticas, han conducido a un auge del big data en el sector oncológico.

Según señalaba a la agencia Efe el doctor Alfredo Carrato, jefe de Servicio de Oncología Médica del Hospital Universitario Ramón y Cajal de Madrid, «gracias a la informatización de los hospitales disponemos de una ingente base de datos clínicos y moleculares». «Su adecuado análisis y procesamiento bioinformático permitirá una aproximación diagnóstica más precisa y un mejor conocimiento de la biología tumoral y de los resultados de las distintas estrategias de tratamiento, así como conocer resultados de tratamiento de tumores raros y las áreas de mejora para una mejor planificación sanitaria», agregaba.

«El límite es nuestra imaginación»

«No hay ningún sector donde no exista posibilidad de sacar partido del gran volumen de información que se genera en la sociedad», explicaba este mismo martes Santiago Bollaín, director general para Pymes en España de IBM, en el Campus Executive de València, un evento organizado por el diario Levante. «La tecnología ha llegado a tal punto que podemos decir que el límite es nuestra imaginación», añadía.

Martin Hilbert, doctor en Ciencias Sociales y en Comunicación en la Universidad de California, calculó que en 2014 el mundo generó unos 5 zettabytes (un zettabyte es un 1 seguido de 21 ceros) de información. «Si pusiéramos todo eso en libros, convirtiendo las imágenes y otros elementos en su equivalente en letras, se podrían hacer 4.500 pilas distintas de libros que llegarían hasta el sol»,explicaba. Teniendo en cuenta que la cantidad de información crece a un ritmo exponencial, y que «se duplica cada dos años y medio, ahora [2017] probablemente son ya 10 zettabytes».

Todos esos datos se generan de múltiples formas. Los creamos cada vez que enviamos un correo electrónico (más de 200 millones cada minuto en todo el mundo) o un mensaje por WhatsApp, cada vez que publicamos algo en Facebook o en Twitter, cada vez que buscamos algo en Google, o cada vez que respondemos a una encuesta. También creamos datos al efectuar transacciones financieras o simplemente navegando por internet, algo esencial para las herramientas de seguimiento utilizadas por los anunciantes.

Y luego están los datos que comparten máquinas entre sí, al recopilar y procesar la información que recogen, por ejemplo, sensores de temperatura, de luz, de altura, de presión, de sonido… Los teléfonos móviles envían peticiones de escucha wifi a todos los puntos de acceso con los que se cruzan, y eso son datos que permiten establecer la ruta que ha seguido un dispositivo (es decir, su dueño), algo que cualquier usuario de Google Maps sabe bien. Eso, sin contar con los datos que provienen de las fuerzas de seguridad y defensa y de los servicios de inteligencia (lectores biométricos como escáneres de retina, escáneres de huellas digitales, lectores de cadenas de ADN, etc.).

Riesgos y desafíos

Todo esto conlleva, obviamente, riesgos, empezando por el uso que se hace de esos datos en relación con la privacidad, pero también con la capacidad de manipular la información para influir, por ejemplo, en el resultado de unas elecciones; para favorecer los intereses de las empresas con más capacidad para manejar esa información; o incluso para establecer conclusiones que puedan acarrear consecuencias penales.

Una de las claves a este respecto es el papel que juegan las empresas especializadas en comerciar con esos datos (los llamados corredores de datos), uno de cuyos principales ejemplos es la estadounidense Acxiom, una compañía que recoge, analiza y vende a sus clientes información, que estos utilizan después para, entre otras cosas, generar anuncios personalizados. En 2012, el diario The New York Times publicó que la firma poseía la mayor base comercial de datos del mundo, con un promedio de 1.500 piezas de información de más de 500 millones de consumidores. Y desde entonces han pasado ya seis años.

Tanto Acxiom, que proporciona datos de consumidores de EE UU, el Reino Unido, Francia, Alemania y Australia, como Epsilon,Oracle Data Cloud,Experian, TransUnion y otras empresas del sector, pueden verse seriamente afectadas por el reciente anuncio de Facebook de que dejará de cooperar, de momento, con todos los recopiladores de datos ajenos, a raíz del escándalo por la filtración a Cambridge Analytica.

El factor humano

Los desafíos del big data tampoco son pequeños. La cantidad de datos crece a un ritmo mucho mayor que nuestra capacidad para procesarlos, no ya como seres humanos, que quedó rebasada hace mucho, sino incluso mediante la tecnología, por más que sea cierto el ejemplo clásico de que un smartphone actual tiene más capacidad de cómputo que la NASA cuando el ser humano llegó a la Luna. Eso nos obliga a confiar cada vez más en sistemas relacionados con la inteligencia artificial, al tiempo que exige más y mejores mecanismos de control.

Por último, existe, además, un problema de orden más filosófico, que se plantea ante el reto de establecer un límite a la percepción de que cualquier conducta humana es explicable, y predecible, a partir del análisis de datos masivos.

En una entrevista concedida a eldiario.es con motivo de la aparición de su mencionado libro, Viktor Mayer-Schönberger distinguía, en este sentido, entre la causalidad (relación entre causa y efecto) y la correlación: «Como humanos estamos configurados para buscar causalidades, pero necesitamos darnos cuenta de que las correlaciones a menudo ofrecen información valiosa y son mucho más fáciles de identificar comparadas con la causalidad real. A menudo pensamos que conocemos las causas de ciertas cosas pero no es así realmente, y esto es peor que no conocer la causa en absoluto. Así es que necesitamos tener humildad cuando pensamos en la causalidad, y estar preparados para aceptar las correlaciones».

Rendidos al algoritmo: los códigos que modelan las redes, las finanzas, el consumo, la política y hasta el amor

La palabra «algoritmo» vivía recluida hasta hace no tanto en el entorno especializado de la ciencia en general, y de las matemáticas y la informática en particular. Hoy en día, sin embargo, y aunque aún nos cueste comprender exactamente de qué se trata, la mayoría de las personas mínimamente familiarizadas con Internet saben al menos, si no cómo funciona, sí para qué sirve: nos dicen que Facebook «ha cambiado su algoritmo» y que ahora veremos más publicaciones de nuestros ‘amigos’ y menos de páginas de empresas, y entendemos que detrás de esa decisión no hay miles de operarios humanos que nos conocen personalmente, dedicados a reordenar el contenido de nuestro muro. Lo que entendemos es que Facebook ha introducido una fórmula capaz de gestionar todos nuestros datos y ofrecer, de forma más o menos automática, un resultado.

De hecho, un algoritmo no es más que eso: una fórmula; un conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución a un problema; un código que procesa información para llegar a un resultado, cuyos componentes esenciales son los datos de los que se nutre, y que, para bien o para mal, está cambiando nuestras vidas.

Los algoritmos condicionan nuestras búsquedas en Internet, en función de dónde estamos, qué hemos buscado antes, qué se busca más, qué tiene más ‘calidad’ o ‘interés’, qué es más novedoso, qué está censurado o no, patrocinado no, y muchos otros factores, no siempre asépticos, que probablemente nunca conoceremos.

También determinan lo que vemos (y lo que no) en las redes sociales, los anuncios que nos persiguen de una página a otra y se cuelan en las aplicaciones del móvil, y la serie con la que nos tentará esta noche nuestra plataforma de streaming favorita.

Están presentes en nuestros teléfonos móviles y en nuestras tarjetas de crédito, gestionan transacciones financieras y han transformado el comercio. Los algoritmos nos pueden ayudar a ubicarnos en un mapa, a encontrar un empleo, a reconocer una cara y hasta a encontrar pareja o un ligue de una noche.

Son, en definitiva, la clave del éxito de empresas como Facebook, Google, YouTube, Amazon, Spotify, Tinder, Netflix

Enlace a YouTube: Machine intelligence makes human morals more important | Zeynep Tufekci (TED)

¿Convertidos en datos?

El creciente empleo de algoritmos en todos los sectores es criticado a menudo por el alto grado de despersonalización que pueden conllevar, o por las posibilidades que abren a la hora de convertir, aún más, a los seres humanos en mercancías o en simples números y datos en el engranaje del mercado, el consumo y la publicidad.

Con respecto a lo primero, baste recordar el caso de los 200 profesores despedidos en 2010 en Washington DC (EE UU), después de que un algoritmo evaluase su rendimiento. O el desarrollo de algoritmos capaces de predecir cuál será el sentido de una resolución judicial con un 79% de acierto, identificando patrones, leyes y jurisprudencia, pero abriendo también la puerta a incorporar factores como el entorno, la familia o los amigos. O desnudos que son arte —o noticia—, tratados como pornografía por los algoritmos de las redes sociales. O máquinas que seleccionan y descartan currículums buscando exclusivamente palabras clave.

Eso por no hablar de decisiones financieras en las que, de nuevo a través de algoritmos, un banco puede conceder o no un crédito dependiendo de las predicciones de riesgo que la fórmula aplique a quien lo solicita, o de estrategias políticas en las que un algoritmo es capaz de determinar qué esperar de, y qué prometer a, una base concreta de votantes potenciales. Los algoritmos pueden resultar insustituibles si lo que queremos es ‘leer’, o incluso perpetuar, la realidad, pero tal vez no tanto si lo que queremos es cambiarla.

Enlace a YouTube: We’re building a dystopia just to make people click on ads | Zeynep Tufekci (TED)

Un ejemplo: en octubre de 2016 la moneda británica cayó hasta un 6,1% frente al dólar en los mercados asiáticos, en lo que supuso el mayor descenso de la libra desde el referéndum que dio la vitoria al brexit. Según señalaron especialistas del Pew Research Center citados por la BBC, el desplome se debió, en parte, a operaciones computarizadas con algoritmos. No sería la última vez que la velocidad con la que operan los mercados automatizados hiciese adelantar decisiones que, probablemente, no habrían sido tomadas por seres humanos.

Y uno más, tal vez el más conocido: según la mayoría de los expertos, los algoritmos, y su dificultad para distinguir hechos inciertos que se presentan como reales, fueron uno de los principales factores por los que plataformas como Facebook contribuyeron a difundir y sobredimensionar las famosas noticias falsas durante la campaña presidencial de 2016 en EE UU. Desde entonces nos dicen que se han mejorado y reforzado los códigos, en paralelo al avance imparable de la inteligencia artificial. Nos recuerdan, también, que un algoritmo puede evitar, por ejemplo, un suicidio o un asesinato, detectando no solo el lenguaje del posible suicida o del posible agresor, sino incluso señales de alarma en sus publicaciones. La pregunta es: ¿llegaremos al extremo de aplicar consecuencias penales en base a las predicciones de una fórmula matemática? La respuesta ya la daba en 2002 la película Minority Report, basada, a su vez, en un relato corto de Philip K. Dick… de 1956.

Y, sin embargo, sería absurdo obviar que los algoritmos, al tener la capacidad de llevar a cabo operaciones informáticas muy complejas que sería prácticamente imposible realizar de otro modo, también salvan vidasy nos hacen avanzar como sociedad. Acotan, por ejemplo, la zona de búsqueda en un rescate, organizan una situación caótica, facilitan la logística tras un desastre, sirven para ahorrar energía y usar recursos de forma más inteligente, ayudan en la lucha contra el crimen, pueden determinar cómo distribuir mejor una ayuda humanitaria, aceleran las investigaciones médicas y nos permiten detectar estrellas y planetas a millones de años luz.

Enlace a YouTube: How Amazon, Apple, Facebook and Google manipulate our emotions | Scott Galloway (TED)

La percepción limitada del mundo

El pasado día 13, el Centro del Carmen de Valencia inauguró una ambiciosa exposición que, bajo el sugerente nombre de Los algoritmos suaves, combina videoarte y esculturas para invitar a reflexionar sobre la influencia de los códigos de la inteligencia artificial en la vida cotidiana. Tal vez no por casualidad, la muestra coincide con un momento especialmente caliente en la polémica sobre el uso comercial o político de datos personales en redes sociales como Facebook (lejos aún de recuperarse tras el escándalo de Cambridge Analytica), cuyos algoritmos «limitan la percepción de la realidad y el mundo y suponen una metacensura, ya que se establecen a partir de los gustos de los internautas», según señalaba a la agencia Efe el director del Consorcio de Museos de la Comunitat Valenciana, José Luis Pérez Pont.

Los algoritmos, continúa Pérez Font, implican «una forma suave de intervenir en nuestras decisiones» y «están trascendiendo mundialmente», ya que los gestionan «empresas con intereses económicos y geopolíticos».

El comisario de la muestra, Rafael Barber, destacaba por su parte, también a Efe, que el auge de estos códigos coincide con un «momento de crisis», en el que «se impulsa el fascismo y se acentúa el cambio climático», entre otros problemas. Según Barber, Los algoritmos suaves plantea el hecho de que «una inteligencia artificial no puede hacer arte», pero no busca «posicionarse a favor o en contra de los algoritmos, sino representar qué podemos hacer dentro de ese discurso».

Coviene no olvidar, en cualquier caso, las palabras de la científica de datos Cathy O’Neil, autora del libro Weapons of Math Destruction, cuando advertía, como recuerda el portal Xataca, que «los algoritmos no son justos de forma inherente porque la persona que construye ese modelo es la que define el concepto del éxito».

El escándalo de Facebook evidencia la falsa gratuidad de las redes sociales: el precio son tus datos

Cuando puedes conectarte en todo momento con tus familiares y amigos desde cualquier parte del mundo, acceder a mucha más información de la que un ser humano es capaz de digerir, entretenerte con el último meme o vídeo de gatitos, o incluso informar en directo de una revolución, organizar una manifestación o denunciar un abuso, y todo, en teoría, sin que te cobren por ello, ¿es realmente tan importante perder privacidad?

La respuesta, al final, depende de cada persona, pero si esa pérdida se traduce en la manipulación de los datos personales de millones de usuarios para influir en un resultado electoral, la evidencia de que nada es gratis —en las redes sociales el precio es la información que damos sobre nosotros mismos— se convierte en un escándalo.

Acosado por una de las mayores tormentas en la historia de Facebook, provocada por la filtración de datos de unos 50 millones de usuarios a la consultora británica Cambridge Analytica —vinculada con la campaña electoral de Donald Trump—, el fundador de la red social, Mark Zuckerberg, ha tenido que admitir «errores en la gestión de la cris»: «Tenemos la responsabilidad de proteger vuestros datos, y si no lo podemos hacer no merecemos serviros», dijo el CEO este miércoles. «Hemos cometido errores, hay muchas cosas por hacer, y tenemos que dar un paso adelante y hacerlas», añadió.

Es verdad que a Facebook no le está ayudando el hecho de estar atravesando un momento complicado con la prensa, como consecuencia de los recientes cambios en su algoritmo. Hace unos meses la compañía empezó a dar prioridad a las publicaciones de «las personas» (amigos y familia), y eso se ha traducido en un duro golpe para la visibilidad (y los contratos publicitarios) de muchos portales dependientes de los «me gusta». En respuesta, algunos de los medios más influyentes parecen estar especialmente predispuestos ahora a airear las vergüenzas del gigante creado por Zuckerberg, y en la crisis de Cambridge Analytica hay munición de sobra.

Pero más allá de la responsabilidad de Facebook en este escándalo, o incluso de la vulnerabilidad que pueda presentar la red ante este tipo de filtraciones, lo que resulta evidente es que los datos se filtran de Facebook porque Facebook los tiene. Y los tiene con nuestro consentimiento, tal y como puede comprobar cualquiera que se tome la molestia de leer detenidamente la política de privacidad de la compañía, ese apartado que suele aceptarse con un click rápido al damos de alta, tanto en la red de Zuckerberg como en cualquier otra.

No se comparte todo, pero casi

Cuando compartimos algo en Facebook podemos elegir qué otros usuarios queremos que tengan acceso a nuestra publicación, o si queremos que sea totalmente pública o totalmente ‘privada’. Decidamos lo que decidamos, la empresa se reserva el derecho de recopilar los datos durante tanto tiempo como considere necesario.

Esa información, como detalla la propia compañía, incluye «el contenido y otros datos que proporcionas cuando usas nuestros servicios, por ejemplo, al abrir una cuenta, al crear o compartir contenido, y al enviar mensajes o al comunicarte con otras personas». La información puede corresponder a datos incluidos en el propio contenido que proporcionas o relacionados con este. Por ejemplo, el lugar donde se tomó una foto o a la fecha de creación de un archivo.

Facebook también recopila información sobre el modo en que usamos los servicios de la red social, es decir, el tipo de contenido que vemos o con el que interactuamos, la frecuencia y la duración de nuestras actividades, las personas y los grupos con los que estamos conectados y cómo interactuamos con ellos, las personas con las que más nos comunicamos, los grupos donde compartimos más contenido…

La empresa guarda información asimismo acerca de los ordenadores, teléfonos u otros dispositivos en los que instalamos Facebook, así como los datos generados por esos dispositivos, en función de los permisos que les hayamos concedido, que en la mayoría de los casos suelen ser todos, porque queremos que la aplicación funcione. También registra la posición geográfica del dispositivo, si tenemos activado el GPS, Bluetooth o estamos conectados a la red WiFi, e información sobre la conexión (el nombre del operador, el tipo de navegador, el idioma y la zona horaria, el número de móvil y la dirección IP).

Eso sin contar todo lo que proporcionamos si efectuamos compras o transacciones financieras (el número de la tarjeta de crédito o débito, otros datos sobre la cuenta, detalles de facturación, envíos y contactos), o la información que damos cuando visitamos sitios web y aplicaciones de terceros que usan la red social (mediante el botón «Me gusta» o a través del inicio de sesión con Facebook, o cuando usan sus servicios de medición y publicidad).

El usuario-anuncio

¿Y para que quiere Facebook toda esa información? Uno puede creer a Zuckerberg («para serviros») o pensar que, además, Facebook es, a fin de cuentas, un negocio. La empresa afirma que los datos se usan para «proporcionar, mejorar y desarrollar los servicios», para «mejorar nuestros sistemas de publicidad y de medición con el fin de mostrarte anuncios relevantes», para «medir la eficacia y el alcance de los anuncios y los servicios» y para «fomentar la seguridad y la protección».

Sin menospreciar los motivos relacionados con la seguridad, el mejor funcionamiento de la red o incluso lo que demandan los propios usuarios, la parte de la publicidad es especialmente importante, ya que Facebook siempre podrá convencer mejor a un anunciante si es capaz de garantizarle que sus productos serán vistos por alguien que ya se sabe que está interesado en ellos.

Así, los datos se comparten, entre otros, con aplicaciones, con sitios web e integraciones de terceros que usan Facebook, y con servicios de publicidad, medición y análisis. En principio, estas empresas solo tienen acceso a datos de carácter general (sexo, edad, lugar de residencia, intereses), pero si se produce un requerimiento por parte de las autoridades o Facebook entiende que puede estar cometiéndose un delito, sí se podrían proporcionar datos más concretos y personales.

Es importante recordar, en este contexto, que la aceptación de las condiciones de privacidad de una red social no supone darle carta blanca a la empresa. Los usuarios tienen derechos de los que no se les puede privar, y que pueden variar según las diferentes legislaciones de sus países.

El pasado mes de noviembre, por ejemplo, la Agencia Española de Protección de Datos (AEPD) sancionó a Facebook con 1,2 millones de euros por almacenar datos personales de usuarios sin permiso. La sanción constaba de dos infracciones graves y una muy grave de la Ley Orgánica de Protección de Datos.

La AEPD explicó que la red social estaba recopilando datos sobre ideología, sexo, creencias religiosas o gustos personales para su posterior uso con fines publicitarios sin informar al usuario de manera clara y exhaustiva, y verificó, además, que Facebook trataba datos «especialmente protegidos» con fines de publicidad sin haber obtenido el consentimiento expreso de los usuarios, en contra de lo que exige la normativa de protección de datos.

¿Alternativas?

Siempre queda la opción, obviamente, de borrar nuestra cuenta y buscar una alternativa, o hasta de regresar al mundo analógico, pero la historia de las redes sociales muestra que iniciativas como el movimiento «Borra Facebook», surgido estos días a raíz de la filtración de Cambridge Analytica, no suelen prosperar. Hace años que van surgiendo otras redes donde garantizan tu total privacidad, pero la mayoría duran poco o están vacías. Buscadores como DuckDuckGo o StartPage son excelentes y no te rastrean, pero no son tan potentes como Google. Nadie nos impide darnos de baja en WhatsApp (cuyos mensajes están encriptados, pero que pertenece a Facebook, la compañía que almacena los datos también aquí), pero quién quiere irse del bar donde está todo el mundo.

La exposición de nuestra privacidad en el universo digital no es algo nuevo. Ya sabemos que nos rastrean y que siguen nuestros pasos, y no solo por grandes escándalos relacionados con el espionaje estatal, como el destapado por Edward Snowden, sino también porque nada más salir de un restaurante recibimos en nuestro teléfono un mensajito o una notificación sobre el establecimiento en el que acabamos de comer.

Y es cierto que a muchos usuarios no solo no les importa, sino que incluso lo agradecen, o hasta lo desean, como lo es también que probablemente el concepto mismo de privacidad ha evolucionado con el tiempo, y que lo que las nuevas generaciones consideran privado es a menudo diferente a lo que sus padres y abuelos entendían como algo estrictamente personal. El problema derivaría del uso que se hace de esa dosis de privacidad que hemos consentido compartir.

Retomar el control

Existe, en cualquier caso, un punto intermedio en el que, sin renunciar al uso de las redes sociales y de otros productos y servicios en Internet, podemos ejercer un mayor control sobre lo que compartimos, un control que incluye desde usar navegadores, extensiones y herramientas que incrementan nuestra privacidad al navegar, hasta simplemente ser más conscientes de que todo lo que subimos a la web se queda allí para siempre.

A veces basta recordar que con tan solo unos pocos clicks podemos decir que ‘no’ a un gran número de opciones en, por ejemplo, los ajustes de nuestra cuenta de Google, el mayor consumidor de datos online. O que en Facebook se pueden apagar los servicios de ubicación, desactivar aplicaciones en las que no confiamos o de las que no tenemos suficiente información, o poner límites en la configuración de lo que compartimos.

En España, la Organización de Consumidores y Usuarios (OCU) inició hace un año una campaña en este sentido (Mis datos son míos), con el fin de «conseguir que los consumidores asuman un rol positivo, proactivo y central en el nuevo mercado de datos».

Además de exigir a las empresas que exista siempre conocimiento y consentimiento expreso por parte del usuario sobre el uso posterior de la información, y que sea posible revocar ese consentimiento en cualquier momento, y corregir y recuperar los datos de una forma sencilla, la OCU destaca especialmente la importancia de tener bien configurada la privacidad en las redes sociales.

Es un primer paso para, al menos, ser conscientes del precio que estamos pagando, y decidir en consecuencia mientras disfrutamos de los gatitos o hacemos la revolución.