¿Qué es el ‘big data’ y para qué sirve?

«Los fru­tos de la sociedad de la infor­ma­ción están bien a la vista, con un telé­fono móvil en cada bol­sil­lo, un orde­nador portátil en cada mochi­la, y grandes sis­temas de tec­nología de la infor­ma­ción fun­cio­nan­do en las ofic­i­nas por todas partes. Menos lla­ma­ti­va resul­ta la infor­ma­ción en sí mis­ma. Medio siglo después de que los orde­nadores se propa­garan a la may­oría de la población, los datos han empeza­do a acu­mu­la­rse has­ta el pun­to de que está suce­di­en­do algo nue­vo y espe­cial. No solo es que el mun­do esté sumergi­do en más infor­ma­ción que en ningún momen­to ante­ri­or, sino que esa infor­ma­ción está cre­cien­do más deprisa. El cam­bio de escala ha con­duci­do a un cam­bio de esta­do. El cam­bio cuan­ti­ta­ti­vo ha lle­va­do a un cam­bio cual­i­ta­ti­vo. Fue en cien­cias como la astronomía y la genéti­ca, que exper­i­men­ta­ron por primera vez esa explosión en la déca­da de 2000, donde se acuñó el tér­mi­no big data, ‘datos masivos’. El con­cep­to está trasladán­dose aho­ra hacia todas las áreas de la activi­dad humana».

El pár­rafo ante­ri­or pertenece al libro Big Data, la rev­olu­ción de los datos masivos, escrito por el pro­fe­sor de reg­u­lación y gestión de inter­net en la Uni­ver­si­dad de Oxford Vik­tor May­er-Schön­berg­er y por el peri­odista de The Econ­o­mist Ken­neth Cuki­er, y pub­li­ca­do en 2013, hace ya cin­co años. Des­de entonces, el uso de los macrodatos, datos masivos, inteligen­cia de datos o datos a gran escala (las diver­sas for­mas en que se suele tra­ducir el tér­mi­no inglés big data, lit­eral­mente, «grandes datos») no ha deja­do de crecer.

Gra­cias a todo lo que gen­er­amos y com­par­ti­mos, espe­cial­mente en las redes sociales y a través de inter­net, cada vez hay más y más datos disponibles (y acce­si­bles), y cada vez se emplean más esos datos, en com­bi­nación con los algo­rit­mos, y en cualquier cam­po imag­in­able, des­de la inves­ti­gación­cien­tí­fi­ca,la sanidad o la edu­cación, has­ta el mar­ket­ing, el peri­odis­mo, o, por supuesto, la políti­ca. Es la enorme can­ti­dad de datos que reco­gen y proce­san platafor­mas como Google lo que per­mite que su bus­cador nos cor­ri­ja cuan­do intro­duci­mos un tér­mi­no mal escrito y nos de ideas sobre lo que esta­mos bus­can­do, o que su tra­duc­tor sea más pre­ciso cuan­to más se utilice.

Ama­zon, por pon­er otro ejem­p­lo, no sería lo que es sin la min­ería de datos masi­va que le per­mite estable­cer los patrones de com­pra de un usuario, cruzar­los con los datos de com­pra de otro, y crear así anun­cios per­son­al­iza­dos. Y algu­nas de las mejores his­to­rias peri­odís­ti­cas recientes han sali­do, tam­bién, del análi­sis y la inter­pretación de mon­tañas de datos. Una encues­ta de 2016 real­iza­da por la Euro­pean Pub­lic Rela­tions Edu­ca­tion and Research Asso­ci­a­tion (Eupre­ra) rev­e­la­ba que el 72% de los pro­fe­sion­ales de la comu­ni­cación creen que el big datacam­biará la pro­fe­sión periodística.

Del censo a la lucha contra el cáncer

En 2014, el Insti­tu­to Nacional de Estadís­ti­ca (INE) anun­ció que, por primera vez, iba a com­bi­nar mapas inter­ac­tivos con análi­sis de big data para la con­sul­ta del cen­so por áreas geográ­fi­cas has­ta el detalle de los bar­rios, algó que cal­i­ficó como «la operación estadís­ti­ca de may­or enver­gadu­ra» de esta insti­tu­ción en los últi­mos diez años.

Has­ta entonces, el des­glose del cen­so por áreas pobla­cionales solo se recogía en tablas alfanuméri­c­as. El cam­bio suponía vol­car­lo en un Sis­tema de Infor­ma­ción Geográ­fi­ca (GIS por sus siglas en inglés), para poder visu­alizar toda la infor­ma­ción cen­sal en mapas que incor­po­ran y proce­san estas capas de datos. A través de la web ofi­cial del INE, aho­ra se tiene acce­so a un mapa de España en el que se pueden efec­tu­ar dis­tin­tos tipos de con­sul­ta, obten­er indi­cadores pre­definidos para una selec­ción geográ­fi­ca deter­mi­na­da, con­sul­tar mapas temáti­cos o trans­ferir la selec­ción geográ­fi­ca real­iza­da a un sis­tema de con­sul­ta de los datos en tablas. Todo, gra­cias al proce­samien­to de datos masivos.

Los macrodatos están adquirien­do asimis­mo un papel clave para el desar­rol­lo de la med­i­c­i­na per­son­al­iza­da, y se pre­vé que lo hagan tam­bién a medio pla­zo en el descen­so de la mor­tal­i­dad por cáncer y en el con­trol del gas­to san­i­tario. En este sen­ti­do, el pasa­do mes de abril, los oncól­o­gos par­tic­i­pantes en el XIV Sim­po­sio Abor­da­je Mul­ti­dis­ci­pli­nar del Cáncer desta­ca­ban cómo la adaptación de los hos­pi­tales a la era dig­i­tal, suma­da a la apari­ción de nuevas téc­ni­cas diag­nós­ti­cas, han con­duci­do a un auge del big data en el sec­tor oncológico.

Según señal­a­ba a la agen­cia Efe el doc­tor Alfre­do Car­ra­to, jefe de Ser­vi­cio de Oncología Médi­ca del Hos­pi­tal Uni­ver­si­tario Ramón y Cajal de Madrid, «gra­cias a la informa­ti­zación de los hos­pi­tales disponemos de una ingente base de datos clíni­cos y mol­e­c­u­lares». «Su ade­cua­do análi­sis y proce­samien­to bioin­for­máti­co per­mi­tirá una aprox­i­mación diag­nós­ti­ca más pre­cisa y un mejor conocimien­to de la biología tumoral y de los resul­ta­dos de las dis­tin­tas estrate­gias de tratamien­to, así como cono­cer resul­ta­dos de tratamien­to de tumores raros y las áreas de mejo­ra para una mejor plan­i­fi­cación san­i­taria», agregaba.

«El límite es nuestra imaginación»

«No hay ningún sec­tor donde no exista posi­bil­i­dad de sacar par­tido del gran vol­u­men de infor­ma­ción que se gen­era en la sociedad», explic­a­ba este mis­mo martes San­ti­a­go Bol­laín, direc­tor gen­er­al para Pymes en España de IBM, en el Cam­pus Exec­u­tive de Valèn­cia, un even­to orga­ni­za­do por el diario Lev­ante. «La tec­nología ha lle­ga­do a tal pun­to que podemos decir que el límite es nues­tra imag­i­nación», añadía.

Mar­tin Hilbert, doc­tor en Cien­cias Sociales y en Comu­ni­cación en la Uni­ver­si­dad de Cal­i­for­nia, cal­culó que en 2014 el mun­do gen­eró unos 5 zettabytes (un zettabyte es un 1 segui­do de 21 ceros) de infor­ma­ción. «Si pusiéramos todo eso en libros, con­vir­tien­do las imá­genes y otros ele­men­tos en su equiv­a­lente en letras, se podrían hac­er 4.500 pilas dis­tin­tas de libros que lle­garían has­ta el sol»,explic­a­ba. Tenien­do en cuen­ta que la can­ti­dad de infor­ma­ción crece a un rit­mo expo­nen­cial, y que «se dupli­ca cada dos años y medio, aho­ra [2017] prob­a­ble­mente son ya 10 zettabytes».

Todos esos datos se gen­er­an de múlti­ples for­mas. Los creamos cada vez que envi­amos un correo elec­tróni­co (más de 200 mil­lones cada min­u­to en todo el mun­do) o un men­saje por What­sApp, cada vez que pub­li­camos algo en Face­book o en Twit­ter, cada vez que bus­camos algo en Google, o cada vez que respon­demos a una encues­ta. Tam­bién creamos datos al efec­tu­ar transac­ciones financieras o sim­ple­mente nave­gan­do por inter­net, algo esen­cial para las her­ramien­tas de seguimien­to uti­lizadas por los anunciantes.

Y luego están los datos que com­parten máquinas entre sí, al recopi­lar y proce­sar la infor­ma­ción que reco­gen, por ejem­p­lo, sen­sores de tem­per­atu­ra, de luz, de altura, de pre­sión, de sonido… Los telé­fonos móviles envían peti­ciones de escucha wifi a todos los pun­tos de acce­so con los que se cruzan, y eso son datos que per­miten estable­cer la ruta que ha segui­do un dis­pos­i­ti­vo (es decir, su dueño), algo que cualquier usuario de Google Maps sabe bien. Eso, sin con­tar con los datos que provienen de las fuerzas de seguri­dad y defen­sa y de los ser­vi­cios de inteligen­cia (lec­tores bio­métri­cos como escáneres de reti­na, escáneres de huel­las dig­i­tales, lec­tores de cade­nas de ADN, etc.).

Riesgos y desafíos

Todo esto con­ll­e­va, obvi­a­mente, ries­gos, empezan­do por el uso que se hace de esos datos en relación con la pri­vaci­dad, pero tam­bién con la capaci­dad de manip­u­lar la infor­ma­ción para influir, por ejem­p­lo, en el resul­ta­do de unas elec­ciones; para favore­cer los intere­ses de las empre­sas con más capaci­dad para mane­jar esa infor­ma­ción; o inclu­so para estable­cer con­clu­siones que puedan acar­rear con­se­cuen­cias penales.

Una de las claves a este respec­to es el papel que jue­gan las empre­sas espe­cial­izadas en com­er­ciar con esos datos (los lla­ma­dos corre­dores de datos), uno de cuyos prin­ci­pales ejem­p­los es la esta­dounidense Acx­iom, una com­pañía que recoge, anal­iza y vende a sus clientes infor­ma­ción, que estos uti­lizan después para, entre otras cosas, gener­ar anun­cios per­son­al­iza­dos. En 2012, el diario The New York Times pub­licó que la fir­ma poseía la may­or base com­er­cial de datos del mun­do, con un prome­dio de 1.500 piezas de infor­ma­ción de más de 500 mil­lones de con­sum­i­dores. Y des­de entonces han pasa­do ya seis años.

Tan­to Acx­iom, que pro­por­ciona datos de con­sum­i­dores de EE UU, el Reino Unido, Fran­cia, Ale­ma­nia y Aus­tralia, como Epsilon,Oracle Data Cloud,Experian, Tran­sUnion y otras empre­sas del sec­tor, pueden verse seri­amente afec­tadas por el reciente anun­cio de Face­book de que dejará de coop­er­ar, de momen­to, con todos los recopi­ladores de datos ajenos, a raíz del escán­da­lo por la fil­tración a Cam­bridge Ana­lyt­i­ca.

El factor humano

Los desafíos del big data tam­poco son pequeños. La can­ti­dad de datos crece a un rit­mo mucho may­or que nues­tra capaci­dad para proce­sar­los, no ya como seres humanos, que quedó rebasa­da hace mucho, sino inclu­so medi­ante la tec­nología, por más que sea cier­to el ejem­p­lo clási­co de que un smart­phone actu­al tiene más capaci­dad de cóm­puto que la NASA cuan­do el ser humano llegó a la Luna. Eso nos obliga a con­fi­ar cada vez más en sis­temas rela­ciona­dos con la inteligen­cia arti­fi­cial, al tiem­po que exige más y mejores mecan­is­mos de control.

Por últi­mo, existe, además, un prob­le­ma de orden más filosó­fi­co, que se plantea ante el reto de estable­cer un límite a la per­cep­ción de que cualquier con­duc­ta humana es explic­a­ble, y pre­deci­ble, a par­tir del análi­sis de datos masivos.

En una entre­vista con­ce­di­da a eldiario.es con moti­vo de la apari­ción de su men­ciona­do libro, Vik­tor May­er-Schön­berg­er dis­tin­guía, en este sen­ti­do, entre la causal­i­dad (relación entre causa y efec­to) y la cor­relación: «Como humanos esta­mos con­fig­u­ra­dos para bus­car causal­i­dades, pero nece­si­ta­mos darnos cuen­ta de que las cor­rela­ciones a menudo ofre­cen infor­ma­ción valiosa y son mucho más fáciles de iden­ti­ficar com­para­das con la causal­i­dad real. A menudo pen­samos que cono­ce­mos las causas de cier­tas cosas pero no es así real­mente, y esto es peor que no cono­cer la causa en abso­lu­to. Así es que nece­si­ta­mos ten­er humil­dad cuan­do pen­samos en la causal­i­dad, y estar prepara­dos para acep­tar las correlaciones».

Rendidos al algoritmo: los códigos que modelan las redes, las finanzas, el consumo, la política y hasta el amor

La pal­abra «algo­rit­mo» vivía reclu­i­da has­ta hace no tan­to en el entorno espe­cial­iza­do de la cien­cia en gen­er­al, y de las matemáti­cas y la infor­máti­ca en par­tic­u­lar. Hoy en día, sin embar­go, y aunque aún nos cueste com­pren­der exac­ta­mente de qué se tra­ta, la may­oría de las per­sonas mín­i­ma­mente famil­iar­izadas con Inter­net saben al menos, si no cómo fun­ciona, sí para qué sirve: nos dicen que Face­book «ha cam­bi­a­do su algo­rit­mo» y que aho­ra ver­e­mos más pub­li­ca­ciones de nue­stros ‘ami­gos’ y menos de pági­nas de empre­sas, y enten­demos que detrás de esa decisión no hay miles de oper­ar­ios humanos que nos cono­cen per­sonal­mente, ded­i­ca­dos a reor­denar el con­tenido de nue­stro muro. Lo que enten­demos es que Face­book ha intro­duci­do una fór­mu­la capaz de ges­tionar todos nue­stros datos y ofre­cer, de for­ma más o menos automáti­ca, un resultado.

De hecho, un algo­rit­mo no es más que eso: una fór­mu­la; un con­jun­to orde­na­do de opera­ciones sis­temáti­cas que per­mite hac­er un cál­cu­lo y hal­lar la solu­ción a un prob­le­ma; un códi­go que proce­sa infor­ma­ción para lle­gar a un resul­ta­do, cuyos com­po­nentes esen­ciales son los datos de los que se nutre, y que, para bien o para mal, está cam­bian­do nues­tras vidas.

Los algo­rit­mos condi­cio­nan nues­tras búsquedas en Inter­net, en fun­ción de dónde esta­mos, qué hemos bus­ca­do antes, qué se bus­ca más, qué tiene más ‘cal­i­dad’ o ‘interés’, qué es más nove­doso, qué está cen­sura­do o no, patroci­na­do no, y muchos otros fac­tores, no siem­pre asép­ti­cos, que prob­a­ble­mente nun­ca conoceremos.

Tam­bién deter­mi­nan lo que vemos (y lo que no) en las redes sociales, los anun­cios que nos per­siguen de una pági­na a otra y se cue­lan en las apli­ca­ciones del móvil, y la serie con la que nos ten­tará esta noche nues­tra platafor­ma de stream­ing favorita.

Están pre­sentes en nue­stros telé­fonos móviles y en nues­tras tar­je­tas de crédi­to, ges­tio­nan transac­ciones financieras y han trans­for­ma­do el com­er­cio. Los algo­rit­mos nos pueden ayu­dar a ubi­carnos en un mapa, a encon­trar un empleo, a recono­cer una cara y has­ta a encon­trar pare­ja o un ligue de una noche.

Son, en defin­i­ti­va, la clave del éxi­to de empre­sas como Face­book, Google, YouTube, Ama­zon, Spo­ti­fy, Tin­der, Net­flix

¿Convertidos en datos?

El cre­ciente empleo de algo­rit­mos en todos los sec­tores es crit­i­ca­do a menudo por el alto gra­do de des­per­son­al­ización que pueden con­ll­e­var, o por las posi­bil­i­dades que abren a la hora de con­ver­tir, aún más, a los seres humanos en mer­cancías o en sim­ples números y datos en el engrana­je del mer­ca­do, el con­sumo y la publicidad.

Con respec­to a lo primero, baste recor­dar el caso de los 200 pro­fe­sores des­pe­di­dos en 2010 en Wash­ing­ton DC (EE UU), después de que un algo­rit­mo eval­u­ase su rendimien­to. O el desar­rol­lo de algo­rit­mos capaces de pre­de­cir cuál será el sen­ti­do de una res­olu­ción judi­cial con un 79% de acier­to, iden­ti­f­i­can­do patrones, leyes y jurispru­den­cia, pero abrien­do tam­bién la puer­ta a incor­po­rar fac­tores como el entorno, la famil­ia o los ami­gos. O desnudos que son arte —o noti­cia—, trata­dos como pornografía por los algo­rit­mos de las redes sociales. O máquinas que selec­cio­nan y descar­tan cur­rícu­lums bus­can­do exclu­si­va­mente pal­abras clave.

Eso por no hablar de deci­siones financieras en las que, de nue­vo a través de algo­rit­mos, un ban­co puede con­ced­er o no un crédi­to depen­di­en­do de las predic­ciones de ries­go que la fór­mu­la aplique a quien lo solici­ta, o de estrate­gias políti­cas en las que un algo­rit­mo es capaz de deter­mi­nar qué esper­ar de, y qué prom­e­ter a, una base conc­re­ta de votantes poten­ciales. Los algo­rit­mos pueden resul­tar insusti­tu­ibles si lo que quer­e­mos es ‘leer’, o inclu­so per­pet­u­ar, la real­i­dad, pero tal vez no tan­to si lo que quer­e­mos es cambiarla.

Un ejem­p­lo: en octubre de 2016 la mon­e­da británi­ca cayó has­ta un 6,1% frente al dólar en los mer­ca­dos asiáti­cos, en lo que supu­so el may­or descen­so de la libra des­de el refer­én­dum que dio la vito­ria al brex­it. Según señalaron espe­cial­is­tas del Pew Research Cen­ter cita­dos por la BBC, el desplome se debió, en parte, a opera­ciones com­puta­rizadas con algo­rit­mos. No sería la últi­ma vez que la veloci­dad con la que oper­an los mer­ca­dos autom­a­ti­za­dos hiciese ade­lan­tar deci­siones que, prob­a­ble­mente, no habrían sido tomadas por seres humanos.

Y uno más, tal vez el más cono­ci­do: según la may­oría de los exper­tos, los algo­rit­mos, y su difi­cul­tad para dis­tin­guir hechos incier­tos que se pre­sen­tan como reales, fueron uno de los prin­ci­pales fac­tores por los que platafor­mas como Face­book con­tribuyeron a difundir y sobred­i­men­sion­ar las famosas noti­cias fal­sas durante la cam­paña pres­i­den­cial de 2016 en EE UU. Des­de entonces nos dicen que se han mejo­ra­do y reforza­do los códi­gos, en para­le­lo al avance impa­ra­ble de la inteligen­cia arti­fi­cial. Nos recuer­dan, tam­bién, que un algo­rit­mo puede evi­tar, por ejem­p­lo, un sui­cidio o un asesina­to, detectan­do no solo el lengua­je del posi­ble sui­ci­da o del posi­ble agre­sor, sino inclu­so señales de alar­ma en sus pub­li­ca­ciones. La pre­gun­ta es: ¿lle­gare­mos al extremo de aplicar con­se­cuen­cias penales en base a las predic­ciones de una fór­mu­la matemáti­ca? La respues­ta ya la daba en 2002 la pelícu­la Minor­i­ty Report, basa­da, a su vez, en un rela­to cor­to de Philip K. Dick… de 1956.

Y, sin embar­go, sería absur­do obviar que los algo­rit­mos, al ten­er la capaci­dad de lle­var a cabo opera­ciones infor­máti­cas muy com­ple­jas que sería prác­ti­ca­mente imposi­ble realizar de otro modo, tam­bién sal­van vidasy nos hacen avan­zar como sociedad. Acotan, por ejem­p­lo, la zona de búsque­da en un rescate, orga­ni­zan una situación caóti­ca, facil­i­tan la logís­ti­ca tras un desas­tre, sir­ven para ahor­rar energía y usar recur­sos de for­ma más inteligente, ayu­dan en la lucha con­tra el crimen, pueden deter­mi­nar cómo dis­tribuir mejor una ayu­da human­i­taria, acel­er­an las inves­ti­ga­ciones médi­cas y nos per­miten detec­tar estrel­las y plan­e­tas a mil­lones de años luz.

La percepción limitada del mundo

El pasa­do día 13, el Cen­tro del Car­men de Valen­cia inau­guró una ambi­ciosa exposi­ción que, bajo el sug­er­ente nom­bre de Los algo­rit­mos suaves, com­bi­na videoarte y escul­turas para invi­tar a reflex­ionar sobre la influ­en­cia de los códi­gos de la inteligen­cia arti­fi­cial en la vida cotid­i­ana. Tal vez no por casu­al­i­dad, la mues­tra coin­cide con un momen­to espe­cial­mente caliente en la polémi­ca sobre el uso com­er­cial o políti­co de datos per­son­ales en redes sociales como Face­book (lejos aún de recu­per­arse tras el escán­da­lo de Cam­bridge Ana­lyt­i­ca), cuyos algo­rit­mos «lim­i­tan la per­cep­ción de la real­i­dad y el mun­do y supo­nen una meta­cen­sura, ya que se estable­cen a par­tir de los gus­tos de los inter­nau­tas», según señal­a­ba a la agen­cia Efe el direc­tor del Con­sor­cio de Museos de la Comu­ni­tat Valen­ciana, José Luis Pérez Pont.

Los algo­rit­mos, con­tinúa Pérez Font, impli­can «una for­ma suave de inter­venir en nues­tras deci­siones» y «están trascen­di­en­do mundial­mente», ya que los ges­tio­nan «empre­sas con intere­ses económi­cos y geopolíticos».

El comis­ario de la mues­tra, Rafael Bar­ber, desta­ca­ba por su parte, tam­bién a Efe, que el auge de estos códi­gos coin­cide con un «momen­to de cri­sis», en el que «se impul­sa el fas­cis­mo y se acen­túa el cam­bio climáti­co», entre otros prob­le­mas. Según Bar­ber, Los algo­rit­mos suaves plantea el hecho de que «una inteligen­cia arti­fi­cial no puede hac­er arte», pero no bus­ca «posi­cionarse a favor o en con­tra de los algo­rit­mos, sino rep­re­sen­tar qué podemos hac­er den­tro de ese discurso».

Coviene no olvi­dar, en cualquier caso, las pal­abras de la cien­tí­fi­ca de datos Cathy O’Neil, auto­ra del libro Weapons of Math Destruc­tion, cuan­do advertía, como recuer­da el por­tal Xat­a­ca, que «los algo­rit­mos no son jus­tos de for­ma inher­ente porque la per­sona que con­struye ese mod­e­lo es la que define el con­cep­to del éxito».

El escándalo de Facebook evidencia la falsa gratuidad de las redes sociales: el precio son tus datos

Cuan­do puedes conec­tarte en todo momen­to con tus famil­iares y ami­gos des­de cualquier parte del mun­do, acced­er a mucha más infor­ma­ción de la que un ser humano es capaz de digerir, entreten­erte con el últi­mo meme o vídeo de gati­tos, o inclu­so infor­mar en direc­to de una rev­olu­ción, orga­ni­zar una man­i­festación o denun­ciar un abu­so, y todo, en teoría, sin que te cobren por ello, ¿es real­mente tan impor­tante perder privacidad?

La respues­ta, al final, depende de cada per­sona, pero si esa pér­di­da se tra­duce en la manip­u­lación de los datos per­son­ales de mil­lones de usuar­ios para influir en un resul­ta­do elec­toral, la evi­den­cia de que nada es gratis —en las redes sociales el pre­cio es la infor­ma­ción que damos sobre nosotros mis­mos— se con­vierte en un escándalo.

Acosa­do por una de las may­ores tor­men­tas en la his­to­ria de Face­book, provo­ca­da por la fil­tración de datos de unos 50 mil­lones de usuar­ios a la con­sul­to­ra británi­ca Cam­bridge Ana­lyt­i­ca —vin­cu­la­da con la cam­paña elec­toral de Don­ald Trump—, el fun­dador de la red social, Mark Zucker­berg, ha tenido que admi­tir «errores en la gestión de la cris»: «Ten­emos la respon­s­abil­i­dad de pro­te­ger vue­stros datos, y si no lo podemos hac­er no mere­ce­mos servi­ros», dijo el CEO este miér­coles. «Hemos cometi­do errores, hay muchas cosas por hac­er, y ten­emos que dar un paso ade­lante y hac­er­las», añadió.

Es ver­dad que a Face­book no le está ayu­dan­do el hecho de estar atrav­es­an­do un momen­to com­pli­ca­do con la pren­sa, como con­se­cuen­cia de los recientes cam­bios en su algo­rit­mo. Hace unos meses la com­pañía empezó a dar pri­or­i­dad a las pub­li­ca­ciones de «las per­sonas» (ami­gos y famil­ia), y eso se ha tra­duci­do en un duro golpe para la vis­i­bil­i­dad (y los con­tratos pub­lic­i­tar­ios) de muchos por­tales depen­di­entes de los «me gus­ta». En respues­ta, algunos de los medios más influyentes pare­cen estar espe­cial­mente pre­dis­puestos aho­ra a airear las vergüen­zas del gigante crea­do por Zucker­berg, y en la cri­sis de Cam­bridge Ana­lyt­i­ca hay muni­ción de sobra.

Pero más allá de la respon­s­abil­i­dad de Face­book en este escán­da­lo, o inclu­so de la vul­ner­a­bil­i­dad que pue­da pre­sen­tar la red ante este tipo de fil­tra­ciones, lo que resul­ta evi­dente es que los datos se fil­tran de Face­book porque Face­book los tiene. Y los tiene con nue­stro con­sen­timien­to, tal y como puede com­pro­bar cualquiera que se tome la moles­tia de leer detenida­mente la políti­ca de pri­vaci­dad de la com­pañía, ese aparta­do que suele acep­tarse con un click rápi­do al damos de alta, tan­to en la red de Zucker­berg como en cualquier otra.

No se comparte todo, pero casi

Cuan­do com­par­ti­mos algo en Face­book podemos ele­gir qué otros usuar­ios quer­e­mos que ten­gan acce­so a nues­tra pub­li­cación, o si quer­e­mos que sea total­mente públi­ca o total­mente ‘pri­va­da’. Deci­damos lo que deci­damos, la empre­sa se reser­va el dere­cho de recopi­lar los datos durante tan­to tiem­po como con­sidere necesario.

Esa infor­ma­ción, como detal­la la propia com­pañía, incluye «el con­tenido y otros datos que pro­por­cionas cuan­do usas nue­stros ser­vi­cios, por ejem­p­lo, al abrir una cuen­ta, al crear o com­par­tir con­tenido, y al enviar men­sajes o al comu­ni­carte con otras per­sonas». La infor­ma­ción puede cor­re­spon­der a datos inclu­i­dos en el pro­pio con­tenido que pro­por­cionas o rela­ciona­dos con este. Por ejem­p­lo, el lugar donde se tomó una foto o a la fecha de creación de un archivo.

Face­book tam­bién recopi­la infor­ma­ción sobre el modo en que usamos los ser­vi­cios de la red social, es decir, el tipo de con­tenido que vemos o con el que inter­ac­tu­amos, la fre­cuen­cia y la duración de nues­tras activi­dades, las per­sonas y los gru­pos con los que esta­mos conec­ta­dos y cómo inter­ac­tu­amos con ellos, las per­sonas con las que más nos comu­ni­camos, los gru­pos donde com­par­ti­mos más contenido…

La empre­sa guar­da infor­ma­ción asimis­mo acer­ca de los orde­nadores, telé­fonos u otros dis­pos­i­tivos en los que insta­lam­os Face­book, así como los datos gen­er­a­dos por esos dis­pos­i­tivos, en fun­ción de los per­misos que les hayamos con­ce­di­do, que en la may­oría de los casos sue­len ser todos, porque quer­e­mos que la apli­cación fun­cione. Tam­bién reg­is­tra la posi­ción geográ­fi­ca del dis­pos­i­ti­vo, si ten­emos acti­va­do el GPS, Blue­tooth o esta­mos conec­ta­dos a la red WiFi, e infor­ma­ción sobre la conex­ión (el nom­bre del oper­ador, el tipo de nave­g­ador, el idioma y la zona horaria, el número de móvil y la direc­ción IP).

Eso sin con­tar todo lo que pro­por­cionamos si efec­tu­amos com­pras o transac­ciones financieras (el número de la tar­je­ta de crédi­to o débito, otros datos sobre la cuen­ta, detalles de fac­turación, envíos y con­tac­tos), o la infor­ma­ción que damos cuan­do visi­ta­mos sitios web y apli­ca­ciones de ter­ceros que usan la red social (medi­ante el botón «Me gus­ta» o a través del ini­cio de sesión con Face­book, o cuan­do usan sus ser­vi­cios de medición y publicidad).

El usuario-anuncio

¿Y para que quiere Face­book toda esa infor­ma­ción? Uno puede creer a Zucker­berg («para servi­ros») o pen­sar que, además, Face­book es, a fin de cuen­tas, un nego­cio. La empre­sa afir­ma que los datos se usan para «pro­por­cionar, mejo­rar y desar­rol­lar los ser­vi­cios», para «mejo­rar nue­stros sis­temas de pub­li­ci­dad y de medición con el fin de mostrarte anun­cios rel­e­vantes», para «medir la efi­ca­cia y el alcance de los anun­cios y los ser­vi­cios» y para «fomen­tar la seguri­dad y la protección».

Sin menos­pre­ciar los motivos rela­ciona­dos con la seguri­dad, el mejor fun­cionamien­to de la red o inclu­so lo que deman­dan los pro­pios usuar­ios, la parte de la pub­li­ci­dad es espe­cial­mente impor­tante, ya que Face­book siem­pre podrá con­vencer mejor a un anun­ciante si es capaz de garan­ti­zarle que sus pro­duc­tos serán vis­tos por alguien que ya se sabe que está intere­sa­do en ellos.

Así, los datos se com­parten, entre otros, con apli­ca­ciones, con sitios web e inte­gra­ciones de ter­ceros que usan Face­book, y con ser­vi­cios de pub­li­ci­dad, medición y análi­sis. En prin­ci­pio, estas empre­sas solo tienen acce­so a datos de carác­ter gen­er­al (sexo, edad, lugar de res­i­den­cia, intere­ses), pero si se pro­duce un requer­im­ien­to por parte de las autori­dades o Face­book entiende que puede estar cometién­dose un deli­to, sí se podrían pro­por­cionar datos más con­cre­tos y personales.

Es impor­tante recor­dar, en este con­tex­to, que la aceptación de las condi­ciones de pri­vaci­dad de una red social no supone dar­le car­ta blan­ca a la empre­sa. Los usuar­ios tienen dere­chos de los que no se les puede pri­var, y que pueden vari­ar según las difer­entes leg­is­la­ciones de sus países.

El pasa­do mes de noviem­bre, por ejem­p­lo, la Agen­cia Españo­la de Pro­tec­ción de Datos (AEPD) san­cionó a Face­book con 1,2 mil­lones de euros por alma­ce­nar datos per­son­ales de usuar­ios sin per­miso. La san­ción con­sta­ba de dos infrac­ciones graves y una muy grave de la Ley Orgáni­ca de Pro­tec­ción de Datos.

La AEPD explicó que la red social esta­ba recopi­lan­do datos sobre ide­ología, sexo, creen­cias reli­giosas o gus­tos per­son­ales para su pos­te­ri­or uso con fines pub­lic­i­tar­ios sin infor­mar al usuario de man­era clara y exhaus­ti­va, y ver­i­ficó, además, que Face­book trata­ba datos «espe­cial­mente pro­te­gi­dos» con fines de pub­li­ci­dad sin haber obtenido el con­sen­timien­to expre­so de los usuar­ios, en con­tra de lo que exige la nor­ma­ti­va de pro­tec­ción de datos.

¿Alternativas?

Siem­pre que­da la opción, obvi­a­mente, de bor­rar nues­tra cuen­ta y bus­car una alter­na­ti­va, o has­ta de regre­sar al mun­do analógi­co, pero la his­to­ria de las redes sociales mues­tra que ini­cia­ti­vas como el movimien­to «Bor­ra Face­book», surgi­do estos días a raíz de la fil­tración de Cam­bridge Ana­lyt­i­ca, no sue­len pros­per­ar. Hace años que van surgien­do otras redes donde garan­ti­zan tu total pri­vaci­dad, pero la may­oría duran poco o están vacías. Bus­cadores como Duck­Duck­Go o Start­Page son exce­lentes y no te ras­tre­an, pero no son tan potentes como Google. Nadie nos impi­de darnos de baja en What­sApp (cuyos men­sajes están encrip­ta­dos, pero que pertenece a Face­book, la com­pañía que alma­ce­na los datos tam­bién aquí), pero quién quiere irse del bar donde está todo el mundo.

La exposi­ción de nues­tra pri­vaci­dad en el uni­ver­so dig­i­tal no es algo nue­vo. Ya sabe­mos que nos ras­tre­an y que siguen nue­stros pasos, y no solo por grandes escán­da­los rela­ciona­dos con el espi­ona­je estatal, como el destapa­do por Edward Snow­den, sino tam­bién porque nada más salir de un restau­rante recibi­mos en nue­stro telé­fono un men­saji­to o una noti­fi­cación sobre el establec­imien­to en el que acabamos de comer.

Y es cier­to que a muchos usuar­ios no solo no les impor­ta, sino que inclu­so lo agrade­cen, o has­ta lo desean, como lo es tam­bién que prob­a­ble­mente el con­cep­to mis­mo de pri­vaci­dad ha evolu­ciona­do con el tiem­po, y que lo que las nuevas gen­era­ciones con­sid­er­an pri­va­do es a menudo difer­ente a lo que sus padres y abue­los entendían como algo estric­ta­mente per­son­al. El prob­le­ma derivaría del uso que se hace de esa dosis de pri­vaci­dad que hemos con­sen­ti­do compartir.

Retomar el control

Existe, en cualquier caso, un pun­to inter­me­dio en el que, sin renun­ciar al uso de las redes sociales y de otros pro­duc­tos y ser­vi­cios en Inter­net, podemos ejercer un may­or con­trol sobre lo que com­par­ti­mos, un con­trol que incluye des­de usar nave­g­adores, exten­siones y her­ramien­tas que incre­men­tan nues­tra pri­vaci­dad al nave­g­ar, has­ta sim­ple­mente ser más con­scientes de que todo lo que subi­mos a la web se que­da allí para siempre.

A veces bas­ta recor­dar que con tan solo unos pocos clicks podemos decir que ‘no’ a un gran número de opciones en, por ejem­p­lo, los ajustes de nues­tra cuen­ta de Google, el may­or con­sum­i­dor de datos online. O que en Face­book se pueden apa­gar los ser­vi­cios de ubi­cación, desac­ti­var apli­ca­ciones en las que no con­fi­amos o de las que no ten­emos sufi­ciente infor­ma­ción, o pon­er límites en la con­fig­u­ración de lo que compartimos.

En España, la Orga­ni­zación de Con­sum­i­dores y Usuar­ios (OCU) ini­ció hace un año una cam­paña en este sen­ti­do (Mis datos son míos), con el fin de «con­seguir que los con­sum­i­dores asuman un rol pos­i­ti­vo, proac­ti­vo y cen­tral en el nue­vo mer­ca­do de datos».

Además de exi­gir a las empre­sas que exista siem­pre conocimien­to y con­sen­timien­to expre­so por parte del usuario sobre el uso pos­te­ri­or de la infor­ma­ción, y que sea posi­ble revo­car ese con­sen­timien­to en cualquier momen­to, y cor­re­gir y recu­per­ar los datos de una for­ma sen­cil­la, la OCU desta­ca espe­cial­mente la impor­tan­cia de ten­er bien con­fig­u­ra­da la pri­vaci­dad en las redes sociales.

Es un primer paso para, al menos, ser con­scientes del pre­cio que esta­mos pagan­do, y decidir en con­se­cuen­cia mien­tras dis­fru­ta­mos de los gati­tos o hace­mos la revolución.