Hace unos meses, si algo era previsible para Marta García Aller (Madrid, 1980) era la fecha de publicación de su último libro, programada para el pasado mes de marzo. Una pandemia de coronavirus caída del cielo y una crisis sanitaria y económica sin precedentes en los últimos cien años, sin embargo, obligaron a retrasarla. Paradójicamente, esa noticia repentina no fue todo lo negativa que cabría suponer. A fin de cuentas, vino a confirmar la propia tesis sobre la que había estado trabajando tanto tiempo. Lo imprevisible (Planeta) es un texto que indaga en esa extraña realidad por la cual ahora, en un mundo en el que creemos tenerlo todo bajo control gracias a los avances de la ciencia y la tecnología, vivimos sin embargo sumidos en una de las mayores incertidumbres que se recuerdan. Por eso, García Aller conversa en estas páginas con incontables personajes que arrojan luz sobre la dirección hacia la que va encaminado nuestro presente: desde matemáticos y genetistas hasta un ligón de Tinder, pasando por epidemiólogos, ingenieras, abogadas y empresarias de éxito. Así, ofrece un texto que describe con exactitud esta era en la que el ser humano ha estado más cerca de cumplir uno de sus anhelos más persistentes: anticiparse a los peligros del futuro. Sin embargo, incluso cuando se ha llegado a tener la sensación de que somos capaces de predecirlo todo, la historia ha vuelto a sorprendernos y nos ha recordado que todavía quedan misterios insondables que estamos lejos de poder controlar. Menos mal, por otro lado, ya que, como resume el libro, en un futuro "las máquinas se encargarán de lo previsible; los humanos, de todo lo demás". Conversamos con la autora:
Pregunta: ¿Qué nos da más miedo, un futuro completamente imprevisible o uno completamente previsible?
Respuesta: Pues cada uno tendrá que sacar sus propias conclusiones. Esa es un poco la intención con la que escribí Lo imprevisible. Creo que no nos estamos haciendo un montón de preguntas que son claves para entender cómo nos están cambiando la vida tecnologías como el Big Data o el Machine Learning. Realmente, nunca antes en la historia de la humanidad ha habido tantas cosas que podamos prever, con la cantidad de información que tenemos ahora disponible y con el trabajo que a partir de ella hacen los algoritmos. Por ejemplo, las predicciones meteorológicas son cada vez más acertadas y pueden hacerse casi en tiempo real y en espacios geográficos más acotados; pero es que también se puede predecir el comportamiento de los consumidores cuando están delante de las pantallas. Todo eso, ahora, es en gran medida previsible. Y no es algo ni malo ni bueno, ojo. De hecho, ha traído muy buenas noticias, sobre todo en los avances que se han hecho en el ámbito de la salud. Pero también es verdad que, al mismo tiempo, está generando una serie de cuestiones inquietantes. Nos hace plantearnos cosas. ¿En qué medida somos libres de nuestras decisiones si alguien con acceso a nuestro historial de internet puede conocernos hasta el punto de influir en nuestros comportamientos? ¿Pueden llegar a hacernos votar a un partido determinado? ¿O disuadirnos de votar, también? Desde luego, son preguntas que inquietan. Yo, personalmente, creo que ninguno de los extremos es bueno. Pero también creo que la historia de la humanidad es la historia de nuestro intento por anticiparnos a los peligros del futuro. En el libro hablo de épocas antiguas, como cuando los griegos acudían al oráculo. Ahora, en vez de eso, acudimos a Siri. En el fondo desarrollamos tecnología para sentirnos más seguros, lo que pasa es que dejaremos de sentirnos seguros si no podemos saber en qué manos está esa tecnología. Precisamente es ahí donde trata de arrojar luz Lo imprevisible.
P: Es curioso que un libro que trata sobre lo imprevisible se haya visto retenido imprevisiblemente durante meses debido a una pandemia que nos ha paralizado de repente.
R: Absolutamente. El libro iba a haber salido a finales de marzo. De hecho, ya estaba todo listo cuando llegó la pandemia. Entonces tuve que volver a terminar de escribirlo. Es el único libro que he terminado de escribir dos veces. Lo hice durante la pandemia, en los momentos más difíciles del estado de alarma, justo cuando se suponía que tendría que estar ya en las librerías pero resultó que no. Me puse a escribir el último capítulo —que en realidad es el capítulo cero— sobre la pandemia y cómo de previsibles e imprevisibles son estas situaciones. Tengo que decir que, más allá de ese capítulo cero, el libro no ha cambiado en absoluto. Más bien el coronavirus ha venido a completarlo. Porque la idea sobre la que gira, en la que llevaba trabajando muchos meses, se resume precisamente en que hay muchas cosas que siguen estando fuera de nuestro control. La tecnología había creado el espejismo de que éramos menos vulnerables de lo que en realidad somos. En ese sentido, el esfuerzo que antes tenía que hacer para convencernos de que la tecnología no nos ha solucionado tantas cosas como creíamos y que el factor humano sigue siendo fundamental —o que la propia naturaleza sigue escapando a nuestro control—, de repente ya no era tan necesario, porque la pandemia venía a explicarlo de una forma mucho más evidente. Por así decirlo, ha sido una especie de confirmación de la tesis central del libro.
P: ¿De dónde surge esa tesis central y cómo ha sido todo el proceso de escritura?
R: Pues mira, ha pasado más de un año desde que comencé. De hecho, una cosa que cuento es que el libro ha pasado por dos elecciones generales, no sé cuántas investiduras fallidas y una pandemia mundial. Todo eso, teniendo en cuenta mi trabajo como periodista, me ha tenido trabajando a dos velocidades: mirando al futuro por un lado pero también muy pendiente del presente. En ese estado me he dado cuenta de hasta qué punto la propia actualidad no para de dejarnos muchas claves que nos avisan de que vivimos en un mundo de una incertidumbre asombrosa, pero que ya existía antes de que llegara la covid-19. No se trata de algo nuevo que nos haya caído de golpe con la pandemia. Está por todas partes. A día de hoy no sabemos absolutamente nada de lo que pasará la semana que viene. El mundo ha cambiado de manera radical, y eso nos viene generando desde hace mucho una sensación de malestar y de desorientación muy llamativa. Inevitablemente se nos vienen a la cabeza infinidad de cuestiones de difícil respuesta. ¿Qué mundo le estamos dejando a nuestros hijos?, por ejemplo. O cosas más concretas: ¿cómo serán los empleos del futuro? La gente que está entrando ahora en la universidad no puede saber ni siquiera cómo será el mundo cuando acabe sus estudios y entre en el mercado laboral. En realidad llevamos conviviendo con la incertidumbre bastante tiempo, porque se trata de algo que tiene mucho que ver con la velocidad a la que está cambiando la sociedad, de la mano de la tecnología. En esa dinámica tenemos que comprender que hay cambios que son muy esperanzadores y que hay otros que son más inquietantes, pero que no todo es blanco o negro. Por eso me pareció que sería buena idea ponerlos todos juntos, para evitar una visión sesgada de cómo está cambiando el mundo. No tenemos que ser ni apocalípticos ni complacientes. Más bien hay que entender dónde están los riesgos y dónde las oportunidades.
P: En el libro dedicas bastantes páginas a hablar de cómo está afectando la tecnología a los empleos, de hecho.
R: Sí. Sobre todo me di cuenta durante la promoción de El fin del mundo tal y como lo conocemos —su obra anterior—. A medida que daba charlas y tenía encuentros con los lectores, ya fueran consejeros delegados de compañías del Ibex o estudiantes de cuarto de la ESO, a todos lo que más interesaba era el futuro del empleo. A todos, daba igual qué franja de edad. Incluso también a los jubilados, que se preocupaban del futuro de sus nietos. Y hay algo que sabemos seguro del empleo: que va a haber que adaptarse muy deprisa. Las facetas más rutinarias de los trabajos van a ir cayendo poco a poco en manos de los algoritmos, porque los algoritmos son mejores que los humanos sistematizando rutinas. Tanto físicas como intelectuales. Todo lo que sea una rutina tarde o temprano se automatizará. ¿Y qué nos quedará entonces a nosotros? Pues lo imprevisible. La vida está llena de cosas que no se pueden prever. Así que me puse a buscar y me dediqué muchos meses a entrevistar a personajes de lo más variopintos: desde astrofísicos hasta pizzeros. Todos me han explicado situaciones de la vida cotidiana que no se pueden automatizar. Y realmente son muchas. Pero también es importante tener presente las que sí, porque esas son las que van a estar en manos de los robots más pronto que tarde. En lo que quiero insistir es en que no se trata de una mala noticia, siempre y cuando a las personas se las dote de las herramientas suficientes para poder adaptarse a los cambios que vendrán.
P: ¿Cómo habría que enfocar la educación entonces, si queremos adaptarnos a esta nueva realidad?
R: Buen, esa es una pregunta complejísima. Yo no tengo que darle lecciones a nadie, ni tengo la receta perfecta de la educación para el futuro. Sí que podemos atinar más si tratamos de definir lo que no debería ser. Porque es mucho más fácil estar seguros de lo que ya no nos sirve en la educación. Y no nos sirven estructuras del siglo XX, pensadas para un mundo previsible. Antes se podía estudiar una carrera y pasarse toda la vida en la misma empresa haciendo lo mismo todo el rato. Sí que cambiaba la tecnología, obviamente, pero no cambiaban los procesos. Igual cambiaba que en vez de tener que utilizar una máquina de escribir había que aprender a utilizar un ordenador. Pero es que ahora es el proceso el que cambia. Cambia todo. Y a eso no hay que tenerle miedo. Lo que es necesario es conocerlo, y tener una educación mucho más intuitiva, que fomente esa capacidad de adaptación. Una educación enfocada en enseñar a resolver problemas. Porque eso es algo que va a seguir definiendo a los humanos. Si algo no cambia es que los humanos nos dedicamos a crear y a resolver problemas todo el rato. En todas las épocas ha sido así. Nunca hemos llegado a un momento de la historia de la humanidad en el que digamos: "Ya está, ya tenemos el mundo perfecto, podemos disfrutarlo". Siempre lo queremos mejorar. Siempre nos preocupa dejarle un mundo mejor a nuestros hijos. Las máquinas no tienen hijos, sin embargo. En ese sentido, mi opinión es que va a hacer falta que las humanidades tengan más presencia en el mundo tecnológico. Ahora, para entendernos, la tecnología es el nuevo inglés. Sirve para todo. Si quieres trabajar de cualquier cosa, debes saber que todo va a estar automatizado. Por eso, precisamente, porque vamos encaminados a un mundo absolutamente tecnológico, es necesario comprenderlo. Esa división entre ciencias y letras es totalmente artificial y no se corresponde con el mundo actual. En los laboratorios de Inteligencia Artificial, donde se están diseñando por ejemplo los coches autónomos del futuro, ya tienen a filósofos trabajando, a lingüistas, a psicólogos. Está habiendo una convergencia de las humanidades y de la tecnología. Se trata de una realidad cada vez más evidente, que las empresas se están empezando a tomar en serio, pero de la que parece que en los colegios no se han enterado todavía. Al final, también, lo que va a terminar pasando es que vamos a dejar de ver a los robots como una amenaza que nos quita el trabajo y vamos a comenzar a verlos como una compañía. Por eso hay que introducir la tecnología en la enseñanza, pero no sólo como una herramienta, sino también como un fin. ¿Cómo diseñar esa tecnología? ¿Cómo mejorarla? Que no haya una brecha enorme entre el tipo de talento que sale de los centros educativos y lo que realmente necesita la sociedad. Por concluir, más que a la robotización, yo creo que a lo que hay que temer es a la falta de preparación tecnológica para adaptarse a ella.
P: ¿Hasta qué punto es problemático ese abismo que parece existir entre el avance vertiginoso de la tecnología y la adaptación que viene detrás, mucho más lenta, de la legislación humana? También hay algunos que señalan el problema de que ese avance tecnológico se distancie cada vez más de la evolución en el debate ético, también mucho más lento y reposado de por sí.
R: A ver, la legislación siempre ha ido por detrás en estas cosas. Es lógico, por otra parte. Siempre va a haber que ajustar las leyes a los diversos cambios sociales que se vayan produciendo. Aunque también es verdad que ahora, como el cambio va más deprisa, el desafío es mayor. Por otro lado, además, la sensación de vértigo por el avance tecnológico tiene mucho que ver, no ya sólo con su velocidad, sino con que podamos seguirlo prácticamente en tiempo real. Ese también fue un cambio enorme: de vivir en un mundo sin electricidad a vivir en un mundo con electricidad, las diferencias fueron increíbles. Durante todo el siglo XX se han ido sucediendo una serie de cambios enormes, lo que pasa es que antes tardaban más en implantarse, y también tardaba más en llegar la información. Ahora sin embargo todo es mucho más instantáneo. Eso da mucho vértigo. Es llamativo a ese respecto que, viviendo rodeados de tanta información, el mundo se esté polarizando como lo está haciendo. La gente se siente tan desorientada y recibe tantos estímulos que prefiere simplificar la realidad y reafirmar sus prejuicios para tener alguna certeza a la que poder aferrarse. Y claro, en todo esto hay todavía un sistema, tanto legislativo como social, que está pensado con corsés del siglo XX y que no se adapta a este mundo conectado actual. Efectivamente, hay que repensarlo todo muy bien. La Inteligencia Artificial, que aspira a automatizarlo casi todo, todavía no se comprende bien. Fíjate que ni la ciencia ni la tecnología están todo lo presentes que deberían en el Congreso, para que los legisladores conozcan los retos a los que nos enfrentamos. En Lo imprevisible trato de esbozar algunos de esos cambios que son accesibles a todo el mundo para señalar que esto afecta a todo: a la educación, que comentábamos antes, a la salud, al empleo, a las relaciones humanas y familiares… Hasta la manera que tenemos de tener hijos, vamos. Al final cada vez hay algoritmos para más cosas, pero lo que hace falta es que sean transparentes, porque también es necesario que sean sometidos al escrutinio público y legal.
P: El vértigo también viene un poco de la sensación de que el cambio que viene es inevitable y de que poco podemos hacer para ralentizarlo.
R: Bueno es que, si te fijas, en realidad siempre ha habido que adaptarse a los cambios del mundo. Lo que pasa es que ahora me parece que estamos cayendo en una mitificación del algoritmo hasta el punto de que tememos más, de manera hipotética y futurista, que las máquinas lleguen a controlar el mundo, que a los humanos que las están controlando ahora mismo. Creo que esa es la clave. Las prioridades no las marca ningún robot, sino que están en manos de los políticos, de la sociedad civil, de las empresas. Es en los humanos en los que tenemos que poner el centro. Por eso hablo del factor humano en la era de los algoritmos, porque las máquinas no deciden qué está bien y qué está mal. Eso lo vamos a decidir las personas. Y lógicamente, si la gente de a pie no entiende qué nos estamos jugando, es más fácil que perdamos el control de esta transformación. Yo, personalmente, creo que no hay motivos para temer a las máquinas ni al cambio que traen consigo. A lo que hay que tener miedo es a la ignorancia de cómo funcionan. Porque empezamos a tratar a la robotización como si fuese casi una superstición. Algo en lo que creer o no creer. Pero esto no funciona así. La robotización no es buena ni mala en sí misma; depende de cómo se gestione. Y ya sabemos cosas. No todo es incertidumbre. Sabemos que los países con más robotización y los que más apuestan por la tecnología en la enseñanza tienen menos paro. Tienen empleos de más calidad también. Es una certeza que ya sabemos. Los países donde las empresas están menos robotizadas pierden competitividad y empleo más fácilmente. Insisto en que hay que darle la vuelta al discurso. El enemigo no es la robotización. El enemigo es la falta de competencias en tecnología y la falta de apuesta por la innovación. Lo que pasa es que la innovación no puede dejarse a su antojo para que crezca como una planta salvaje. Hay que regarla, atenderla y darle forma, para que sirva a los objetivos que se marcan. Y esos objetivos no los marca ningún algoritmo. Los objetivos son sociales y políticos; debe elegirlos el conjunto de la sociedad. De ahí que también sea tan importante que la opinión pública esté al tanto de lo que pasa. Pensar precisamente en eso, en que hay preguntas fundamentales que se están quedando fuera del debate público, fue una de las cosas que me llevó a escribir Lo imprevisible. Y es una cosa que también se ha visto desgraciadamente en esta crisis del coronavirus. Estamos tan poco familiarizados con la ciencia que nos ha costado mucho creernos las advertencias de los expertos científicos. Ocurre con el cambio climático. Nos suena catastrofista y exagerado, cuando los avances de la ciencia están permitiendo prever una realidad que sí que es previsible. Tenemos que empezar a estar más familiarizados con la ciencia y a discernir sus mensajes como sociedad. Porque si las amenazas de las que nos hablan los científicos nos suenan ajenas y tendemos a transformarlas en una superstición, nos van a sorprender inevitablemente muchos más cambios que nos van a parecer imprevisibles, pero que no lo eran realmente.
P: A ese respecto, ¿hasta qué punto la globalización y la necesidad de desarrollar estrategias a largo plazo para adaptarnos a los cambios tecnológicos nos están llevando a un mundo de organismos internacionales, más que de gobiernos nacionales?
R: Esa es otra cuestión, claro. Estamos viviendo unos procesos que están poniendo eso de manifiesto. La pandemia actual es el ejemplo más evidente. Pero también en lo económico y en lo social. Y ahora mismo tenemos organismos internacionales que no tienen la suficiente capacidad legislativa, por lo que estamos tratando de gestionar grandes problemas globales con soluciones nacionales que que lo único que pueden intentar es ponerle puertas a un campo que les desborda completamente. Ese es un gran problema que tendremos que afrontar, porque también hay instituciones internacionales que han perdido en los últimos años credibilidad y legitimidad. Y tampoco se puede delegar a ciegas en organismos sobre los que no tenemos capacidad de voto y de elección directa los ciudadanos. Hay que repensar esas estructuras pero, desde luego, hace falta una gobernanza más global, más transparente, que ayude realmente a afrontar los desafíos que nos afectan a todos. Lo que señalas del largo plazo es importante también porque los gobiernos nacionales, con sus legislaturas cortas, no tienen incentivos para invertir recursos en tratar de buscar soluciones a problemas que pueden pasar dentro de diez, quince o veinte años. Sin embargo, por otro lado, hay ejemplos del problema contrario. China no es una democracia, por ejemplo. El Partido Comunista chino gobierna de manera autoritaria y puede elaborar planes a largo plazo sin preocuparse por perder el poder cada cuatro años, pero tampoco ha sabido controlar la pandemia. ¿Qué ha pasado ahí? Porque China tenía mejores tecnologías, mejores mecanismos y más experiencia para prevenir el coronavirus. Pero los indicios indican que al final, en contra de lo que se pensaba hace cuatro meses, las democracias han sido más efectivas controlando la pandemia. ¿Por qué? Pues porque han activado mecanismos pensando en el bienestar de sus ciudadanos, que es lo que termina marcando la diferencia. En China, si te fijas, lo que falló fue otra vez el factor humano. El miedo a activar las alarmas y a sufrir las represalias de los mandamases les hizo perder un tiempo precioso. Es como lo que pasó en Chernóbil o como lo que está pasando ahora con el vertido de petróleo en el río de Siberia. Eso demuestra la relevancia del factor humano. Al final, por muy perfecto que sea el mecanismo de prevención, si en última instancia va a ser un humano el que va a tener que estar vigilante, hay que tener en cuenta cuales son esos miedos que nos caracterizan, porque son factores de riesgo en caso de emergencia.
P: En el libro señalas que en algunos casos concretos los expertos no saben cómo han acertado los sistemas de Inteligencia Artificial utilizados para prever accidentes o crímenes. Se plantea el dilema de tener que fiarnos de las resoluciones de algo que ve más que nosotros, porque tiene muchos más datos y es capaz de cruzarlos mucho más rápido que el cerebro humano.
R: Claro. Lo que pasa es que eso es problemático también. Los algoritmos dependen de los hombres. Han sido diseñados por nosotros. Y tienen sesgos. Siempre hay que preguntarse quién los ha diseñado, o qué patrones siguen. Porque después surgen ejemplos como el que salió en el sistema judicial estadounidense, que se vio que el sistema de Inteligencia Artificial tenía sesgos racistas porque había aprendido de datos recabados durante muchísimo tiempo de su jurisprudencia. Abandonarse a la Inteligencia Artificial y aceptar las conclusiones que elabora por su cuenta sin replantearlas también es un error. Al final las máquinas tampoco saben lo que es bueno o malo. Esas son cuestiones subjetivas que llevan trayendo al ser humano de cabeza desde el inicio de los tiempos. No tiene sentido relegar en la Inteligencia Artificial esas cuestiones, cuando nosotros no hemos sido capaces de ponernos de acuerdo nunca sobre ellas. Luego, claro, sí, es cierto, algunos sistemas de PreCrimen, por utilizar la terminología de Minority Report, tienen un ratio de acierto de hasta el 80% y los científicos algunas veces no saben cómo han sido capaces de acertar. Y es muy gratificante saber que tenemos sistemas que aciertan tanto. Sin embargo, no tendríamos un microondas que sólo funcionase el ochenta por ciento de las veces. No permitiríamos que circulasen aviones que tienen un veinte por ciento de vuelos accidentados. ¿No estamos siendo demasiado benévolos con esta tecnología nueva, entonces? A lo mejor por fascinación. Pero son cuestiones que nos tenemos que plantear, porque al final los algoritmos no se diseñan solos. Y no se alimentan con datos neutros. Hay que saber cómo se hacen, para saber también si sus resoluciones son justas o no. Y eso nos lleva al debate acerca de la justicia y de lo que realmente es justo o no, que es algo que depende directamente de lo que decidamos los humanos. Al final, si nos gobernase una máquina que no sabemos cómo funciona estaríamos sometidos a una dictadura automática.
P: Claro. Reconozco que al final, leyendo tu libro, acabé elucubrando tonterías a lo loco y, precisamente pensando en este tema se me ocurrió, sin ningún tipo de fundamento científico, que para que un sistema de Inteligencia Artificial funcionase con una perfección absoluta necesitaría todos los datos del universo. Y ni siquiera eso sería suficiente, porque después también harían falta una serie de algoritmos para desentrañarlo todo. Sería como recrearlo todo otra vez en una especie de bucle infinito o de mapa borgiano.
R: Claro. Eso los científicos cuánticos lo plantean como un dilema pero no ya desde un punto de vista literario, como Borges, sino desde la física. La idea de que, claro, todo no se puede predecir porque no tenemos todos los datos. Pero es que también, la naturaleza caótica del universo hace imposible que esos datos lleguen a existir nunca.
P: Sobre ese tema, en el libro mencionas la paradoja de que evitar que suceda algo que se ha predicho varía los datos y, por lo tanto, el propio sistema de predicción terminaría anulándose a sí mismo. Yo me planteo sin embargo cómo ese sistema de predicción chocaría hasta cierto punto con la capacidad de aprendizaje del ser humano, que al fin y al cabo siempre se alimenta de sus errores.
R: Claro. Es que yo sostengo que Lo imprevisible no es un libro sobre el futuro, sino sobre el presente. Porque en realidad hablar de predicciones dice más del momento en el que han sido hechas que del futuro que pretenden desentrañar. Hacer una predicción en un momento determinado le da una forma concreta a ese presente. Los algoritmos que existen ya y que predicen qué puede ser un niño de mayor, en función de sus competencias, ¿en qué medida condicionan la vocación de ese niño? En realidad lo importante es el presente. Otro ejemplo: las aplicaciones para encontrar el amor. ¿Hasta qué punto te condiciona que el algoritmo te diga que eres compatible con una persona determinada? Hay estudios que demuestran que el hecho de que un algoritmo detecte un alto porcentaje de compatibilidad entre dos personas condiciona que la cita salga mejor que que si detecta que no hay compatibilidad. Al final son las profecías que se cumplen a sí mismas que ya veíamos desde la Ilíada y la Odisea. Lo que pasa es que ahora en lugar de ir a la cueva de la Sibila en Cumas nos vamos a un algoritmo.
P: Por ir acabando, ¿tienes algún otro proyecto de libro para seguir desentrañando el futuro?
R: Bueno, realmente ahora creo que, al menos yo, que soy periodista, tengo que centrarme en este presente tan convulso que estamos viviendo. Porque es que ya no es que no sepamos cómo va a ser el futuro, es que no sabemos cómo va a ser el presente. Estamos viviendo una serie de cambios muy profundos que creo que merecen toda la atención. La verdad es que en realidad a mí, más que el futuro, lo que me interesan son las transformaciones sociales, y ahora estamos viviendo en una especie de laboratorio. Tenemos que reinventar el presente, por lo que nada me puede interesar más en estos momentos.