entrevista | marta garcía aller

"Nos importa mucho más que nos den la razón que conocer la verdad"

  • La llegada de la pandemia vino a confirmar el mensaje de Marta García Aller: creemos que lo tenemos todo bajo control, pero en realidad danzamos en la incertidumbre. 'Lo imprevisible' (Planeta) intenta dar una respuesta a qué significa ser humano en la era de la automatización.

La periodista Marta García Aller.

La periodista Marta García Aller. / Carlos Ruiz

–”Ya no me va a costar convencer de que un espejismo tecnológico nos ha hecho creer que tenemos las cosas bajo control”, dice en la introducción de ‘Lo imprevisible’ (Planeta). Cualquier tiempo pasado será peor, pero el hombre contemporáneo es mucho más neurótico.

–En términos tecnológicos e incluso sanitarios, estamos a años luz de nuestros antepasados, como indica la esperanza de vida. Sí, hay casi tantos avances como catástrofes pero, en términos generales, es así. Me preguntan a menudo en qué época me gustaría vivir, y mi respuesta es siempre que en una con anestesia, por favor. Y eso, para empezar. Hay muchas cosas que damos por hechas, y tenemos un nivel de bienestar muy alto, pero también tenemos una gran sensación de incertidumbre porque, entre otras cosas, la aceleración de los cambios tecnológicos nos coloca en una situación de desconcierto. En esa típica pregunta de cómo cree la gente que van a vivir sus hijos la percepción es muy negativa. ¿Cómo puede combinarse, por ejemplo, el mayor avance tecnológico con la reducción de posibilidades laborales? Aquí habría que decir que la tecnología es una herramienta, pero no transforma unas políticas sociales: tenemos unas leyes y un sistema educativo y social del siglo XX que no sirven ante la automatización. Hay que repensar muchas cosas. Pero bueno, como dice Mary Beard en su testimonio en el libro: jamás ninguna generación ha dicho, “qué época más tranquila me ha tocado vivir”. Y luego cometemos una y otra vez los mismos errores, porque tenemos una gran capacidad de olvido... Nos enseñan Historia como una suma de gestas, cuando lo mismo tendrían que mostrarla a partir de errores garrafales.

–Y tanto. Estábamos a un chasquido de la inteligencia artificial y los hologramas y, de repente, no tenemos mascarillas. Vaya golpe de realidad, doloroso y bochornoso a la vez.

–Una gran lección para hacernos ver dónde estábamos poniendo las prioridades, y dónde habría que ponerlas. No vale de nada que gastes dinero y recursos y le des bombo a la alta definición de los selfies en un móvil, y tengas una sanidad y una educación cogidas con pinzas, que son los pilares que garantizan realmente iguales oportunidades y vida digna para todos. Pero eso no es decisión de ningún robot, como decía: eso es competencia humana.

–En ‘Lo imprevisible' reúne a filósofos, policías, niños pequeños, un ligón de Tinder... a Mary Beard. Qué colección.

–Un esfuerzo enorme. Mi intención era contar en qué nos diferenciamos de las máquinas y los robots, y en qué vamos a seguir diferenciándonos por muy sofisticada que sea la tecnología. Para saber cómo funcionamos, lo fascinantes y profundamente complejos que podemos llegar a ser, hacer falta hablar con expertos de todo tipo, de la educación, del mundo empresarial, de la filosofía y de la ciencia. No hay nada que pueda prever la estupidez. Tampoco, el humor.

–Tanto Mary Beard como el astrónomo Martin Rees acordaban que su mayor preocupación para el futuro inmediato no era la tecnología, sino el futuro de la democracia.

–Es que los dilemas que tenemos se van repitiendo a lo largo de la historia. Los humanos sí que somos previsibles como sociedad: nos preocupan las mismas cosas, básicamente, el bienestar de los hijos y el propio. Cuando hay miedo, se reacciona de forma diferente que cuando no lo hay. Hoy día, tenemos un gran umbral de incertidumbre, no conocemos bien las consecuencias de muchas cosas; para colmo, la desinformación está alcanzado grandes cotas, y es una amenaza para la democracia: esto ya se ha vivido en otras épocas, a través de otros medios. Algunas de las cosas que estamos viendo son calcadas a las que empezaron en el siglo XX con los autoritarismos.

"Tenemos unas leyes y un sistema social del siglo XX, no sirven para la automatización"

–Pero con el suculento añadido del uso torticero de las redes sociales.

–Esta misma semana, Facebook reconocía que tenía informes de cómo se viralizaban los bulos a través de los algoritmos de sus redes sociales, y que el efecto en la sociedad era que la polarizaba.

–Sorpresa.

–Sí, quién lo hubiera pensado. Claro, lo grave es que lo sabían, las empresas sabían que los algoritmos promueven la polarización social, y más, por ejemplo, cuanto más tiempo pases delante de una pantalla: porque conforme más tiempo pases delante de una pantalla, más posibilidad hay de que lo que ves, o lo que lees, termine dándote la razón, porque la plataforma te conoce más. Y nos importa muchísimo más que nos den la razón a que nos digan la verdad: es algo propio de la naturaleza humana, no es culpa de la máquina, pero la máquina lo explota, claro. Igual que cuando vamos a comprar comida exigimos que sea de buena calidad y nos quejamos cuando no, también deberíamos protestar ante algoritmos “de mala calidad”.

–Precisamente, en los momentos de incertidumbre es cuando tenemos una mayor necesidad de certezas. Y, ¿qué tenemos a cambio? Virales y bulos.

–Los titulares de los periódicos ya se hacen para captar la atención según los mismos parámetros. Además, yo te voy a informar de algo que te sorprenda, que te indigne: no te voy a hablar de ayuntamientos en los que haya, por ejemplo, cierto entendimiento político, porque lo que genera atención es el conflicto. Por eso es común que se sometan las noticias a cierta distorsión... Pero eso acrecienta el conflicto, y la polarización, y la manera de combatir esto, esta exaltación de la emoción es... educando a la audiencia.Si escuchamos un programa de radio malo, lo reconocemos enseguida: la radio lleva mucho con nosotros, pero aún somos bastante novatos con las nuevas tecnologías. Nos la cuelan porque creemos que controlamos más de lo que lo hacemos, caemos en los filtros y sesgos con los que se nos manipula... A medida que me he ido concienciado de esto, he ido cambiando mucho, por ejemplo, la manera de estar en las redes: he intentado ir ampliando mi burbuja, seguir a gente con la que no estoy de acuerdo. La burbuja anula el ponerte en el lugar del otro.

"Nos enseñan Historia como una suma de gestas, cuando tendría que ser a partir de errores garrafales"

–Pues la guinda a esto es la capacidad de atención: ¿va por 12 segundos? Vamos como hámsters, dice.

–¿Por qué el boom de Tik Tok, que los adultos hemos descubierto en el confinamiento? Porque, en efecto, sus lapsos son de ocho segundos. Y para la concentración, para desarrollar una línea de pensamiento, es importante que la cabeza no esté interrumpiéndose cada cinco minutos. Es muy difícil tener una visión tecnooptimista si no somos capaces de prestar veinte segundos de atención a una misma idea.

–Una de las cuestiones que desarrolla es que un algoritmo no puede saber qué es mejor o peor porque eso son conceptos humanos. Pero nosotros, para decidir, hacemos listas en binario (que muchas veces rompemos, de acuerdo).

–Claro: ese es el lujo humano. Pero a una máquina no se te ocurre ni por un momento darle lugar a lo imprevisible, que tu microondas haga lo que le parezca.

–No sé decir un porqué, pero veo perfectamente lógico que la risa sea la última frontera de la inteligencia artificial.

–Mucha de la gente con la que he hablado, que lleva 40 años en laboratorios haciendo cosas fascinantes y a la que hacemos mucho menos caso del que deberíamos, da igual que sea un neurocientífico que un astrofísico, todos comparten una cosa: su preocupación por dónde está el límite, porque todo esto, la biotecnología, etc., avanza muy deprisa. Es, realmente, el fin del mundo tal y como lo conocemos. Se está trabajando en cosas que no se sabe cuándo van a ser posibles, pero que con gran probabilidad vayan a serlo. ¿Podrás tener tus recuerdos en la nube en 2030, 2040? ¿Querrás que tus descendientes los conozcan?¿Poder acceder a tu abuela? He hablado con gente que dice no saber dónde está el límite, y cuando hablo con expertos en computación y lingüística que estudian cómo enseñar a los robots a entender chistes o rasgos humorísticos... lo que me encuentro es humildad total. “No somos capaces”, me dicen. Los progresos al respecto son mínimos: es como si hubieran conseguido subir a la copa de un árbol pero tuvieran que llegar a la Luna.

¿Podrás tener tus recuerdos en la nube en 2030, 2040? ¿Querrás que tus nietos los conozcan?

–¿Alguna pista de por qué es esto?

–Tiene que ver con cómo funcionamos los humanos: necesitan patrones y datos que conviertan en objetivable nuestro comportamiento. Eso es algo fácil de hacer con viajes y demás patrones previsibles, aunque antes hubieran resultado inimaginables. Pero nos pueden dar una lista de cien chistes y no nos pondremos de acuerdo en cuáles son los más graciosos: ¿cómo se lo enseñas al algoritmo? Hay algunos avances, por ejemplo: un robot puede reproducir las obras de grandes autores, como Rembradt; o descubrir, entre millones de escritos, cuál ha sido escrito por Shakespeare mejor que un humano, porque hay un patrón. O, entre millones de notas, cuáles han sido compuestas por Beethoven. Pero aunque le pongas millones de chistes y monólogos, es incapaz porque no entiende dos cosas fundamentales:la ironía y el contexto.

–Y luego está ese momento inquietante, que ya existe, en el que somos nosotros los que no entendemos el comportamiento (acertado) de los robots.

–Eso ocurre con los coches de conducción autónoma. En California tienen permiso de circulación porque necesitan muchísimas horas para adquirir pautas de circulación y reacción. ¿Cómo programar a un vehículo para hacer algo que hacemos por instinto? Reaccionas como buenamente puedes. Llegaba un momento, me decían en Silicon Valley, en el que los coches reaccionaban fuera de la programación pero... de la mejor manera posible, sin que los propios programadores encontraran una respuesta.

–Y luego está la carga moral.

–Una de las preguntas que surgen con el tema de los coches autónomos es de carácter ético: ¿cómo, ante un accidente, computan las vidas? ¿Dejamos que la máquina reaccione según el momento o con un protocolo universal y externo? Es una discusión filosófica entre el utilitarismo y los que dicen que no se puede categorizar la vida humana, por eso también hacen falta filósofos y sociólogos y humanistas en los departamentos de Inteligencia Artificial. A lo largo del siglo XX, se inventaron los semáforos y los pasos de cebra porque se vio que los necesitábamos: ahora necesitaremos un nuevo código de circulación.

–Otra de las preguntas a hacerse es cuánto de la era antes del coronavirus causará estupor. O lo mismo seguimos igual.

–Ojalá a partir de todo esto aprendemos cuáles son realmente las prioridades: lo primero, la tecnología donde ahora es más urgente, en la emergencia sanitaria, pero también en la educación, por ejemplo, porque ahí está realmente la igualdad de oportunidades. Pienso en la famosa gripe española, la epidemia de 1918 que se cargó a más gente que la I y la II Guerra Mundial ¡juntas!, y no hay una placa en ninguna ciudad que lo recuerde, ni se han puesto desde entonces medios para que no se repita.

–Es verdad lo que dice: después de todos los adelantos, viene una epidemia y la pasamos como en tiempos de Boccaccio.

–Por eso no entiendo, por ejemplo, la indignación con las app de seguimiento para impedir y rastrear contagios: ¡para una cosa que tenemos, además de la posibilidad de vacuna! Esta pandemia, además, ha sido invisible, pero no impredecible: se estaba viendo venir y se decía que era cada vez más inminente. Pero también son inminentes asuntos como la subida del nivel del mar o las sequías, o la deforestación, con muchas señales de alarma de las que los científicos también nos advierten. La clase política debería ser consciente de que no pedimos soluciones para esta legislatura, sino para el mañana.

Comentar

0 Comentarios

    Más comentarios