Carissa Véliz: "Estamos financiando Internet con la violación del derecho a la privacidad"
Entrevista
La profesora de la Universidad de Oxford pasó por Granada recientemente para hablar sobre Inteligencia Emocional y los riesgos que supone la Inteligencia Artificial
Nacida mexicana pero con la triple nacionalidad, mexicana, británica y española, Carissa Veliz es una autoridad mundial en el terreno de la privacidad en el mundo digital y la ética aplicada a la inteligencia artificial.
Profesora del Instituto de Ética de la Inteligencia Artificial de la Universidad de Oxford, ha sido miembro del Grupo de Expertos que ofreció asesoramiento para la Carta de Derechos Digitales del Ministerio de Economía y Transformación Digital de España. Testigo sobre libertad de expresión y políticas públicas para la Cámara de los Lores en Inglaterra, así como miembro del Grupo Asesor de Alto Nivel sobre Tecnología y Orden Global del Ministerio de Asuntos Exteriores de España.
Trabaja en privacidad y tecnología, filosofía moral y política y políticas públicas. Véliz ha publicado artículos en medios como El País, The guardian, The New York Times, New Statesman y The Independent. También ha publicado trabajos académico en la Harvard Business Review, Nature Electronics, Nature Energy y Bioethics, entre otras revistas. Es editora del próximo manual de ética digital de la Universidad de Oxford y autora del libro Privacidad es poder (Debate), seleccionado por The Economist como uno de los libros del año, y el primer libro que hace una llamada a poner fin al comercio de datos personales.
Hace dos semanas recalaba en Granada para impartir una conferencia sobre Inteligencia Emocional, con ese motivo concedía una entrevista a Granada Hoy, en la que alerta de los riesgos que comporta para los derechos de la ciudadanía, e incluso para la democracia, el desarrollo sin filtros de la IA y la digitalización sin ningún tipo de supervisión ni legislación que las controle.
¿En la Inteligencia Artificial es oro todo lo que reluce?
Hay muchas sombras sobre la Inteligencia Artificial. Los seres humanos tenemos la tendencia a ser muy optimistas y eso tiene sus ventajas, pero también sus desventajas. En el mundo de la tecnología tendemos a pensar que la tecnología va a funcionar de una manera perfecta en el mejor de los mundos posibles, pero rara vez es así y para evitar las peores consecuencias y los riesgos más graves, hay que tener a gente que se ponga a pensar qué puede salir mal, porque en la mayoría de los casos, algo a salir mal y eso es algo que ahora mismo no estamos haciendo. Cualquiera puede diseñar un algoritmo para hacer lo que sea y no se encuentra con ningún tipo de supervisión ni legislación que lo controle a día de hoy.
¿Qué puede salir mal?
Pues ni más, ni menos que nos carguemos la democracia y eso es algo que ya estamos viendo. En el caso de Cambridge Analytical, vimos como los datos personales se pueden utilizar para perfilar a los votantes y tratar de influir en el sentido de su voto, algo fundamental en elecciones que se ganan o se pierden por márgenes muy estrechos, lo que demuestra que es más que posible influir en los resultados electorales a través de la inteligencia artificial. Ahora estamos viendo con el chat GPT un auténtico desafío a muchas instituciones como las educativas, que se basan en el ensayo como medio fundamental para educar y calificar a los estudiantes. No sabemos muy bien como adaptar esas herramientas y no se nos ha dado tiempo de tener un debate público al respecto, ni poner reglas o pensar en alternativas, porque este tipo de avances se pueden utilizar en contra de la democracia de muchas maneras, pero sobre todo de dos, una la desinformación, que ya es un gravísimo problema que no estamos sabiendo controlar, con una herramienta como el chatGPT que puede desinformar a una escala planetaria con muy poco coste, es algo muy peligroso y en segundo lugar el enorme riesgo que posee para hacer lobby contra los políticos, remitiéndoles miles y miles de mensajes como si fueran de personas para que tomen una determinada postura, sin que esos políticos tengan medio de saber si esos mensajes son de votantes reales que les están escribiendo, o de un chat GPT que está intentando influir en la democracia.
¿Somos conscientes la ciudadanía del valor que tienen nuestros datos y del peligro que tiene que no cuidemos nuestra privacidad digital?
Absolutamente no. Y en parte eso ocurre por la naturaleza de lo digital. En el mundo analógico, cuando en una entrevista de trabajo tu entrevistador te preguntaba si pensabas tener hijos, estaba muy claro lo que podías perder en función de tu respuesta; hoy corres el mismo riesgo pero no te das cuenta; no sabes cuando esa empresa accedió a tus datos, no sabes como se están utilizando para saber cosas sobre ti y no te das cuenta que esos datos tuyos se han vendido a la empresa a la que pediste un empleo y que no te dio precisamente por esos datos tuyos que ya obran en su poder. Es muy fácil pensar que tus datos no leen nada, o valen muy poco y que por lo tanto no pasa nada si los pierdes, pero no es así porque existe la conexión entre las cosas malas que te pasan y los datos que perdiste o "regalaste". También creo que hemos perdido una conciencia política del lado más colectivo de la privacidad, porque la privacidad es tan colectiva como personal. Los datos se han utilizado en el pasado para perseguir a las personas, se utilizan para los mismos fines hoy y se pueden seguir utilizando en el futuro, con lo cual, si queremos defender nuestros estilos de vida liberales y democráticos, hay que tener mucha más conciencia sobre nuestra privacidad. Le preocupa la financiación de investigaciones sobre Inteligencia Artificial por parte de regímenes dictatoriales, donde no se respetan los más elementañes estándares democráticos
Eso me preocupa bastante. Lo que puede ocurrir en Granada con el ADIA Lab de Emiratos Árabes Unidos, es algo muy parecido a lo que está haciendo China con la exportación de muchas tecnologías. Supone que pongamos en sus manos datos muy sensibles, en lo personal y en lo político, además de otorgarle el poder de apagar sistemas en un momento dado en ciudades inteligentes. Si las dictaduras están exportando ese tipo de sistemas es porque les viene muy bien a esos regímenes, ya que las herramientas de vigilancia son herramientas de control, el deber de las democracias liberales es exportar privacidad, tanto en la tecnología que diseñamos como en la cultura y en estándares internacionales.
¿Es Europa subsidiaria en esta material de EEUU o de China con todo lo que ello supone?
Por supuesto. Consumimos muchísima tecnología que no hemos diseñado nosotros y eso es un riesgo. Europa es un caso muy interesante porque es la sede las instituciones que garantizan la protección de datos, lo que ha tenido un efecto brutal que ya conocemos como el "efecto Bruselas" y que no solo afecta al continente, sino que también ha mejorado esos estándares a nivel mundial. Eso es algo que nos protege frente a esa subsidiariedad tecnológica que otros diseñan y nos facilita un cierto poder de injerencia sobre como se diseñan esas tecnologías.
¿Somos conscientes de lo que puede haber detrás de un smartphone de última generación, o de otros avances tecnológicos?
Asumimos con demasiada naturalidad que la tecnología es buena per se y que siempre es progreso y eso depende. Hay veces que sí, que la tecnología es progreso, pero también las hay que puede ser un retroceso político y social. Si diseñamos un algoritmo que es racista y sexista, ya puede ser el algoritmo más puntero tecnológicamente del mundo, que eso seguirá siendo un retroceso social. Creo que hay que desafiar un poco la ideología "tecnooptimnista", porque está muy bien ser optimista y diseñar tecnología que mejore nuestra vida, pero siempre hay que pararse a pensar qué puede salir mal y sobre todo, diseñar con la ética en mente. La ética no puede ser algo en lo que pensar cuando ya tienes el producto, porque entonces ya es muy tarde y esa una tarea pendiente, ya que todavía no se diseña la tecnología desde la ética.
¿Nuestros jóvenes viven en un mundo virtual porque hemos descuidado el analógico?
La narrativa que nos venden las tecnológicas es que los jóvenes están en el mundo virtual porque es un mundo fantástico y maravilloso y hay veces que sí, que el mundo virtual puede ser un complemento importante para el mundo real, pero muchas otras veces si los jóvenes están en ese mundo virtual, es porque hemos descuidado el analógico, nuestros ambientes naturales y también algunas instituciones culturales y sociales, como los las cafeterías, los bares y los lugares de encuentro, que cuando cierran son muy difíciles de recuperar. Durante la pandemia hubo muchos factores que jugaron en nuestra contra y este fue uno de ellos.
¿Nuestro teléfono inteligente, nuestra casa domotizada o nuestro coche inteligente son espías de nuestra privacidad?
Es una relación curiosa. Antes éramos dueños de nuestros objetos y ahora parece que nuestros objetos son un poco dueños de nosotros, porque si tú los pagas se supone que hacen las cosas que tú les dices, pero también hacen muchas que tú no les dices. Tú no le has dicho a tu teléfono que recopile todos los datos que recopila y desde luego no le dices que los envíe a quien los envía, ni como se usan y son datos muy sensibles, como tu edad, tu dirección, quien es tu familia, quienes tus amigos, cual es tu orientación sexual, cuales tus tendencias políticas, que es lo que te preocupa, si tienes problemas de salud, qué has comprado, qué has buscado. Podemos pensar que esos datos nuestros no son importantes, pero si no lo fueran, las empresas no se gastarían tanto dinero en acceder a ellos. Tienes poder a través de lo que dices, de lo que piensas, de lo que votas, de lo que compras y también a través de como te conectas en el mundo. Eres el vecino, el hermano, el padre, el hijo, el amigo de alguien y por eso la privacidad es colectiva, porque nos conecta y si no protegemos nuestra propia privacidad, no estamos protegiendo a nuestra comunidad y a nuestra sociedad.
¿Nuestros datos son nuestros, pero no solo nuestros?
Exactamente. Cuando tú compartes tus datos genéticos, estás compartiendo datos de tus padres, de tus hermanos, incluso de primos lejanos, que pueden tener consecuencias graves para ellos, como por ejemplo ser deportados, sin que nunca hayan dado su consentimiento para que tu hayas compartido unos datos, aparentemente solo tuyos, pero que a ellos les pueden afectar directamente. Hoy internet es un espacio en el que un conglomerado de grandes tecnológicas, (Google, Amazon, Facebook, Apple, Netflix, Spotify), se disputan los datos personales de sus usuarios, en una dinámica que se ha bautizado como la economía de la atención.
Es importante asegurarnos que las generaciones presentes y futuras, tengan tanto derechos como los de las generaciones pasadas y hoy eso está en riesgo. Hoy por hoy la gente no tiene el derecho a la privacidad. Estamos financiando internet con un modelo de negocio que depende de la violación sistemática y masiva del derecho a la privacidad y eso no es normal ni aceptable y hay que cambiarlo cuanto antes.
También te puede interesar
Lo último
Contenido ofrecido por Caja Rural Granada
Contenido ofrecido por Aguasvira
Contenido ofrecido por Restalia