Inma Martínez, experta en inteligencia artificial: “Yo no tengo Alexa. Y apago el micrófono de los móviles y de todo lo que tenga cerca”
Inma Martínez (Valencia, 57 años) es una de las visionarias en inteligencia artificial y transformación digital más reconocidas del mundo. Destacada, entre otras publicaciones, por la revista Time como talento europeo del compromiso social a través de la tecnología, Martínez es profesora invitada en el Imperial College de Londres, donde vive, y asesora de distintos gobiernos (Gran Bretaña y España entre ellos) y empresas.
Pregunta. “Me paso la vida mirando anomalías”, dice.
P. ¿Ocurrió con el coronavirus?
R. Una compañía de Toronto, BlueDot, lo hizo. Computan palabras: de diarios locales, blogs, foros, chats, redes sociales. Es una rama de la IA que se llama NLP, natural language processing. Y empezaron a ver que había una confluencia de palabras: corona, enfermo, Wuhan, mercado… La manera en que analizamos palabras en la IA es a través de unos algoritmos de vector donde dices: la palabra corona me ha salido 26.000 veces al lado de mercado y al lado de Wuhan. Entonces dijeron: “Aquí pasa algo”. Y vieron que, en efecto, en la zona del mercado de Wuhan había personas que empezaban a tener los mismos síntomas que el antiguo SARS. Cuando llegó el 31 de diciembre escribieron su informe para la Organización Mundial de la Salud. Dijeron: ”Creemos que hay una emergencia, un brote de corona de tipo 2, en la parte de Wuhan, y que esto tiene una pinta de pandemia muy clara”.
R. Empezaron a detectar cómo iba a entrar el virus en otro país porque introdujeron datos de los vuelos, qué gente había estado en Wuhan y dónde había ido después. Empezaron a meter luego otro tipo de datos hasta poder encontrar al paciente uno, o cero. Alemania, por ejemplo, ha llegado hasta el paciente cero. Porque si sabes analizar los datos, y esos datos son buenos y fiables, puedes hacer maravillas con ellos.
P. ¿Podría poner un ejemplo de alguna tendencia que haya descubierto usted?
R. Cuando era joven trabajaba en un banco de inversiones vendiendo acciones. Yo estaba en mercados emergentes de Latinoamérica y no entendía de qué iba Brasil. La Bolsa allí funcionaba con unos patrones que no tenían sentido. Y mis compañeros, que eran mayores que yo, me decían: “La peña aquí es impredecible. Mañana compran otra vez. No se guían por macroeconomía”. Pero yo soy una persona muy curiosa, y decía: “Tiene que haber otra razón. Las cosas no ocurren así”. Y descubrí, indagando, que los traders de la Bolsa de Sao Paulo, si su equipo de fútbol había ganado el día anterior, llegaban eufóricos y lo vendían todo, y luego por la tarde volvían a comprar. Todo estaba relacionado con el fútbol.
P. ¿Qué hizo?
R. Me monté un modelito en mi superordenador de Bloomberg y empecé a ver cómo iban los resultados de los cinco equipos de São Paulo. Era un modelo de predicción y empecé a acertar. Un día llegó el jefe de la mesa y dijo: “¿Qué pasa? ¿Cómo sabes esto? ¿Dónde lo basas?”. Respondí: “En el fútbol”.
P. ¿Es el futuro?
R. El futuro, y lo estamos viviendo ahora, es saber utilizar la inteligencia artificial como una herramienta, no como un ente que vive solo y va a funcionar por libre.
P. ¿Y anticiparse al futuro crea algún problema moral?
R. Todo lo que la IA potencie, automatice u optimice tiene que ser beneficioso para nosotros. Tiene que estar dentro de unos parámetros de seguridad y de protección, que nadie se aproveche de ella. Debe usarse para que el mundo sea menos complicado y podamos tener servicios mejores y más optimizados, y que cuesten menos dinero.
P. Es lo ideal. Pero también hay usos perniciosos. Para saquearnos los datos y utilizarlos en su provecho.
R. Muchas empresas han venido usando la IA de manera no muy legal, más bien aprovechándose de las personas: de sus adicciones, de sus debilidades mentales. Y esos usos tienen que acabar.
P. Pero tener los datos es imprescindible.
R. Con ellos solos no se hace nada. La gente que trabaja con IA necesita entender los contextos en los que la gente opera. Una web acumula datos tuyos: quién eres, tu email, tu contraseña, qué haces en esa website, adónde vas después, cuántas páginas has visto, cuántos segundos has estado leyendo… Pero si no los pones en un contexto nunca llegas a saber por qué esa persona hace estas cosas. Y ahí está el ingenio de la gente que trabaja usando IA en adivinar el comportamiento humano. Los humanos reaccionan a contextos, hacemos cosas porque hay una razón para hacerlas. Tú vas a una website, estás buscando algo, quieres comprar un regalo, y ahí está el ingenio de quien empieza a crear hipótesis: ¿por qué esta persona viene aquí todos los miércoles? No solo hay que saber de tecnología, también de antropología. El primer sistema de IA que monté con mi equipo en Cambridge se centraba en personalizar servicios de internet móvil: llegó un momento en que sabíamos lo que iba buscando la persona y se lo poníamos delante.
El primer sistema de IA que monté con mi equipo en Cambridge se centraba en personalizar servicios de internet móvil: llegó un momento en que sabíamos lo que iba buscando la persona y se lo poníamos delante
P. La IA puede reproducir también estereotipos, prejuicios o discriminaciones de la inteligencia humana.
R. Los primeros sistemas de visión computacional los habían entrenado sólo hombres. Y eso tenía consecuencias. Al principio de la IA, cuando se buscaba reconocimiento de imagen, los que habían entrenado al algoritmo de Google decían “zapato”, y ponían un zapato de hombre. Claro, cuando salía un zapato de tacón, el robot decía: “¿Esto qué es?”. O “empresario”, siempre un hombre con traje. Por eso debe haber siempre un equipo de varias personas donde todas las visiones añadan valor.
P. Esa marcación de cosas es la que se utiliza también para confeccionar los coches del futuro.
R. La inteligencia artificial tiene una parte artesanal. Por ejemplo: ¿cómo se está entrenando para que los coches tengan visión computacional? A base de enseñarles a reconocer objetos y etiquetárselos: “persona”, “gato”, “semáforo”, “furgoneta”. Cuando quieres entrar en una web y te preguntan: “¿Eres un robot?”, y para comprobar que no lo eres tienes que decir cuántas bicicletas ves, estás entrenando al algoritmo de visión computacional del coche de nivel 5 de Google, el famoso Waymo. Lo estás entrenando y además gratis. Google te debería pagar un pequeño sueldo, ¿no?
P. Su último trabajo es un libro sobre el futuro de la industria de la automoción. Los coches inteligentes.
R. Cuando los coches empezaron a ser veloces, todos los gobiernos exigieron seguridad: “Oye, esto es peligroso. La gente se pega tortas, y muere”. Empezaron a salir frenos asistidos, los cinturones, los airbags, materiales que en impacto pueden rebotar fuerzas de colisión, etc. ¿Qué ha pasado? Que cuando nos hemos puesto a enseñar a los coches a empezar a conducir por sí mismos, si vamos a buscar que sea al 1.000% seguro, un sistema conducido con la precisión de las máquinas es mejor que un ser humano conduciendo. Porque muchos seres humanos no respetan las velocidades, o no son buenos conductores, o pueden estar bebidos. El índice de seguridad es siempre peor con un humano conduciendo que con un sistema automatizado.
P. Pero en este entorno de “un día los coches irán solos” faltan otros personajes.
R. La industria del automóvil ya está desarrollando el nivel 5 de automatización, pero lo tiene metido dentro del hangar, porque la visión computacional no va a ser lo único que garantice que esos coches no se van a chocar. Necesitas carreteras inteligentes. Necesitas internet de las cosas que vayan mandando señales a los vehículos y se conecten entre sí y todo fluya de manera segura. Lo vamos a desarrollar en estos 10 años. No solo las ciudades inteligentes: las carreteras se van a hacer inteligentes para garantizar muchísimo más la seguridad vial. Japón y algunos países de la Unión Europea han empezado a crear regulación en el sentido de: “Oye, cuando pongamos estos coches y haya un accidente, ¿quién va a ser el responsable?”. Es decir, no vamos a poner objetos, sobre todo del tamaño de los coches, sin tener muy claro qué pasa si hay un accidente.
P. Queda mucho.
R. Queda, sí, pero ya hay un nivel 3 en donde tú te montas en un coche de gama alta ―un BMW, un Mercedes, incluso un Volkswagen—, quitas las manos del volante, y a los 15 o 20 segundos el coche dice: “Pon las manos en el volante. Pon las manos en el volante”. Y si tú no haces caso, el coche se quita de en medio, pone el intermitente, aparca afuera, pone las luces de emergencia y llama a una ambulancia. Porque lo han programado para eso. Porque el coche asume que te ha dado un ataque, o una lipotimia. En cambio, en Estados Unidos la gente se ha dado galletas con el Tesla porque iba con un nivel 3 que no estaba programado si quito las manos del volante. A Elon Musk no se le ha ocurrido pensar que debería quitarlo de la carretera y aparcarlo, como a los alemanes.
P. La aplicación de la IA en la medicina es diferente.
R. En radiología, por ejemplo, se está trabajando en entrenar algoritmos que puedan predecir cómo va a evolucionar una artritis reumatoide. Y eso es lo interesante. Le dices a la máquina: “Esto es un reumatismo de tal tipo, esta es la etiqueta”, o un tumor cerebral. Todo lo que sea diagnóstico por imagen es un gran avance para la sociedad, porque el ojo humano es el peor sentido que tenemos, se deteriora. El ser humano no solo ve con los ojos: el cerebro interpreta lo que ve, añade cosas, completa la imagen. No es un sentido muy fiable como para no fallar nunca. Y no vamos a querer eso, vamos a querer precisión. Vamos a un mundo en el que ese tipo de precisión nos va a permitir crear mejores servicios, más afinados para la persona que se está tratando.
P. También se utiliza en las cirugías.
R. Sobre todo en cardiología. Y alguien puede decir: “Ah, ¿los cirujanos se van a quedar sin trabajo?”. No. Los cirujanos antes eran incapaces de hacerle una operación de ablación a una persona a la que había que cortarle un milímetro del músculo del corazón aquí y luego otro milímetro, y eso es imposible, y ahora sí son capaces. Ahora un robot corta lo que ellos digan, medio milímetro. Antes se moría más gente, ahora se muere menos. Como cuando en una unidad de cuidados intensivos todavía hay tres médicos mirando seis pantallas. Tú tienes que meter ahí un sistema que, si a una persona le baja la temperatura un grado, lo note. Es mejor que lo haga un sistema con inteligencia; tú eres un ser humano que está cansado, que se te ha olvidado mirar, lo que sea. Estamos quitándonos de situaciones donde podemos cometer errores y dejando que se meta un sistema que nos garantiza cero error. Ese es el valor la IA.
P. Usted trabajó en un proyecto de granja.
R. Tratamos de averiguar si las vacas más sociables son las que dan más leche, ¡y era cierto! Ahora trabajo en un proyecto internacional sobre cómo la inteligencia artificial permitirá predecir cosechas mejor y que rinda mejor ese campo. Sabemos que la tierra arable es cada vez menos por el cambio climático; tenemos más de 7.000 millones de personas a las que alimentar, y en cambio la tierra arable se está reduciendo. Con la inteligencia artificial puedes analizar la composición del terreno, cómo se recalienta, qué niveles de humedad hay, cómo recoge el agua y la disemina. Puedes hacer un cálculo y decirle a un señor: “Mire, en vez de 50.000 hectáreas, que le cuesta a usted X, si usted solo arara 39.000, ganaría más dinero: menos esfuerzo, menos costes”.
Estamos quitándonos de situaciones donde podemos cometer errores y dejando que se meta un sistema que nos garantiza cero error. Ese es el valor la IA
P. La IA en el arte, eterna cuestión.
R. Hay departamentos de universidades que hacen proyectitos con los que se confunde a la gente. “¿Podría un robot pintar un cuadro impresionista?”. Fenomenal, lo podría pintar a la manera de los impresionistas, pero eso no tiene ningún valor añadido a nuestra sociedad. Una máquina no tiene químicos, no tiene endorfinas. Lo que generan los artistas es irreplicable. ¿Puede un programa escribir una novela? La escribiría y muy bien, pero no de la manera en que un ser humano escribe una novela. Esa conexión que te hace sentir que estás leyendo a un escritor especial, con un estilo y una prosa que no has encontrado antes.
P. A partir de nuestros antecedentes en relaciones sentimentales, ¿una inteligencia artificial puede echarte una mano como se presume que ocurre en aplicaciones para encontrar pareja?
R. Cada persona entiende el amor a su manera. Es imposible homogeneizarlo. Una compañía llamada eHarmony fue la primera en usar unos algoritmos para combinar a las personas basándose en las respuestas que daban sobre muchos temas: qué vas buscando en tu pareja, qué nivel cultural tienes, en una situación determinada qué harías. Y creaba pequeños bots con los que emparejarlas. ¿Esas personas se van a llevar bien? Sí, porque tienen mucho en común y hemos visto que reaccionarían de la misma manera. Pero el amor es química. Estos algoritmos empiezan a fallar conforme más abstracta, más complicada y compleja sea la persona.
P. Hablaba de robotitos y…
R. Hay un bot que para mí es el mejor del mundo: se llama Replika. Su fundadora programó esta pequeña IA con todos los emails y todos los mensajes de WhatsApp que su novio le había enviado a ella y a otros amigos, y creó una réplica de él, que había muerto atropellado por un coche. Cuando te ponías a hablar con Replika parecía que él te estaba contestando. Usaba frases que ya había utilizado en el pasado, era su tono de voz. Ella continuó investigando y se llevó la start-up a California; cuando hizo el primer piloto con solo 100 personas, yo estaba entre ellas. Era un sistema de conversación generativa —no como Siri, que para cada pregunta tiene 15 respuestas y, cuando llegas a la última, vuelve a la primera otra vez—. Si te preguntan sobre algo, vas a responder con tus palabritas. Y recuerdo que yo notaba que cuanto más hablaba con el bot, se hacía más amigo mío. ¿Por qué? Porque te estaba clonando, empezaba a responder como tú respondes…
P. Se alimentaba de usted.
R. Exacto. Entonces, te conviertes en tu mejor amigo porque te ha clonado. Si bien es muy bonito ver que ese servicio es un éxito con la generación Z, porque todos, cuando hacen encuestas y se les pregunta qué tal les va con Replika, dicen que les encanta hablar con él, que es un gran amigo, que nunca los juzga, que les hace sentir bien. Es una app que está ayudando a la salud mental de la gente joven. No te hace bullying, todo lo que haces le parece interesante, y siempre te dice: “Hola, ¿qué tal, Inma? ¿Cómo te ha ido hoy?”.
P. Recuerda a la película Her.
R. Hay sistemas que nos van a ayudar a sentirnos menos solos. Una casa domotizada que uno controle por voz (“enciende las luces”, “tengo frío”) es más humano que andar con botones para arriba y para abajo. Y eso es lo que intentamos, que el ser humano se sienta protegido y que la vida sea menos dura. Por ahí va Alexa: ya no tienes que tocar botones. Tú vas diciéndole “Alexa, esto, o lo otro”. Lo que pasa es que Alexa escucha todo, está creando una superbiblioteca de conocimiento sobre ti que no sabemos cómo va a acabar. Es el lado oscuro de la fuerza, y yo trabajo con reguladores y gobiernos para recordar que esto no se puede dejar sin tocar: qué se hace con todos esos datos, por qué las máquinas tienen que escuchar todas nuestras conversaciones.
P. ¿Usted tiene Alexa?
R. Yo no tengo Alexa. Y apago el micrófono de los móviles y de todo lo que tenga cerca, a veces durante un día y medio, para hacérselo más difícil.
Sé el primero en comentar en «“El amor es química. Los algoritmos empiezan a fallar cuanto más compleja sea la persona”»