Los avances en inteligencia artificial, especialmente en la rama del aprendizaje automático, están desbocados. Dentro de la larga lista de aplicaciones recientes destacan el archiconocido ChatGPT o Gemini, que además de texto procesa imágenes, audio y vídeo. Para poner en marcha estos modelos se usan grandes cantidades de datos que, en ocasiones, son confidenciales. Un ejemplo es el caso de algoritmos que ayudan en el diagnóstico y tratamiento de enfermedades, que emplean datos médicos personales. Por ello, es fundamental encontrar formas de preservar la privacidad de los datos usados. Un reciente enfoque hace uso de conceptos matemáticos de la física cuántica para hacer frente a este reto.
En concreto, se trata de estudiar las simetrías que aparecen en los parámetros del modelo, es decir, en los números que lo configuran. Los algoritmos (o modelos) de inteligencia artificial son, al fin y al cabo, complejas funciones que procesan la información recibida para realizar una predicción. Estas funciones están definidas por unos números llamados parámetros —en el caso de ChatGPT, 220000 millones de ellos―, que determinan qué porciones de la información se procesa y con qué intensidad se hace. Por ejemplo, un modelo que anticipe el riesgo de padecer una enfermedad, r, a partir de la edad e, la altura a, y el peso p de cada persona, podría ser r = (x.e + y.a) / z.p. Este modelo cuenta con tres parámetros, x, y, y z, que determinan la intensidad con la que cada una de las variables de entrada —edad, altura y peso― influye en el riesgo; introduciendo los datos de un paciente concreto, el algoritmo hará la predicción sobre la posibilidad de que una persona con esas características desarrolle la enfermedad.
El valor de los parámetros se establece utilizando grandes conjuntos de datos de referencia, ya resueltos, para los cuales se conoce el resultado que se debería obtener. Este proceso es el llamado entrenamiento. En el ejemplo del modelo anterior, los datos de entrenamiento serían datos médicos de un amplio número de pacientes, con su correspondiente diagnóstico. Con ellos, se ajustan los parámetros para maximizar las predicciones correctas en la referencia.
Resulta, pues, que la selección de parámetros de un modelo depende de los datos utilizados para entrenarlo. Y, aunque, en teoría, el modelo solamente aprende patrones de los datos de entrenamiento, en la práctica aprenden mucho más. De hecho, varios científicos han advertido que los parámetros de estos algoritmos pueden indicar si un dato concreto formó parte de los datos que se usaron para entrenarlo, e incluso, en determinados casos, se pueden extraer de ellos los datos de entrenamiento completos.
En estas situaciones, una solución es construir otro modelo, con otros parámetros y con otros datos de entrenamiento, pero que para cada dato introducido haga exactamente la misma predicción que el original. Esta idea de “diferentes parámetros que describen el mismo modelo” corresponde a una entidad matemática precisa: se trata del concepto de simetría gauge.
Este término no tiene solo interés matemático, sino que es un elemento fundamental en varias áreas de la física, como la relatividad general, la física de partículas, o la mecánica cuántica. Ahora, un reciente trabajo ha demostrado que, efectivamente, si un algoritmo posee una de estas simetrías gauge, es posible construir otro que hará las mismas predicciones, cuyos parámetros no están relacionados con los datos utilizados para entrenar el modelo inicial. De esta manera, estudiar los parámetros no podrá revelar información acerca de los datos de entrenamiento.
Entonces, el reto es encontrar algoritmos de inteligencia artificial que posean simetrías gauge. Esto no es sencillo, porque en inteligencia artificial las simetrías son vistas como propiedades no deseadas, de las que hay que deshacerse. Sin embargo, en el campo de la física cuántica las simetrías gauge están muy presentes y han sido muy estudiadas. Concretamente, las redes tensoriales, que se utilizan en la simulación de sistemas cuánticos formados por muchas partículas, tienen este tipo de simetría. Además, estas redes permiten modelar sistemas muy complicados, de forma similar a los algoritmos de inteligencia artificial. Esto ha hecho que las redes tensoriales hayan empezado a ser usadas como algoritmos de inteligencia artificial hace unos pocos años.
De momento, el modelado realizado por las redes tensoriales aún no compite, en términos de calidad global, con el de otros algoritmos modernos más populares —basados en redes neuronales profundas, por ejemplo―. Sin embargo, han mostrado importantes ventajas, como la habilidad de entender qué factores están propiciando una predicción concreta. A estas virtudes ahora se añade otra, gracias a sus simetrías gauge: la protección de la privacidad de los datos usados durante el entrenamiento. Esto sitúa a las redes tensoriales como candidatas muy prometedoras para el desarrollo de inteligencias artificiales, e ilustra de una manera muy clara cómo ideas fundamentales en matemáticas y física cuántica pueden tener un impacto en tecnologías del día a día.
Fuente:https://elpais.com/ciencia/cafe-y-teoremas/2024-09-30/fisica-cuantica-para-proteger-la-privacidad-en-los-algoritmos-de-aprendizaje-automatico.html