26.6 C
Miami
miércoles 9 de julio 2025
Image default
datos personalesestudiointeligencia artificiallimitacionesModelosTecnología

Estudio alerta sobre las limitaciones para eliminar datos personales en modelos de IA

Un estudio de la Universitat Rovira i Virgili (URV) de Tarragona (España) evidencia las limitaciones del desaprendizaje en modelos de inteligencia artificial (IA) y advierte de la necesidad de desarrollar nuevos métodos que permitan eliminar con garantías datos sensibles o personales.

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot, que tienen como objetivo eliminar información personal, incorrecta o discriminatoria de los sistemas, y concluyen que no existe una fórmula que asegure el olvido total de los datos, salvo volver a entrenar el modelo desde cero sin la información que se desea eliminar.

Según los autores del estudio, esto entra en conflicto con el derecho al olvido, recogido en el Reglamento General de Protección de Datos de la Unión Europea, que obliga a suprimir los datos personales si así lo solicita el interesado.

Seis claves para obtener respuestas acertadas de la IA
Foto: Unsplash

Las grandes compañías que gestionan estos modelos de IA entrenan sus sistemas con enormes volúmenes de información para mejorar su rendimiento, lo que dificulta la identificación y eliminación selectiva de ciertos datos.

Sugieren nuevas formas de entrenar los modelos de IA

Los investigadores distinguen dos vías para lograr el desaprendizaje: la primera consiste en reentrenar completamente el modelo, pero implica un coste computacional elevado; mientras que la segunda, más eficiente, busca eliminar solo partes concretas de conocimiento sin rehacer el sistema desde cero, aunque no ofrece garantías plenas.

Además, los investigadores apuntan que no se conoce con precisión cómo se almacena la información en los modelos, ni siquiera por parte de quienes los desarrollan.

El estudio concluye que será necesario diseñar nuevas formas de entrenar los modelos de IA pensando desde el inicio en el desaprendizaje, como fragmentar datos de manera que se puedan suprimir partes concretas del conocimiento sin comprometer la totalidad del modelo ni su funcionalidad. 

“Este contenido incluye información suministrada por la Agencia EFE. Editado, verificado y contextualizado por el equipo editorial de El Diario. Conoce nuestra política sobre el uso de contenidos de EFE aquí.

La entrada Estudio alerta sobre las limitaciones para eliminar datos personales en modelos de IA se publicó primero en El Diario.

Related posts

Informe de la Unesco destaca el impacto ambiental de los grandes modelos de inteligencia artificial

VenezuelanTime

Apple integrará implantes cerebrales a sus dispositivos

VenezuelanTime

Expertos financieros revelan cómo usar ChatGPT para crear un negocio de seis cifras

VenezuelanTime