La Inteligencia Artificial (IA) está desafiando la integridad de los procesos judiciales: cada vez es más sencillo generar audios, vídeos y mensajes falsos con un nivel de realismo que pone en duda la fiabilidad de las pruebas digitales. Según expertos forenses, “ni jueces ni abogados pueden confiar en una grabación sin un análisis técnico forense”.
Deepfakes en los tribunales: un riesgo creciente
En España, se alerta de que los deepfakes — contenidos generados con IA — pueden inducir a error incluso a profesionales jurídicos. Juristas señalan que estos materiales pueden presentarse como prueba en cualquier tipo de procedimiento judicial, desde procesos penales hasta civiles, y con una calidad que dificulta su detección sin recursos técnicos especializados.
Actualmente, las pericias informáticas pueden detectar manipulaciones con un grado de fiabilidad del 85 % al 90 %, aunque existe un margen de error que puede comprometer casos especialmente sensibles.
El magistrado Joaquín Delgado, de la Audiencia Nacional, ha advertido públicamente que la IA puede utilizarse para fabricar pruebas falsas y que ya se han detectado intentos de introducir este tipo de contenidos en causas reales.
La “duda artificial”: estrategia de defensa
Otro fenómeno preocupante es el uso defensivo de la inteligencia artificial por parte de acusados, quienes afirman que grabaciones auténticas fueron generadas mediante herramientas de IA. Esta estrategia, conocida como “escudo de la duda artificial”, debilita la autoridad de la prueba electrónica y obliga a las partes a incurrir en elevados costes periciales para confirmar su autenticidad.
Normativa desactualizada y vacíos legales
Las leyes procesales vigentes no han evolucionado al mismo ritmo que la tecnología. Aunque el Código Penal contempla figuras como la estafa procesal, los operadores jurídicos advierten que estas no son suficientes para sancionar adecuadamente las conductas relacionadas con el uso de IA en la manipulación de pruebas.
El magistrado Alfonso Peralta Gutiérrez señala que existe una evidente laguna legislativa y que “urge actualizar tanto el marco penal como las leyes procesales para que los jueces puedan actuar con eficacia frente a este tipo de engaños”.
Propuestas de solución
Expertos proponen las siguientes medidas para paliar estos riesgos:
- Incorporación de peritos informáticos adscritos a los juzgados, con capacidad para evaluar en tiempo real la autenticidad de las pruebas digitales.
- Creación de un registro nacional de pruebas audiovisuales verificadas, que permita agilizar la contrastación de contenidos previamente analizados.
- Formación continua para jueces y abogados en nuevas tecnologías, con el fin de que puedan identificar patrones de manipulación o comportamientos sospechosos en las pruebas presentadas.
Conclusión
La irrupción de la IA en el ámbito judicial plantea un reto urgente: proteger el derecho fundamental a un juicio justo. La sofisticación de los deepfakes y la falta de una regulación específica debilitan la confianza en las pruebas digitales y exigen reformas legislativas y organizativas inmediatas. Solo mediante una respuesta integral se podrá garantizar la seguridad jurídica en esta nueva era tecnológica.