La Policía Nacional ha optado por detener la utilización de Veripol, una tecnología de inteligencia artificial (IA) creada para identificar denuncias ficticias de robos violentos. Este sistema fue anunciado en 2018 como pionero a nivel global, con una efectividad superior al 90%. No obstante, su uso fue discontinuado en octubre de 2024 porque no cumplía con los requisitos exigidos para ser implementado en procesos legales, según informaron fuentes del Ministerio del Interior.
La Policía Nacional ha decidido suspender el uso de Veripol, una herramienta de inteligencia artificial (IA) diseñada para detectar denuncias falsas de robo con violencia. Esta IA fue presentada en 2018 como la primera en su tipo a nivel mundial, con una precisión superior al 90%. Sin embargo, su aplicación cesó en octubre de 2024 debido a que no cumplía con los estándares necesarios para ser utilizada en procedimientos judiciales, según fuentes del Ministerio del Interior.
El desarrollo de Veripol fue fruto del trabajo conjunto de investigadores de las universidades Complutense y Carlos III, en colaboración con el agente de policía Miguel Camacho-Collados. Para entrenar el algoritmo, se utilizaron 1.122 denuncias de robo en España, de las cuales 534 eran auténticas y 588 eran falsas. Los textos de estas denuncias fueron procesados mediante técnicas de procesamiento de lenguaje natural (NLP) para identificar patrones comunes en los relatos falsos. Así, se determinó que ciertos términos y expresiones, como «abogado», «seguro» o «espalda», estaban más asociados a las denuncias falsas.
Un problema destacado por los críticos ha sido la falta de transparencia relacionada con el funcionamiento interno de Veripol. Aunque fue implementado en múltiples comisarías, no se han divulgado datos oficiales sobre la cantidad de casos gestionados ni sobre el proceso de entrenamiento del sistema de IA. Además, los informes indican que los agentes encargados de utilizar la herramienta no siempre contaban con la formación necesaria para operarla de manera adecuada.
Uno de los puntos más problemáticos señalados por los críticos es la falta de transparencia en cuanto al funcionamiento interno de Veripol. Aunque el sistema se implementó en varias comisarías, no se han publicado datos oficiales sobre el número de casos procesados ni sobre cómo se entrenó la IA. Además, los informes apuntan que los agentes que utilizaban la herramienta no siempre recibían la formación adecuada para hacerlo correctamente.
Este caso subraya las tensiones existentes en el uso de tecnologías avanzadas en el ámbito judicial. Si bien las IA como Veripol tienen el potencial de mejorar la eficiencia en la detección de fraude, su uso debe estar sujeto a estrictas regulaciones y ser transparente, de modo que no se vean comprometidos los derechos fundamentales de los ciudadanos.
El debate sobre el uso de la inteligencia artificial en el ámbito judicial se intensificó en 2024 con la entrada en vigor del Reglamento Europeo sobre Inteligencia Artificial, que clasifica las tecnologías de IA como de «alto riesgo» y establece exigencias más estrictas en cuanto a su fiabilidad y transparencia. Los problemas de Veripol son un claro ejemplo de cómo, en su desarrollo y aplicación, estas herramientas deben ser sometidas a un escrutinio riguroso, no solo para asegurar su efectividad, sino también para evitar vulneraciones de derechos o errores judiciales.
Por lo tanto, la decisión de la Policía Nacional de dejar de utilizar Veripol refleja un reconocimiento de la necesidad de mejorar los métodos y protocolos de investigación en el ámbito de las denuncias falsas. A medida que la tecnología continúa avanzando, será esencial que las autoridades encuentren un equilibrio entre la innovación tecnológica y la protección de los derechos de los ciudadanos, garantizando que herramientas como Veripol sean utilizadas de manera ética y con una base de datos robusta y representativa.