Una mañana, un compañero de trabajo fue a una óptica en busca de unas gafas; una presbicia temprana lo había forzado a hacerlo. La dependienta le pidió su nombre, dirección y teléfono, pero la desconfianza en compartir datos personales le generó tal vértigo que decidió negarse.
—Sin esos datos no puedo vender, tengo que abrir la ficha de cliente —le explicó la dependienta.
Tras una tensa discusión, logró no dar la información, pagó sus gafas con la tarjeta de crédito y se marchó. No reparó en que la información que tan celosamente había custodiado le fue arrebatada con anterioridad por la empresa emisora de la tarjeta. No había aceptado los términos y condiciones de la óptica, pero, sin darse cuenta, había aceptado los términos y condiciones de un sistema que operaba de manera invisible. Los datos de su compra ya formaban parte de los más de 2.5 quintillones de bytes que se generan diariamente y que se utilizan en los modelos de inteligencia artificial.
No dejamos de suministrar información sobre nosotros mismos; lo hacemos cuando pagamos en un restaurante, cuando compramos gasolina o billetes de tren, avión o autobús, cuando contratamos un seguro, cuando consumimos gas o electricidad, cuando realizamos transferencias o consultamos el saldo de nuestra cuenta. Incluso lo hacemos con nuestros teléfonos móviles, que informan hasta de las horas que dormimos. Las plataformas digitales conocen nuestros gustos sobre cine y música, por no mencionar los datos que proporcionamos mediante los buscadores, redes sociales, compras en línea, cámaras de seguridad, lectores de matrículas, relojes inteligentes y un largo etcétera de actividades cotidianas por las que suministramos un flujo constante de interminable información.
El aumento cada vez mayor de estos datos digitales, así como de la potencia de procesamiento de los ordenadores, ha permitido la aparición de una inteligencia artificial muy cercana al usuario. Tanto es así, que ha generado cierta ansiedad sobre los peligros potenciales de la tecnología. Su finalidad es crear sistemas y algoritmos capaces de llevar a cabo tareas que normalmente requieren de la inteligencia humana. El Real Decreto 817/2023, de 8 de noviembre, por el que se establecen normas armonizadas en materia de inteligencia artificial, define el «sistema de inteligencia artificial» como aquel basado en «datos de entrada proporcionados por máquinas o por personas, para inferir objetivos utilizando técnicas de aprendizaje automático, las basadas en la lógica o el conocimiento; y de salida generar información, como contenidos, predicciones, recomendaciones o decisiones, que influyan en los entornos con los que interactúa». Dicho de otra forma, a partir de un conjunto de datos iniciales y aplicando una metodología específica, se generan nuevos datos que permiten obtener conclusiones.
Una de las técnicas utilizadas es el «aprendizaje automático» (Machine Learning), una tecnología basada en la estadística y en modelos matemáticos complejos que consiste en analizar datos históricos para identificar patrones y tendencias que posibiliten predecir comportamientos futuros. En resumen, el sistema aprende a hacer predicciones sobre nuevos datos que aún no ha procesado, enseñando a los ordenadores a realizar tareas por sí mismos.
De este modo, el Machine Learning, y en particular los nuevos «grandes modelos de lenguaje» (LLM, por sus siglas en inglés), son efectivos para predecir riesgos, incluido el riesgo tributario. Para ello, el modelo debería utilizar datos iniciales de personas o empresas que, en años anteriores, ya han pagado o dejado de pagar impuestos. Por ejemplo, los datos de los ingresos anuales, ventas, deudas anteriores, historial de pagos, tipo de negocio, etcétera. El algoritmo analiza datos históricos para identificar patrones que indiquen comportamientos; por ejemplo, puede detectar que las personas con bajos ingresos y deudas tienen mayor riesgo de no pagar, o que ciertos sectores o actividades tienen una mayor tendencia a incumplir. Con esta información, se evalúan los datos de una nueva persona o empresa y se predice si existe un riesgo de cometer fraude. Si el riesgo es alto, se pueden tomar medidas preventivas o ejercer un mayor control.
El fraude en el sector de los hidrocarburos, hasta ahora, ha sido facilitado por la rápida monetización de los combustibles y carburantes, lograda mediante una elevada rotación de los productos. El operador que defrauda consigue una rotación enorme cuando ofrece sus productos a un precio inferior al de sus competidores, y eso solo es posible si el operador no cumple con sus obligaciones relacionadas con la Hacienda Pública, las reservas estratégicas, los biocarburantes y las normas de eficiencia energética. Por ello, además de observar los comportamientos fácilmente identificables propios de los defraudadores, un sistema de Machine Learning debería utilizar todos los datos, históricos y de competidores, que permitan crear patrones que indiquen riesgo, como precios, márgenes, tipologías de clientes, proveedores y consumidores, formas de pago, histórico de administradores y personal, altas ventas sin justificación, incumplimiento de biocarburantes, eficiencia energética o reservas, entre otros. Esto significa que plataformas como las de PVP, CORES o SICBIOS deberían integrarse en el sistema de Machine Learning para comparar información facilitada por otros operadores, pero también revisando otras plataformas, redes y foros. Siempre que se respeten las políticas de privacidad, se debería observar información como comentarios, menciones a precios bajos u ofertas sospechosas.
En definitiva, no me refiero a la práctica actual de recolectar datos históricos para sacar conclusiones, como, por ejemplo, la irregularidad detectada cuando una empresa titular de una gasolinera declara importes exorbitantes de gastos de viaje, sino que me refiero a utilizar técnicas avanzadas que permitan procesar grandes volúmenes de datos, incluso en tiempo real, de una manera mucho más efectiva. Es decir, en lugar de únicamente recopilar datos, quizás sería más eficiente emplear algoritmos y modelos matemáticos para identificar patrones y, en última instancia, hacer predicciones.
Eduardo Espejo Iglesias
FIDE Tax & Legal