miércoles, 21 de agosto de 2024

TRANSPARENCIA Y CONTROL ELECTORAL: UTILIZACIÓN DE DATOS ESTRUCTURADOS Y HERRAMIENTAS ESTADÍSTICAS

                                                                                                por Victor Oxley

La transmisión de resultados electorales preliminares (TREP) se realiza sobre la marcha del conteo fundado en la lectura de las actas de votación dadas en las mesas, trasmitidas estas a una central en donde se cargan los datos, que luego se dan a publicidad.

Dado este procedimiento, no vemos dificultad alguna que la carga de datos también se realice en una base de datos estándar sobre la marcha y acompañando al proceso del TREP.

Así como los datos del TREP se comunican, muy bien puede ponerse a disposición la base de datos a medida que esta se va construyendo con los datos que se van cargando en ella.

Los registros electorales pueden organizarse en bases de datos y utilizarse de manera efectiva si se estructuran en formatos estándar para programas estadísticos. Al convertir los registros en formatos como CSV, Excel o archivos SPSS, se facilita su análisis mediante herramientas estadísticas. Esto permite realizar evaluaciones precisas, detectar anomalías y asegurar la integridad de los resultados electorales, mejorando así la transparencia y la confianza en el proceso electoral.

Una base de datos con todos los registros de una elección nacional puede ser analizada mediante técnicas de minería de datos para localizar anomalías en sus estructuras. Estas técnicas permiten identificar patrones inusuales que podrían sugerir irregularidades o fraudes.

Los métodos comunes utilizados son por ejemplo la detección de outliers, es decir la identificación de valores atípicos o desviaciones en los datos que no siguen la tendencia general. Esto podría incluir un número anormalmente alto o bajo de votos en ciertas regiones. El análisis de consistencia, que es la comparación de los resultados de la votación entre diferentes niveles (por ejemplo, entre centros de votación y distritos) para detectar inconsistencias que podrían indicar manipulación. Se podrían hacer uso de algoritmos como redes neuronales o árboles de decisión para clasificar los resultados de la votación y predecir comportamientos esperados. Las desviaciones significativas de estas predicciones podrían indicar problemas. Los análisis de clústeres para identificar regiones con comportamientos de votación similares. Las áreas que no encajan bien en estos clusters podrían ser sospechosas. La evaluación de los datos a lo largo del tiempo, como la secuencia de la recepción de votos, para identificar patrones que no deberían ocurrir de forma natural.

El cálculo de probabilidades también aporta una gran claridad al analizar tendencias o patrones en los registros de una base de datos de una elección. Al aplicar la teoría de probabilidad, se pueden evaluar si ciertos resultados observados son plausibles dentro de un marco estadístico o si presentan indicios de irregularidades. La probabilidad condicional puede utilizarse para analizar la probabilidad de ciertos eventos dados otros eventos. Por ejemplo, la probabilidad de que un cierto porcentaje de votos sea para un candidato dado el comportamiento histórico de la región o el comportamiento de otras regiones similares. Se pueden establecer hipótesis nulas y utilizar pruebas estadísticas para determinar si las diferencias observadas en los datos son lo suficientemente grandes como para rechazar la hipótesis nula a favor de una hipótesis alternativa (por ejemplo, "hubo manipulación de votos"). Los modelos Bayesianos se pueden aplicar para actualizar las probabilidades de ciertos eventos (como la ocurrencia de fraude) a medida que se obtienen nuevas evidencias. Este enfoque puede ser útil para integrar múltiples fuentes de información. El análisis de regresión permite modelar la relación entre variables y calcular la probabilidad de observar ciertos resultados. Por ejemplo, si la relación entre el tamaño de un centro de votación y los resultados de un candidato no sigue la tendencia esperada, esto puede señalar un problema. El cálculo de probabilidades es una herramienta poderosa para evaluar la plausibilidad de los patrones observados y puede ayudar a identificar irregularidades que podrían no ser evidentes a simple vista.

Estas técnicas ayudan a identificar irregularidades que luego pueden ser investigadas más a fondo para determinar si hubo algún tipo de manipulación o error en la elección.

El análisis estadístico de los registros electorales se ha vuelto una herramienta importante para promover la transparencia y la integridad en los procesos electorales en varios países. A través de técnicas como la aplicación de la Ley de Benford, pruebas de hipótesis, y otros métodos estadísticos, se pueden detectar irregularidades y posibles fraudes, lo que refuerza la confianza pública en los resultados electorales. La incorporación del análisis estadístico en los procesos electorales ha sido fundamental para aumentar la transparencia y legitimidad de las elecciones en muchos países. Además de ser una herramienta de detección de fraudes, este tipo de análisis sirve para fortalecer la confianza pública y asegurar que los resultados reflejen verdaderamente la voluntad del electorado.

Ahora es infranqueable la valla de aquella realidad en la que la efectividad de estas prácticas depende en gran medida de la transparencia del proceso electoral en su totalidad, el acceso a los datos, y la voluntad política de investigar y actuar sobre los hallazgos estadísticos. En este sentido la propuesta de que un acceso directo a base de datos proveídas en simultáneo a la carga del TREP por parte del TSJE aportaría mayor transparencia a unos comicios oficiales.





No hay comentarios:

Publicar un comentario