Primero, suma una una inmensa cantidad de encuestas sobre los candidatos y saca un promedio, pero no un promedio simple. En el momento de sumar tiene en cuenta tres variables distintas: el momento en que se publica determinada encuesta, dándole más relevancia a las que están más cerca del presente; el margen de error, priorizando las pesquisas que más gente encuestas; y la calidad, dándole más peso a las encuestas que históricamente suelen ser más precisas. Posteriormente, el matemático hace un estudio de cada uno de los estados donde se define la elección estadounidense, la cual se determina no según el número de votos sino de acuerdo el número de delegados que representa cada estado. En ese análisis local, Silver tiene en cuenta la elección de senadores, la participación histórica, la ventaja del candidato que está en el poder y los factores demográficos, que estudia por medio de una regresión lineal: por ejemplo, si el porcentaje de latinos sube en un estado, esto es relevante. Nate Silver le asigna importancia a cada una de las variables y lo vuelve todo un modelo estadístico que, como un algoritmo, solo requiere introducir la información en un software y después analizar los resultados.
Antes de la elecciones, Silver fue el único que no presentaba una competición reñida entre ambos candidatos y recibió duras críticas por sus predicciones. A día de hoy ha seguido suscitando polémica, pues el fenómeno de Nate Silver es criticado por no ser nada nuevo, ya que se ha utilizado en más ocasiones desde hace tiempo. No obstante, esta anécdota nos sirve para ver qué usos potenciales se les pueden dar a las matemáticas.
No hay comentarios:
Publicar un comentario