Término del glosario | Definición del glosario |
---|---|
ARIMA | ARIMA, que a menudo se llama metodología de previsión Box-Jenkins, es un conjunto de métodos de previsión de serie de tiempo univariada. ARIMA implica la identificación, selección y comprobación de modelos con parámetros estimados autorregresivos (AR), integración o diferenciación (I) y promedio móvil (MA). |
Describe una relación similar a la correlación automática, excepto que en lugar de relacionar la variable con otras variables independientes, se relaciona con valores anteriores de su propia serie de datos. | |
Describe una relación o correlación entre valores de la misma serie de datos en periodos de tiempo distintos. | |
Optimiza los parámetros de previsión para minimizar la medida de error entre un conjunto de datos excluidos y los valores de previsión. Predictor no utiliza los datos excluidos para calcular los parámetros de previsión. | |
Suavizado exponencial doble. | |
Método que resuelve un conjunto de ecuaciones para los coeficientes de una ecuación de regresión. | |
Pruebas para correlación automática de un retraso de tiempo. | |
Ecuación con sólo términos lineales. Una ecuación lineal no tiene ningún término que contenga variables con exponentes o variables multiplicados entre sí. | |
Mide cuánto coincide una línea con un conjunto de datos. Este enfoque mide la distancia de cada punto de datos real desde la línea, eleva al cuadrado cada distancia y suma los cuadrados. La línea con la menor desviación cuadrada es el ajuste más próximo. | |
Diferencia entre los valores de datos reales y los valores de datos previstos. | |
Método de regresión que agrega una variable independiente cada vez a la ecuación de regresión lineal múltiple, empezando por la variable independiente con la mayor relevancia. | |
Cambio que producen los factores estacionales en una serie de datos. Por ejemplo, si las ventas aumentan durante la época de Navidad y durante el verano, los datos son estacionales con un periodo de seis meses. | |
Ver estadística F . | |
Prueba la relevancia general de la ecuación de regresión lineal múltiple. | |
Prueba la relevancia de una variable independiente concreta en la ecuación de regresión lineal múltiple existente. | |
Prueba la relevancia de la relación entre la variable dependiente y cualquier variable independiente individual, en presencia de las otras variables independientes. | |
El número de puntos de datos menos el número de parámetros estimados (coeficientes). | |
Plano geométrico que se expande a más de dos dimensiones. | |
Desviación media absoluta. Se trata de una estadística de error que calcula el promedio de la distancia ente cada par de puntos de datos reales y ajustados. | |
Error de porcentaje medio absoluto. Se trata de una medida de error relativa que utiliza valores absolutos para evitar que los errores positivos y negativos se cancelen entre sí y utiliza errores relativos para permitir comparar la precisión de previsión entre métodos de serie de tiempo. | |
Separa una serie en sus componentes: estacionalidad, tendencia y ciclo, y error. Este método determina el valor de cada uno, los proyecta hacia delante y los reúne para crear una previsión. | |
método de previsión de aditivo estacional | Calcula un índice estacional para los datos históricos que no tienen una tendencia. El ajuste estacional se suma al nivel previsto, lo que produce la previsión de aditivo estacional. |
Considera los efectos de la estacionalidad multiplicativos, es decir, que crecen (o disminuyen) a lo largo del tiempo. Este método es similar al método de aditivo de Holt-Winters. | |
método de previsión de multiplicativo estacional | Calcula un índice estacional para los datos históricos que no tienen una tendencia. El ajuste estacional se multiplica por el nivel previsto, lo que produce la previsión de multiplicativo estacional. |
Suaviza los datos pasados calculando el promedio de los últimos periodos y proyectando dicha vista hacia delante. Predictor calcula automáticamente el número óptimo de periodos para calcular el promedio. | |
Pondera los datos pasados con ponderaciones que disminuyen exponencialmente al ir hacia el pasado; es decir, cuanto más reciente sea el valor de datos, mayor es su ponderación. Esto supera en gran medida las limitaciones de promedios móviles o métodos de cambio de porcentaje. | |
Relación entre dos variables donde los cambios en una variable independiente no sólo corresponden a un aumento o disminución concreto en la variable dependiente, sino que realmente causa el aumento o la disminución. | |
Punto inicial para la previsión. Para un conjunto de datos sin tendencia, equivale a la intercepción de y. | |
Indica la probabilidad de obtener una estadística F o t tan grande como la calculada para los datos. | |
Tipo de previsión que optimiza los parámetros de previsión para minimizar la medida de error entre los datos históricos y los valores ajustados, con un desplazamiento de un número especificado de periodos (plazo). | |
Tipo de previsión que optimiza los parámetros de previsión para minimizar la medida de error promedio entre los datos históricos y los valores ajustados, con un desplazamiento de varios periodos (plazos). | |
Predicción de valores de una variable según valores pasados conocidos de dicha variable u otras variables relacionadas. Las previsiones también pueden describir valores previstos según los modelos de hoja de cálculo de Crystal Ball y las opiniones de expertos. | |
Resumen estadístico de las suposiciones de un modelo de hoja de cálculo, con una salida gráfica o numérica. | |
Previsión obtenida con el mínimo esfuerzo basada sólo en los datos más recientes; p. ej., uso del último punto de datos para prever el siguiente periodo. | |
Suaviza datos pasados realizando un promedio móvil en un subconjunto de datos que representa un promedio móvil de un conjunto de datos original. | |
Coeficiente de determinación. Esta estadística indica la proporción del error de variable dependiente que explica la línea de regresión. | |
Corrige R2 para justificar los grados de libertad en los datos. | |
Proceso que modela una variable independiente como una función de otras variables explicativas (independientes). | |
Método de regresión que suma o resta una variable independiente cada vez a o de la ecuación de regresión lineal múltiple. | |
Proceso que modela una variable como una función de otras variables explicativas de primer orden. Es decir, aproxima la curva con una línea, no una curva, que necesitará términos de orden superior que impliquen cuadrados y cubos. | |
Caso de regresión lineal donde se describe una variable dependiente como una función lineal de más de una variable independiente. | |
Diferencia entre los datos reales y los datos previstos para la variable dependiente en la regresión lineal múltiple. | |
Define el desplazamiento al comparar una serie de datos con ella misma. Para la correlación automática, hacer referencia al desplazamiento de datos que selecciona al correlaciona una serie de datos con ella misma. | |
Error cuadrático medio. Se trata de una medida de error absoluta que calcula el cuadrado de las desviaciones para evitar que las desviaciones positiva y negativa se cancelen entre sí. Esta medida también tiende a exagerar los errores grandes, lo que puede ayudar al comparar métodos. | |
Conjunto de valores que están ordenados en intervalos de tiempo con igual espaciado. | |
Suma de desviaciones cuadradas. La técnica de menos cuadrados para calcular coeficientes de regresión utiliza esta estadística, que mide el error no eliminado por la línea de regresión. | |
Calcula una tendencia suave eliminando los datos extremos y reduciendo la aleatoriedad de los datos. | |
El suavizado exponencial doble aplica un suavizado exponencial simple dos veces, una a los datos originales y, a continuación, a los datos del suavizado exponencial simple resultantes. Resulta útil donde la serie de datos históricos no son estacionarios. | |
Valores estimados de un modelo de hoja de cálculo que Crystal Ball define con una distribución de probabilidad. | |
Descomposición de valor único. | |
Tabla interactiva en Microsoft Excel. Puede mover filas y columnas, así como filtrar datos de la tabla dinámica. | |
Aumento o disminución a largo plazo en datos de serie de tiempo. | |
En una regresión lineal múltiple, serie de datos o variable que depende de otra serie de datos. Debe utilizar la regresión lineal múltiple como método de previsión para cualquier variable dependiente. | |
En una regresión lineal múltiple, serie de datos o variables que influyen en la otra serie de datos o variable. | |
En la regresión, las series de datos también se llaman variables. |