Artículos

22: Tema J: Modelos exponenciales y técnicas de comparación de modelos

22: Tema J: Modelos exponenciales y técnicas de comparación de modelos


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

22: Tema J: Modelos exponenciales y técnicas de comparación de modelos

Previsión de índices bursátiles basada en un modelo híbrido

Pronosticar el índice de precios del mercado de valores es una tarea desafiante. El modelo de suavizado exponencial (ESM), el modelo de promedio móvil integrado autorregresivo (ARIMA) y la red neuronal de retropropagación (BPNN) se pueden utilizar para realizar pronósticos basados ​​en series de tiempo. En este documento, se propone un enfoque híbrido que combina ESM, ARIMA y BPNN como el más ventajoso de los tres modelos. El peso del modelo híbrido propuesto (PHM) se determina mediante un algoritmo genético (GA). El cierre del Shenzhen Integrated Index (SZII) y la apertura del Dow Jones Industrial Average Index (DJIAI) se utilizan como ejemplos ilustrativos para evaluar el desempeño del PHM. Los resultados numéricos muestran que el modelo propuesto supera a todos los modelos tradicionales, incluidos ESM, ARIMA, BPNN, el modelo híbrido de igual peso (EWH) y el modelo de caminata aleatoria (RWM).

Reflejos

► Se propone un modelo híbrido que combina ESM, ARIMA y BPNN para pronosticar índices bursátiles. ► El peso del modelo híbrido propuesto se determina mediante un algoritmo genético. ► El conjunto de datos reales de los índices bursátiles se utiliza como ejemplos ilustrativos para mostrar los mejores resultados del modelo híbrido.


Una descripción general de los métodos de previsión de la demanda de energía publicados en 2005-2015

La importancia de la gestión de la demanda energética ha sido más vital en las últimas décadas a medida que disminuyen los recursos, aumentan las emisiones y no se han aplicado globalmente los avances en la aplicación de energías renovables y limpias. La previsión de la demanda juega un papel vital en la gestión de la oferta y la demanda de energía tanto para los gobiernos como para las empresas privadas. Por lo tanto, el uso de modelos para pronosticar con precisión las tendencias futuras de consumo de energía, específicamente con datos no lineales, es un tema importante para los sistemas de producción y distribución de energía. En las últimas décadas se han desarrollado varias técnicas para predecir con precisión el futuro del consumo de energía. Este artículo revisa varios métodos de previsión de la demanda de energía que se han publicado como artículos de investigación entre 2005 y 2015. El alcance de las aplicaciones y técnicas de previsión es bastante amplio, y este artículo se centra en los métodos que se utilizan para predecir el consumo de energía. Las aplicaciones de técnicas tradicionales como modelos econométricos y de series de tiempo junto con métodos de computación blanda como redes neuronales, lógica difusa y otros modelos se revisan en el trabajo actual. Los estudios más citados aplicaron redes neuronales para pronosticar el consumo de energía y aprobaron el notable desempeño de los modelos, pero el tiempo de cálculo es mucho mayor que muchos otros métodos basados ​​en su sofisticada estructura. Otro campo de investigación futura incluye el desarrollo de métodos híbridos. La literatura muestra que los métodos clásicos ya no pueden resultar en productos dominantes.

Esta es una vista previa del contenido de la suscripción, acceda a través de su institución.


Modelado de la relación entre el rendimiento del arroz y las variables climáticas mediante técnicas de aprendizaje automático y estadístico

Este documento presenta la aplicación de una gran cantidad de métodos estadísticos y técnicas de aprendizaje automático para modelar la relación entre el rendimiento del arroz y las variables climáticas de una región importante de Sri Lanka, que contribuye significativamente a la cosecha de arroz del país. Las precipitaciones, la temperatura (mínima y máxima), la evaporación, la velocidad media del viento (mañana y tarde) y las horas de sol son los factores climáticos considerados para el modelado. Se utilizaron datos de cosecha y rendimiento de arroz durante las últimas tres décadas y datos climáticos mensuales para desarrollar el modelo de predicción mediante la aplicación de redes neuronales artificiales (ANN), regresión de máquina de vectores de soporte (SVMR), regresión lineal múltiple (MLR), regresión de proceso gaussiano (GPR). ), regresión de potencia (PR) y regresión robusta (RR). El desempeño de cada modelo se evaluó en términos del error cuadrático medio (MSE), coeficiente de correlación (R), error porcentual absoluto medio (MAPE), razón de error cuadrático medio (RSR), valor de BIAS y el número de Nash, y se encontró que el modelo basado en GPR es el más preciso entre ellos. Datos climáticos recopilados hasta principios de 2019 (Maha temporada del año 2018) se utilizaron para desarrollar el modelo, y se realizó una validación independiente aplicando datos del Yala temporada del año 2019. El modelo desarrollado se puede utilizar para pronosticar el rendimiento futuro del arroz con una precisión muy alta.

1. Introducción

La capacidad de predecir el rendimiento futuro de los cultivos facilita que las autoridades responsables tomen las decisiones más adecuadas para garantizar la seguridad alimentaria. A medida que la población humana continúa aumentando, lo que requiere la utilización eficiente de la tierra, mejorar el rendimiento sería más importante que aumentar el área agrícola. El clima es uno de los principales factores más allá del control humano, que determina el rendimiento de los cultivos. En este sentido, la modelización y predicción del rendimiento de los cultivos considerando las variables climáticas se ha convertido en un interesante tema de investigación.

En la literatura se presenta el uso de técnicas estadísticas, así como algoritmos de aprendizaje automático para identificar la relación entre las variables climáticas pasadas y los datos de rendimiento [1-3]. Dado que el arroz es una fuente primaria de alimento para más de la mitad de la población mundial, se propusieron numerosos enfoques de investigación para predecir el rendimiento del arroz [4]. Se realizaron estudios de investigación similares para modelar la relación entre los factores climáticos y el rendimiento de algunos otros cultivos como la cebada [5], el maíz [6], la caña de azúcar [7], los cítricos [8], el té [9], el coco [ 10], sorgo [11], maíz y soja [12]. En dichos estudios de investigación se consideraron una gran cantidad de factores climáticos para la aplicación de métodos estadísticos y técnicas de aprendizaje automático.

Las técnicas de regresión, las máquinas de vectores de soporte (SVM) y las redes neuronales artificiales (ANN) son algunas de las técnicas aplicadas para modelar la relación entre el rendimiento del arroz y las variables climáticas. Se aplicó ANN con algunos parámetros climáticos (precipitación, temperatura mínima, temperatura media y temperatura máxima) y la evapotranspiración y el rendimiento del cultivo de referencia durante cuatro años para predecir el rendimiento del arroz en el estado de Maharashtra, India [13]. Este modelo se validó con una precisión del 97,5%, una sensibilidad del 96,3% y una especificidad del 98,1% mediante el desarrollo de una red neuronal de perceptrón multicapa. Un trabajo de investigación similar realizado con los datos de varias áreas cultivadas con arroz en Sri Lanka demostró que el modelo ANN (con MSE & lt 0.386) puede usarse con menos tiempo computacional para predecir el rendimiento futuro del arroz con base en datos climáticos futuros [14]. Das et al. Presentaron una aplicación avanzada de ANN integrada con regresión lineal múltiple (MLR) y modelos de regresión penalizados para la predicción del rendimiento del arroz en función de los parámetros meteorológicos en la costa oeste de la India. [15]. Su error cuadrático medio normalizado varió entre 0,98 y 36,7%. Las respuestas del rendimiento del arroz de montaña en el Sahel, África occidental, se modelaron en función de los factores climáticos, mediante el uso de varias técnicas, a saber, MLR, regresión de árboles potenciada y ANN [16]. Según los resultados, ANN superó a las otras dos técnicas y los hallazgos de la investigación concluyeron que la lluvia, no la temperatura, era el principal impulsor climático del rendimiento del arroz en el Sahel. Un modelo híbrido MLR-ANN produjo una mayor precisión que los modelos convencionales, a saber, ANN, MLR, regresión de vectores de soporte (SVR), vecino más cercano k (KNN) y bosque aleatorio (RF) [17].

SVM es otra técnica de aprendizaje automático de uso común que se aplica para modelar la relación entre el rendimiento del arroz y las variables climáticas. Se investigó la aplicabilidad de SVM para determinar la influencia relativa de varios factores climáticos en el rendimiento del arroz con cáscara en el suroeste de China, y se encontró que las SVM superaron a ANN y MLR [18]. La relación entre las variables climáticas y el rendimiento del arroz se cuantificó aplicando MLR, análisis de componentes principales y SVM en 36 años de datos climáticos y de rendimiento en el suroeste de Nigeria [19]. Llegó a la conclusión de que la radiación solar es la variable climática de mayor influencia en el rendimiento del arroz, que maximiza el rendimiento durante los períodos de monzón y posmonzón. La prueba de once combinaciones de datos de fenología, clima y geografía para predecir los rendimientos de arroz basados ​​en el sitio en el sur de China utilizando MLR y métodos avanzados de aprendizaje automático como la red neuronal de retropropagación, SVM y RF se presenta en [20]. Se demostró que los métodos de aprendizaje automático eran más precisos que MLR, y SVM produjo la mayor precisión en la predicción de rendimiento. Se aplicó una técnica híbrida de RVS para predecir el rendimiento del arroz con base en los datos climáticos y agrícolas en Taiwán de 1995 a 2015, lo que resultó en un RMSE y R 2 de 60 y 0,996 [21].

También se han utilizado técnicas estadísticas como MLR y el proceso de regresión gaussiano (GPR) para predecir el rendimiento del arroz. GPR ha demostrado ser más preciso que SVM con un R 2 & gt 0,75 y un error de rendimiento inferior al 10%, cuando se aplicaron para predecir el rendimiento del trigo de invierno en China según los datos del clima y el suelo [22]. Sin embargo, los autores no pudieron encontrar ninguna publicación de investigación sobre la aplicación de GPR para establecer una relación entre el rendimiento del arroz y los datos climáticos. La aplicación de MLR para estimar el rendimiento de cultivos como la caña de azúcar [7], los cítricos [8] y el té [9] se presentó en la literatura. Ji y col. comparó la eficacia de los modelos MLR con los modelos ANN para las predicciones del rendimiento del arroz en la provincia montañosa de Fujian en China [23]. Basado en los valores de R 2 y el RMSE, justificaron la superioridad de los modelos ANN (R 2 = 0,67, RMSE = 891) para una predicción precisa del rendimiento sobre los modelos MLR.

Según la literatura, se aplicaron ANN, regresión de máquina de vectores de soporte (SVMR) y MLR para predecir el rendimiento del arroz con precisión en función de las variables climáticas. En este artículo, se presenta un estudio de investigación realizado para modelar la relación entre el rendimiento del arroz y las variables climáticas de una provincia importante de Sri Lanka, que contribuye significativamente a la cosecha de arroz en el país. Además de las técnicas antes mencionadas, en esta investigación se consideraron la GPR, la regresión de potencia (PR) y la regresión robusta (RR), que no se han utilizado o rara vez se han utilizado. Dado que el arroz es el alimento básico en Sri Lanka, identificar una técnica adecuada para predecir el rendimiento es importante de muchas maneras. La sección 2 presenta una descripción de los datos utilizados para esta investigación y un análisis estadístico de los mismos. También se muestra una breve introducción a las técnicas utilizadas para modelar y los criterios utilizados para evaluar su desempeño. En la Sección 3, se presentan los hallazgos de la investigación, se analizan los resultados y se validan los modelos propuestos. Finalmente, las conclusiones se presentan en la Sección 4.

2. Materiales y métodos

2.1. Recopilación de datos

Cosecha de arroz, rendimiento y datos climáticos de dos distritos de Sri Lanka, a saber, Kurunegala y Puttalam, durante las últimas tres décadas se obtuvieron del Departamento de Censos y Estadísticas y del Departamento de Meteorología de Sri Lanka. Datos de rendimiento del arroz de las dos principales temporadas agrícolas (Yala y Maha) fueron considerados. Yala la temporada se extiende de mayo a agosto, mientras que Maha la temporada se extiende desde septiembre hasta marzo del año siguiente. Las precipitaciones, la temperatura mínima, la temperatura máxima, la evaporación, la velocidad media del viento (mañana y tarde) y las horas de sol son los factores climáticos considerados para el modelado. Estos datos climáticos mensuales, excepto la precipitación, se promediaron para cada temporada en ambos distritos y se utilizaron con la precipitación total de cada temporada. La relación no lineal entre el rendimiento del arroz y los parámetros climáticos se definió como se indica en la siguiente ecuación:


Abstracto

En la gestión de inventarios de la cadena de suministro, se acepta generalmente que las existencias de seguridad son una estrategia adecuada para hacer frente a la incertidumbre de la oferta y la demanda con el objetivo de evitar el desabastecimiento de existencias. Las existencias de seguridad han sido objeto de una intensa investigación, que normalmente cubre los problemas de dimensionamiento, posicionamiento, gestión y colocación. Aquí, reducimos el alcance de la discusión al problema de dimensionamiento de existencias de seguridad, que consiste en determinar el nivel de existencias de seguridad adecuado para cada producto. Este documento informa los resultados de una reciente revisión sistemática de la literatura (SLR) de modelos y métodos de investigación de operaciones (OR) para dimensionar las existencias de seguridad. Hasta donde sabemos, esta es la primera revisión sistemática de la aplicación de enfoques basados ​​en OR para investigar este problema. Se ha revisado un conjunto de 95 artículos publicados entre 1977 y 2019 para identificar el tipo de modelo que se está empleando, así como las técnicas de modelado y los principales criterios de rendimiento utilizados. Al final, destacamos las lagunas en la literatura actual y discutimos las posibles direcciones y tendencias de investigación que pueden ayudar a guiar a los investigadores y profesionales interesados ​​en el desarrollo de nuevos enfoques basados ​​en OR para la determinación de existencias de seguridad.


Contenido

El uso de la función de ventana exponencial se atribuye primero a Poisson [2] como una extensión de una técnica de análisis numérico del siglo XVII, y luego fue adoptada por la comunidad de procesamiento de señales en la década de 1940. Aquí, el suavizado exponencial es la aplicación de la función de ventana exponencial o de Poisson. El suavizado exponencial fue sugerido por primera vez en la literatura estadística sin citar trabajos previos de Robert Goodell Brown en 1956, [3] y luego ampliado por Charles C. Holt en 1957. [4] La siguiente formulación, que es la que se usa comúnmente, es atribuido a Brown y se conoce como "suavizado exponencial simple de Brown". [5] Todos los métodos de Holt, Winters y Brown pueden verse como una simple aplicación de filtrado recursivo, encontrado por primera vez en la década de 1940 [2] para convertir filtros de respuesta de impulso finito (FIR) en filtros de respuesta de impulso infinito.

La forma más simple de suavizado exponencial viene dada por la fórmula:

Esta forma simple de suavizado exponencial también se conoce como promedio móvil ponderado exponencialmente (EWMA). Técnicamente, también se puede clasificar como un modelo de media móvil integrada autorregresiva (ARIMA) (0,1,1) sin término constante. [7]

Constante de tiempo Editar

Elección del valor suavizado inicial Editar

Optimización Editar

Para cada método de suavizado exponencial, también debemos elegir el valor de los parámetros de suavizado. Para el suavizado exponencial simple, solo hay un parámetro de suavizado (α), pero para los métodos siguientes suele haber más de un parámetro de suavizado.

Hay casos en los que los parámetros de suavizado pueden elegirse de manera subjetiva: el pronosticador especifica el valor de los parámetros de suavizado basándose en la experiencia previa. Sin embargo, una forma más sólida y objetiva de obtener valores para los parámetros desconocidos incluidos en cualquier método de suavizado exponencial es estimarlos a partir de los datos observados.

A diferencia del caso de regresión (donde tenemos fórmulas para calcular directamente los coeficientes de regresión que minimizan el SSE), esto implica un problema de minimización no lineal y necesitamos usar una herramienta de optimización para realizar esto.

Edición de nomenclatura "exponencial"

El nombre 'suavizado exponencial' se atribuye al uso de la función de ventana exponencial durante la convolución. Ya no se atribuye a Holt, Winters & amp Brown.

Mediante la sustitución directa de la ecuación definitoria por el suavizado exponencial simple en sí mismo, encontramos que

Una progresión geométrica es la versión discreta de una función exponencial, por lo que aquí es donde se originó el nombre de este método de suavizado según la tradición de las estadísticas.

Comparación con la media móvil Editar

El suavizado exponencial y el promedio móvil tienen defectos similares de introducir un retraso en relación con los datos de entrada. Si bien esto se puede corregir cambiando el resultado a la mitad de la longitud de la ventana para un núcleo simétrico, como un promedio móvil o gaussiano, no está claro qué tan apropiado sería esto para el suavizado exponencial. Ambos también tienen aproximadamente la misma distribución de error de pronóstico cuando α = 2/(k + 1). Se diferencian en que el suavizado exponencial tiene en cuenta todos los datos pasados, mientras que la media móvil solo tiene en cuenta k puntos de datos pasados. Computacionalmente hablando, también difieren en que la media móvil requiere que el pasado k puntos de datos, o el punto de datos en el retraso k + 1 más el valor de pronóstico más reciente, que se mantendrá, mientras que el suavizado exponencial solo necesita que se mantenga el valor de pronóstico más reciente. [11]

En la literatura sobre procesamiento de señales, el uso de filtros no causales (simétricos) es común, y la función de ventana exponencial se usa ampliamente de esta manera, pero se usa una terminología diferente: el suavizado exponencial es equivalente a un impulso infinito de primer orden. El filtro de respuesta (IIR) y la media móvil es equivalente a un filtro de respuesta de impulso finito con factores de ponderación iguales.

El suavizado exponencial simple no funciona bien cuando hay una tendencia en los datos, lo cual es inconveniente. [1] En tales situaciones, se idearon varios métodos bajo el nombre de "suavizado exponencial doble" o "suavizado exponencial de segundo orden", que es la aplicación recursiva de un filtro exponencial dos veces, por lo que se denomina "suavizado exponencial doble". Esta nomenclatura es similar al suavizado exponencial cuádruple, que también hace referencia a su profundidad de recursividad. [12] La idea básica detrás del suavizado exponencial doble es introducir un término para tener en cuenta la posibilidad de que una serie muestre alguna forma de tendencia. Este componente de pendiente se actualiza a sí mismo mediante un suavizado exponencial.

Un método, a veces denominado "suavizado exponencial doble de Holt-Winters", funciona de la siguiente manera: [13]

Tenga en cuenta que F0 no está definido (no hay estimación para el tiempo 0), y de acuerdo con la definición F1=s0+B0, que está bien definido, por lo que se pueden evaluar otros valores.

Un segundo método, denominado suavizado exponencial lineal de Brown (LES) o suavizado exponencial doble de Brown, funciona de la siguiente manera. [14]

donde at, el nivel estimado en el momento t y Bt, la tendencia estimada en el momento t son:

El suavizado exponencial triple aplica el suavizado exponencial tres veces, que se usa comúnmente cuando hay tres señales de alta frecuencia que deben eliminarse de una serie de tiempo en estudio. Hay diferentes tipos de estacionalidad: de naturaleza 'multiplicativa' y 'aditiva', al igual que la suma y la multiplicación son operaciones básicas en matemáticas.

Si todos los meses de diciembre vendemos 10.000 apartamentos más que en noviembre, la estacionalidad es aditivo en naturaleza. Sin embargo, si vendemos un 10% más de apartamentos en los meses de verano que en los meses de invierno, la estacionalidad es multiplicativo en naturaleza. La estacionalidad multiplicativa se puede representar como un factor constante, no como una cantidad absoluta. [15]

El suavizado exponencial triple fue sugerido por primera vez por el estudiante de Holt, Peter Winters, en 1960 después de leer un libro de procesamiento de señales de la década de 1940 sobre el suavizado exponencial. [16] La idea novedosa de Holt era repetir el filtrado un número impar de veces mayor que 1 y menor que 5, lo que era popular entre los estudiosos de épocas anteriores. [16] Si bien el filtrado recursivo se había utilizado anteriormente, se aplicó dos y cuatro veces para coincidir con la conjetura de Hadamard, mientras que la aplicación triple requería más del doble de operaciones de convolución singular. El uso de una aplicación triple se considera una técnica de regla general, en lugar de una basada en fundamentos teóricos y, a menudo, los profesionales lo han enfatizado demasiado. - Supongamos que tenemos una secuencia de observaciones x t < displaystyle x_>, comenzando en el tiempo t = 0 < displaystyle t = 0> con un ciclo de cambio estacional de longitud L < displaystyle L>.

El método calcula una línea de tendencia para los datos, así como índices estacionales que ponderan los valores en la línea de tendencia en función de dónde cae ese punto de tiempo en el ciclo de longitud L < displaystyle L>.

La fórmula general para la estimación de tendencia inicial b < displaystyle b> es:


Pronóstico: principios y práctica (2a ed.)

Es importante evaluar la precisión del pronóstico utilizando pronósticos genuinos. En consecuencia, el tamaño de los residuos no es una indicación confiable de cuán grandes pueden ser los verdaderos errores de pronóstico. La precisión de los pronósticos solo se puede determinar considerando qué tan bien se desempeña un modelo con datos nuevos que no se usaron al ajustar el modelo.

Al elegir modelos, es una práctica común separar los datos disponibles en dos partes, capacitación y prueba datos, donde los datos de entrenamiento se usan para estimar cualquier parámetro de un método de pronóstico y los datos de prueba se usan para evaluar su precisión. Debido a que los datos de prueba no se utilizan para determinar los pronósticos, deberían proporcionar una indicación confiable de qué tan bien es probable que el modelo pronostique sobre nuevos datos.

El tamaño del conjunto de prueba suele ser aproximadamente el 20% de la muestra total, aunque este valor depende de la longitud de la muestra y de la anticipación que desee realizar. Idealmente, el conjunto de prueba debería ser al menos tan grande como el horizonte de pronóstico máximo requerido. Deben tenerse en cuenta los siguientes puntos.

  • Un modelo que se ajusta bien a los datos de entrenamiento no necesariamente hará un buen pronóstico.
  • Siempre se puede obtener un ajuste perfecto utilizando un modelo con suficientes parámetros.
  • Sobreajustar un modelo a los datos es tan malo como no identificar un patrón sistemático en los datos.

Algunas referencias describen el conjunto de prueba como el "conjunto de reserva" porque estos datos se "excluyen" de los datos utilizados para el ajuste. Otras referencias llaman al conjunto de entrenamiento los "datos dentro de la muestra" y al conjunto de prueba los "datos fuera de la muestra". Preferimos utilizar "datos de entrenamiento" y "datos de prueba" en este libro.

Funciones para crear subconjuntos de una serie temporal

La función window () presentada en el Capítulo 2 es útil cuando se extrae una parte de una serie temporal, como la que necesitamos al crear conjuntos de entrenamiento y prueba. En la función window (), especificamos el inicio y / o el final de la parte de la serie de tiempo requerida usando valores de tiempo. Por ejemplo,

extrae todos los datos desde 1995 en adelante.

Otra función útil es subconjunto () que permite más tipos de subconjuntos. Una gran ventaja de esta función es que permite el uso de índices para elegir un subconjunto. Por ejemplo,

extrae los últimos 5 años de observaciones de ausbeer. También permite extraer todos los valores para una temporada específica. Por ejemplo,

extrae los primeros trimestres de todos los años.

Finalmente, la cabeza y la cola son útiles para extraer las primeras o últimas observaciones. Por ejemplo, los últimos 5 años de ausbeer también se pueden obtener utilizando

Errores de pronóstico

Un “error” de pronóstico es la diferencia entre un valor observado y su pronóstico. Aquí "error" no significa un error, significa la parte impredecible de una observación. Puede escribirse como [e_ = y_ - sombrero_, ] donde los datos de entrenamiento vienen dados por () y los datos de prueba vienen dados por (<>, y_, puntos > ).

Tenga en cuenta que los errores de pronóstico son diferentes de los residuales de dos maneras. Primero, los residuos se calculan sobre la capacitación mientras que los errores de pronóstico se calculan en el prueba colocar. En segundo lugar, los residuos se basan en Un paso pronósticos, mientras que los errores de pronóstico pueden involucrar de varios pasos pronósticos.

Podemos medir la precisión del pronóstico resumiendo los errores de pronóstico de diferentes maneras.

Errores dependientes de la escala

Los errores de pronóstico están en la misma escala que los datos. Medidas de precisión que se basan únicamente en (e_) son, por lo tanto, dependientes de la escala y no se pueden utilizar para hacer comparaciones entre series que involucran diferentes unidades.

Las dos medidas dependientes de escala más utilizadas se basan en los errores absolutos o errores al cuadrado: [ begin exto & amp = text(| e_|), texto & amp = sqrt < text(mi_^ 2)>. fin] Al comparar los métodos de pronóstico aplicados a una sola serie de tiempo, o a varias series de tiempo con las mismas unidades, el MAE es popular ya que es fácil de entender y calcular. Un método de pronóstico que minimice el MAE conducirá a pronósticos de la mediana, mientras que minimizar el RMSE conducirá a pronósticos de la media. En consecuencia, el RMSE también se utiliza mucho, a pesar de ser más difícil de interpretar.

Errores porcentuales

El error porcentual viene dado por (p_ = 100 e_/ y_). Los errores porcentuales tienen la ventaja de no tener unidades, por lo que se utilizan con frecuencia para comparar los resultados de las previsiones entre conjuntos de datos. La medida más utilizada es: [ text = texto(| p_|). ] Las medidas basadas en errores porcentuales tienen la desventaja de ser infinitas o indefinidas si (y_= 0 ) para cualquier (t ) en el período de interés, y teniendo valores extremos si los hay (y_) está cerca de cero. Otro problema con los errores porcentuales que a menudo se pasa por alto es que asumen que la unidad de medida tiene un cero significativo. 2 Por ejemplo, un error porcentual no tiene sentido cuando se mide la precisión de los pronósticos de temperatura en las escalas Fahrenheit o Celsius, porque la temperatura tiene un punto cero arbitrario.

También tienen la desventaja de que imponen una penalización mayor a los errores negativos que a los positivos. Esta observación llevó al uso del llamado MAPE “simétrico” (sMAPE) propuesto por Armstrong (1978, p. 348), que se utilizó en la competencia de predicción M3. Está definido por [ text = texto left (200 | y_ - sombrero_| / (y_+ sombrero_)derecho). ] Sin embargo, si (y_) está cerca de cero, ( hat_) también es probable que se acerque a cero. Por lo tanto, la medida aún implica la división por un número cercano a cero, lo que hace que el cálculo sea inestable. Además, el valor de sMAPE puede ser negativo, por lo que en realidad no es una medida de "errores porcentuales absolutos" en absoluto.

Hyndman y amp Koehler (2006) recomiendan que no se utilice sMAPE. Se incluye aquí solo porque se usa ampliamente, aunque no lo usaremos en este libro.

Errores escalados

Hyndman & amp Koehler (2006) propusieron errores escalados como una alternativa al uso de errores porcentuales al comparar la precisión del pronóstico entre series con diferentes unidades. Propusieron escalar los errores en función de la capacitación MAE a partir de un método de pronóstico simple.

Para una serie de tiempo no estacional, una forma útil de definir un error escalado utiliza pronósticos ingenuos: [q_ = frac < displaystyle e_> < Displaystyle frac <1>suma_^ T | y_-y_|>. ] Dado que tanto el numerador como el denominador involucran valores en la escala de los datos originales, (q_) es independiente de la escala de los datos. Un error escalado es menor que uno si surge de un pronóstico mejor que el pronóstico ingenuo promedio calculado sobre los datos de entrenamiento. Por el contrario, es mayor que uno si el pronóstico es peor que el pronóstico ingenuo promedio calculado en los datos de entrenamiento.

Para las series de tiempo estacionales, se puede definir un error escalado utilizando pronósticos estacionales ingenuos: [q_ = frac < displaystyle e_> < Displaystyle frac <1>suma_^ T | y_-y_|>. ]

El error de escala absoluto medio es simplemente [ text = texto(| q_|). ]

Ejemplos de

Figura 3.9: Previsiones de la producción trimestral de cerveza australiana utilizando datos hasta finales de 2007.

La Figura 3.9 muestra tres métodos de pronóstico aplicados a la producción trimestral de cerveza australiana utilizando datos solo hasta fines de 2007. También se muestran los valores reales para el período 2008-2010. Calculamos las medidas de precisión del pronóstico para este período.

RMSE MAE MAPE MASE
Método de la media 38.45 34.83 8.28 2.44
Método ingenuo 62.69 57.40 14.18 4.01
Método naif estacional 14.31 13.40 3.17 0.94

Es obvio del gráfico que el método ingenuo estacional es el mejor para estos datos, aunque todavía se puede mejorar, como descubriremos más adelante. A veces, diferentes medidas de precisión conducirán a resultados diferentes en cuanto a qué método de pronóstico es el mejor. Sin embargo, en este caso, todos los resultados apuntan al método naif estacional como el mejor de estos tres métodos para este conjunto de datos.

Para tomar un ejemplo no estacional, considere el precio de las acciones de Google. El siguiente gráfico muestra las 200 observaciones que finalizaron el 6 de diciembre de 2013, junto con los pronósticos de los próximos 40 días obtenidos de tres métodos diferentes.

Figura 3.10: Previsiones del precio de las acciones de Google desde el 7 de diciembre de 2013.

RMSE MAE MAPE MASE
Método de la media 114.21 113.27 20.32 30.28
Método ingenuo 28.43 24.59 4.36 6.57
Método de deriva 14.08 11.67 2.07 3.12

Aquí, el mejor método es el método de deriva (independientemente de la medida de precisión que se utilice).

Validación cruzada de series de tiempo

Una versión más sofisticada de los conjuntos de entrenamiento / prueba es la validación cruzada de series de tiempo. En este procedimiento, hay una serie de conjuntos de prueba, cada uno de los cuales consta de una única observación. El conjunto de entrenamiento correspondiente consta solo de observaciones que ocurrieron previo a la observación que forma el conjunto de prueba. Por lo tanto, no se pueden utilizar observaciones futuras para construir el pronóstico. Dado que no es posible obtener un pronóstico confiable basado en un pequeño conjunto de entrenamiento, las primeras observaciones no se consideran conjuntos de prueba.

El siguiente diagrama ilustra la serie de conjuntos de entrenamiento y prueba, donde las observaciones azules forman los conjuntos de entrenamiento y las observaciones rojas forman los conjuntos de prueba.

La precisión del pronóstico se calcula promediando los conjuntos de prueba. Este procedimiento a veces se conoce como "evaluación en un origen de pronóstico continuo" porque el "origen" en el que se basa el pronóstico avanza en el tiempo.

Con los pronósticos de series de tiempo, los pronósticos de un paso pueden no ser tan relevantes como los pronósticos de varios pasos. En este caso, el procedimiento de validación cruzada basado en un origen de pronóstico continuo se puede modificar para permitir el uso de errores de varios pasos. Suponga que estamos interesados ​​en modelos que producen buenos pronósticos de (4 ) pasos hacia adelante. Entonces el diagrama correspondiente se muestra a continuación.

La validación cruzada de series de tiempo se implementa con la función tsCV (). En el siguiente ejemplo, comparamos el RMSE obtenido mediante la validación cruzada de series de tiempo con el RMSE residual.

Como se esperaba, el RMSE de los residuos es menor, ya que los “pronósticos” correspondientes se basan en un modelo ajustado a todo el conjunto de datos, en lugar de ser pronósticos verdaderos.

Una buena forma de elegir el mejor modelo de pronóstico es encontrar el modelo con el RMSE más pequeño calculado mediante la validación cruzada de series de tiempo.

Operador de tubería

La fealdad del código R anterior hace que esta sea una buena oportunidad para introducir algunas formas alternativas de encadenar funciones R. En el código anterior, estamos anidando funciones dentro de funciones dentro de funciones, por lo que debe leer el código de adentro hacia afuera, lo que dificulta la comprensión de lo que se está calculando. En su lugar, podemos usar el operador de tubería% & gt% de la siguiente manera.

El lado izquierdo de cada tubería se pasa como primer argumento a la función del lado derecho. Esto es consistente con la forma en que leemos de izquierda a derecha en inglés. Cuando se utilizan canalizaciones, se deben nombrar todos los demás argumentos, lo que también ayuda a la legibilidad. Al usar tuberías, es natural usar la asignación de flecha derecha - & gt en lugar de la flecha izquierda. Por ejemplo, la tercera línea anterior se puede leer como "Tome la serie goog200, páselo a rwf () con drift = TRUE, calcule los residuales resultantes y guárdelos como res".

Usaremos el operador de tubería siempre que facilite la lectura del código. Para ser coherentes, siempre seguiremos una función entre paréntesis para diferenciarla de otros objetos, incluso si no tiene argumentos. Vea, por ejemplo, el uso de sqrt () y residuals () en el código anterior.

Ejemplo: usando tsCV ()

Los datos de goog200, representados en la Figura 3.5, incluyen el precio de cierre diario de las acciones de Google Inc del mercado NASDAQ durante 200 días hábiles consecutivos a partir del 25 de febrero de 2013.

El siguiente código evalúa el rendimiento de pronóstico de pronósticos ingenuos de 1 a 8 pasos por delante con tsCV (), utilizando MSE como la medida de error de pronóstico. The plot shows that the forecast error increases as the forecast horizon increases, as we would expect.

That is, a percentage is valid on a ratio scale, but not on an interval scale. Only ratio scale variables have meaningful zeros.↩︎


Introducción

Intrusion detection is the accurate identification of various attacks capable of damaging or compromising an information system. An (IDS) can be host-based, network-based, or a combination of both. A host-based IDS is primarily concerned with the internal monitoring of a computer. Windows registry monitoring, log analysis, and file integrity checking are some of the tasks performed by a host-based IDS [1]. A network-based IDS monitors and analyzes network traffic to detect threats that include Denial-of-Service (DoS) attacks, SQL injection attacks, and password attacks [2]. The rapid growth of computer networks and network applications worldwide has encouraged an increase in cyberattacks [3]. In 2019, business news channel CNBC reported that the average cost of a cyberattack was $200,000 [4].

An IDS can also be categorized as signature-based or anomaly-based. A signature-based IDS contains patterns for known attacks and is unable to detect unknown attacks. This means that the database of a signature-based IDS must be updated ad nauseam to keep up with all known attack signatures. By contrast, an anomaly-based IDS identifies deviations from normal traffic behavior. Since various machine learning approaches can generally be successfully applied to anomaly detection, it makes intuitive sense that anomaly-based intrusion detection is a productive research area.

Datasets such as CSE-CIC-IDS2018 [5] were created to train predictive models on anomaly-based intrusion detection for network traffic. CSE-CIC-IDS2018 is not an entirely new project, but part of an existing project that produces modern, realistic datasets in a scalable manner [6]. In the next three paragraphs we trace the development of this project, from the foundational dataset (ISCXIDS2012 [7]) to CSE-CIC-IDS2018.

Created in 2012 by the Information Security Centre of Excellence (ISCX) at the University of New Brunswick (UNB) over a seven-day period, ISCXIDS2012 contains both normal and anomalous network traffic. The dataset contains several attack types (e.g. DoS, Distributed Denial-of-Service (DDoS), and brute force), but these have all been labeled as “attack” [8]. ISCXIDS2012 is big data, with 20 independent features and 2,450,324 instances, of which roughly 2.8% typifies attack traffic. Big data is associated with specific properties, such as volume, variety, velocity, variability, value, and complexity [9]. These properties may make classification more challenging for learners trained on big data. Hereafter, “ISCXIDS2012” will be referred to as “ISCX2012” throughout the text.

In 2017, the creators of ISCX2012 and the Canadian Institute of Cybersecurity (CIC) acted on the fact that the dataset was limited to only six traffic protocols (HTTP, SMTP, SSH, IMAP, POP3, FTP). A case in point was the lack of representation of HTTPS, an important protocol accounting for about 70% of current network traffic in the real world [5]. Also, the distribution of simulated attacks did not conform to reality. CICIDS2017, which contains five days of network traffic, was released to remedy the deficiencies of its predecessor. Among the many benefits of this new dataset, the high number of features (80) facilitates machine learning. CICIDS2017 contains 2,830,743 instances, with attack traffic amounting to about 19.7 % of this total number. The dataset has a class imbalance and a wider range of attack types than ISCX2012. Class imbalance, which is a phenomenon caused by unequal distribution between majority and minority classes, can skew results in a big data study. At a granular level, CICIDS2017 has a high class imbalance with respect to some of the individual attack types. High class imbalance is defined by a majority-to-minority ratio between 100:1 and 10,000:1 [10].

The Communications Security Establishment (CSE) joined the project, and in 2018, the latest iteration of the intrusion detection dataset was released, CSE-CIC-IDS2018. The updated version also has a class imbalance and is structurally similar to CICIDS2017. However, CSE-CIC-IDS2018 was prepared from a much larger network of simulated client-targets and attack machines [11], resulting in a dataset that contains 16,233,002 instances gathered from 10 days of network traffic. About 17% of the instances is attack traffic. Table 1 shows the percentage distribution for the seven types of network traffic represented by CSE-CIC-IDS2018. Hereafter, “CSE-CIC-IDS2018” and “CICIDS2018” will be used interchangeably throughout the text. The dataset is distributed over ten CSV files that are downloadable from the cloud. Footnote 1 Nine files consist of 79 independent features, and the remaining file consists of 83 independent features.

Our exhaustive search for relevant, peer-reviewed papers ended on September 22, 2020. To the best of our knowledge, this is the first survey to exclusively present and analyze intrusion detection research on CICIDS2018 in such detail. CICIDS2018 is the most recent intrusion detection dataset that is big data, publicly available, and covers a wide range of attack types. The contribution of our survey centers around three important findings. In general, we observed that the best performance scores for each study, where provided, were unusually high. This may be a consequence of overfitting. The second finding deals with the apparent lack of concern in most studies for the class imbalance of CICIDS2018. Finally, we note that for all works, the data cleaning of CICIDS2018 has been given little attention, a shortcoming that could hinder reproducibility of experiments. Data cleaning involves the modification, formatting, and removal of data to enhance dataset usability [12].

The remainder of this paper is organized as follows: "Research papers using CICIDS2018" section describes and analyzes the compiled works "Discussion of surveyed works" section discusses survey findings, identifies gaps in the current research, and explains the performance metrics used in the curated works and "Conclusion" section concludes with the main points of the paper and offers suggestions for future work.


Evaluation

Model selection is a problem involved in almost every machine learning project. One way to do this, is to split the data into train and test sets and compute some error metric on the test set after learning model on the train. This procedure is, however, different from random train-test split often used in machine learning. Having time series data, one cannot simply pick random points — instead we put all observations before some split point to train set and the rest to test set. This reflects how our models are used in reality — we learn on historical data and then forecast future.

Another approach is to use time series cross validation (aka rolling forecast origin procedure) — we create many train-test splits with different split points, and then evaluate the model on each split.

Natural question that arises is what metric one should use to tell how well the model in question performs. The most popular are

  • Mean absolute error, which tells how much on average our forecasts differ from true values,
  • Mean absolute percentage error, which tells how much % predictions differ from true values.

Apple vs. Samsung: Endless Patent Lawsuits

The most acerbic interactions between Samsung and Apple take place in intellectual property rights court, where Apple has repeatedly reached into its bag of litigation tricks to assail Samsung for patent infringement. Lawsuits are a common strategy from Apple, which is one of the most legally aggressive firms in the world, but the focus on Samsung is particularly repetitive and intense.

The first salvo was fired in 2011 when Apple, already entangled with Motorola at the time, went after Samsung for its design of tablets and smartphones. The first claim came in April, and by August 2011, there were 19 ongoing Apple versus Samsung cases in nine separate countries. The count reached more than four dozen by mid-2012, with each company claiming billions of dollars in damages. Each firm won multiple decisions against the other between 2012 and 2015, often in conflicting rulings from German, Japanese, South Korean, American, French, Italian, Dutch, British, and Australian courts.

Amusingly, the rapid nature of technological advancement often leaves the comparatively dinosaur-like legal system in the dust. For example, Apple won an initial ruling in 2012 that targeted more than a dozen Samsung phones, but the appeals and countersuit process dragged out until 2014 when virtually every single target model was out of production. For this reason, the real damage is not on the production line, but rather in the mountain of legal costs incurred by Samsung and Apple around the world.

There are still some production or distribution victories. In August 2011, for instance, a court in Germany issued an EU-wide injunction on the Samsung Galaxy Tab 10.1 device for violation of an Apple interface patent. Samsung fought back and had the injunction reduced to only German markets, but it was still a victory for Apple. A similar injunction was successful in Australia.


Ver el vídeo: Linear, Quadratic, and Exponential Models (Julio 2022).


Comentarios:

  1. Jordain

    Bueno, maldita sea, esto no tiene sentido

  2. Coleman

    Bravo, qué palabras ..., idea brillante

  3. Akigor

    ¿Qué de esto se sigue?

  4. Valeriu

    Me uno. Estoy de acuerdo con todo lo mencionado anteriormente. Podemos comunicarnos sobre este tema.



Escribe un mensaje