SciELO - Scientific Electronic Library Online

 
vol.65 número1Variación de la capacita tampón en suelos derivados de cenizas volcánicasEFECTO DEL CONTENIDO DE AGUA EN LA MINERALIZACIÓN BRUTA E INMOVILIZACIÓN DE NITROGENO índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

Compartir


Agricultura Técnica

versión impresa ISSN 0365-2807

Agric. Téc. v.65 n.1 Chillán mar. 2005

http://dx.doi.org/10.4067/S0365-28072005000100007 

Agricultura Técnica (Chile) 65(1)9:65-73 (Enero-Marzo)

INVESTIGACIÓN RECURSOS NATURALES

REDES NEURONALES PARA MODELAR PREDICCIÓN DE HELADAS

Neural networks for modeling frost prediction

Gustavo Ovando1*, Mónica Bocco1 y Silvina Sayago1

1 Universidad Nacional de Córdoba, Facultad de Ciencias Agropecuarias, CC 509, 5000 Córdoba, Argentina. E-mail: gugovan@agro.uncor.edu


ABSTRACT

In this work models based on neural networks of the backpropagation type were developed in order to predict the occurrence of frosts from meteorological data such as temperature, relative humidity, cloudiness and wind direction and speed. The training and the validation of the networks were made on the basis of 24 years of meteorological data corresponding to the Río Cuarto station, Córdoba, Argentina. These data were grouped as follows: 10 years for the training data set and 14 years for the validation data set. Different models were built to evaluate the performance of the networks when different numbers of input variables and/or neurons in the hidden layer are used, and the probabilities of success in the prediction results on considering different input variables. In the models used, the percentage of days with prediction error was 2%, approximately, for the 14 years of application; when effective frosts days are considered the percentage varies between 10 and 23%, for the same period. The simulation results demonstrated the good performance and the relevance of this methodology for the estimation of the behavior of non-linear phenomena like frosts.

Key words: neural networks, frost prediction, models, backpropagation.


RESUMEN

En este trabajo se desarrollaron modelos basados en redes neuronales del tipo "backpropagation", para predecir la ocurrencia de heladas, a partir de datos meteorológicos de temperatura, humedad relativa, nubosidad, dirección y velocidad del viento. El entrenamiento y la validación de las redes se realizaron utilizando 24 años de datos meteorológicos correspondientes a la estación de Río Cuarto, Córdoba, Argentina, separados en 10 años como conjunto de datos de entrenamiento y 14 como conjunto de datos de validación. Se construyeron diferentes modelos para evaluar el comportamiento de las redes cuando se usan distintos números de variables de entrada y/o neuronas en la capa oculta y las probabilidades de aciertos en los resultados de predicción para los mismos, al considerar distintas variables de entrada. En los modelos realizados, el porcentaje de días con error de pronóstico fue de 2%, aproximadamente, para 14 años de aplicación; cuando se consideran días de heladas efectivas no pronosticadas los porcentajes oscilan entre un 10% y un 23%, para el mismo período. Los resultados de la simulación muestran el buen desempeño y la pertinencia general de esta metodología en la estimación de fenómenos de comportamiento no lineal como las heladas.

Palabras claves: redes neuronales, predicción de heladas, modelos, backpropagation.


INTRODUCCIÓN

Las redes neuronales (RN) representan una técnica de modelación matemática, que intenta imitar el proceso de aprendizaje que ocurre en el sistema nervioso. Su primer antecedente data de mediados del siglo XX y las primeras que se conocieron fueron las redes Perceptrón y Adaline (Freeman y Skapura, 1991).

Las RN se basan en una estructura de neuronas unidas por enlaces que transmiten información a otras neuronas, las cuales entregan un resultado mediante funciones matemáticas. Las RN aprenden de la información histórica a través de un entrenamiento, proceso mediante el cual se ajustan los parámetros de la red, a fin de entregar la respuesta deseada, adquiriendo entonces la capacidad de predecir respuestas del mismo fenómeno. El comportamiento de las redes depende entonces de los pesos para los enlaces, de las funciones de activación que se especifican para las neuronas, las que pueden ser de tres categorías: lineal, de umbral (o escalón) y sigmoidea, y de la forma en que propagan el error (Freeman y Skapura, 1991).

Existen varios algoritmos que permiten ir corrigiendo el error de pronóstico; uno de los más usados es el denominado "backpropagation", que consiste básicamente en propagar el error hacia atrás, desde la capa de salida hasta la de entrada, permitiendo así la adaptación de los pesos con el fin de reducir dicho error. (Hilera y Martínez, 2000).

En forma simplificada, el funcionamiento de una red "backpropagation" consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo de propagación–adaptación de dos fases: primero, al aplicar un primer patrón como estímulo para la capa de entrada de la red, éste se va propagando a través de las capas siguientes para generar la salida, la cual proporciona el valor del error al compararse con la que se desea obtener. A continuación estos errores se transmiten hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta intermedia que contribuyan directamente a la salida, recibiendo el porcentaje del error aproximado a la participacion de las mismas en la salida original.

Este proceso se repite siempre hacia atrás, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aporte relativo al error total. Basándose en esta información recibida, se reajustan todos los pesos de conexión, de manera que la siguiente vez que se presente el mismo patrón disminuya la diferencia entre la salida calculada y la deseada.

La importancia de la red backpropagation consiste en su capacidad de autoadaptar los pesos de las neuronas de las capas intermedias para aprender la relación que existe entre un conjunto de patrones dados como ejemplo y sus salidas correspondientes.

Dependiendo del tipo de aplicación y sus características, se han desarrollo distintos tipos de redes neuronales, que se aplican en reconocimientos de voz, sistemas de control, procesamiento, clasificación de patrones en imágenes satelitales, determinación de variables climáticas, procesos químicos, y procesos de gestión.

La utilización de las RN para la predicción de fenómenos relacionados con el clima puede encontrarse en investigaciones de Clair y Ehrman (1998) y Zurada (1992), entre otros. También existen aplicaciones de RN en hidrología para la predicción de los fenómenos de lluvia y escorrentía en cuencas con distintas características (Brahm y Varas, 2003; Shamseldin, 1997).

Njau (1997) desarrolló un modelo para la predicción de la temperatura; Mohandes et al. (1998a) estudiaron la predicción de la velocidad de viento empleando RN; los mismos autores (1998b) emplearon esta metodología con éxito para la estimación de la radiación solar global. Alexiadis et al. (1998) usaron RN para predecir la velocidad del viento, y Guimaraes et al. (2003) para la estimación de la evapotranspiración.

Un mejor conocimiento del comportamiento de los parámetros climáticos como radiación, temperatura, humedad relativa, precipitaciones, etc., es de importancia para decisiones en el sistema agropecuario. Para realizar agricultura sostenible, es necesario prevenir problemas y solucionar aquellos factibles, tratando de anticiparse a hechos que indiscutiblemente ocurrirán y que en muchos casos se pueden prevenir. En particular, para sistemas de producción donde la rentabilidad lo permite, realizar previsiones para la lucha activa frente al fenómeno de helada.

Las heladas, como afirman Garay y Cicero (2001), son un fenómeno meteorológico que se manifiesta como un proceso no lineal, dependiente de un gran número de variables cuya función se desconoce. Esto hace factible y adecuada la utilización de una RN para el pronóstico de las mismas.

El propósito de este trabajo fue diseñar redes neuronales, del tipo "backpropagation", capaces de predecir la ocurrencia de heladas, a partir de datos meteorológicos de temperatura, humedad relativa, nubosidad, dirección y velocidad del viento. Se realizaron distintos modelos para decidir el comportamiento de las redes cuando se usan distintos números de variables de entrada y/o neuronas en la capa oculta y las probabilidades de aciertos en los resultados de predicción para los mismos al considerar distintas variables de entrada.


MATERIALES Y MÉTODOS

Una red neuronal artificial es un entramado o estructura formada por nodos o neuronas, que se conectan entre sí y tienen la capacidad de recibir datos de entrada y producir una salida. Las distintas redes neuronales propuestas en el presente trabajo presentan tres capas de neuronas con propagación de la información hacia adelante, están compuestas por una capa de entrada cuyas neuronas son Ei (en la presente aplicación, en cada una de las cuales ingresan los parámetros como temperatura, humedad, etc.), una capa de neuronas ocultas Oj (capa de unidades de procesamiento), cuyo número de neuronas no necesariamente es igual al de la capa de entrada, y una capa de neuronas de salida, Si , que codifican el resultado del cálculo (en esta aplicación conformada por una sola neurona que indica la decisión de helada o no). La cantidad de neuronas de la capa de salida depende del problema a resolver. El esquema general puede observarse en el Figura 1.

Figura 1. Esquema general de conexiones de una red neuronal.
Figure 1. General scheme of connections in a neural network.

Durante la fase de entrenamiento de la red, se determinan iterativamente los pesos de las conexiones, wji que conectan a las neuronas de entrada con las de la capa oculta y wj para la transferencia entre la capa oculta y la de salida. A partir de los datos de entrada la red en cada iteración propaga una salida, a través de las neuronas que la componen, con los pesos y función de transferencia considerados, esta salida se compara con la real, obteniéndose así un error. El entrenamiento concluye cuando la red es capaz de reproducir las salidas conocidas para los parámetros de entrada, con un error mínimo arbitrario. Las funciones de transferencia y activación utilizadas pueden ser de tipo lineal, escalón o sigmoidea.

La segunda fase consiste en realizar la validación de la red diseñada con otro conjunto de datos para los cuales se conocen los resultados, a fin de comprobar la eficiencia de la misma.

Esquema general del modelo de red neuronal
De acuerdo a Hilera y Martínez (2000), el esquema del modelo de la red propuesta, con los pasos y fórmulas que se utilizaron en el algoritmo de entrenamiento, pueden describirse en los siguientes pasos:

  • Paso 1:

Inicializar los pesos de la red con valores aleatorios.

  • Paso 2:

Presentar un patron de entrada X: (xp1, xp2, ..., xpN) y especificar la salida deseada que debe generar la red: (d1, d2,..., dM), si la red se utiliza como clasificador, todas las salidas serán cero, salvo una, la que sea de la clase a la que pertenece el patrón de entrada.

  • Paso 3:

Calcular la salida actual de la red, para ello, para la entrada presentada, se van obteniendo los valores de las respuestas que presenta cada capa hasta llegar a la capa de salida. Los subpasos que lleva este procedimiento son los siguientes:

a- Se calculan las entradas netas (net) para las neuronas ocultas procedentes de las neuronas de entrada. Para una neurona oculta j (Oj):

donde el subíndice p corresponde al p-ésimo vector de entrenamiento, j a la j-ésima neurona oculta, wji es el peso de la conexión entre Ei y Oj y el término θj corresponde a un término de umbral mínimo a alcanzar por la neurona para su activación. A partir de estas entradas se calculan las salidas (y) de las neuronas ocultas, utilizando una función de activación f .

b- Se realizan los mismos cálculos para obtener los valores de resultado de cada neurona k de la capa de salida

Para minimizar el error (fórmula en el Paso 6) la función f debe ser derivable, lo que implica la imposibilidad de utilizar la función escalón. En general se utilizan dos tipos de función de activación: la función lineal ( f (netj k)= (netj k) ) y la función sigmoidea definida por la ecuación:

La elección de esta función depende de la forma en que se decida representar los datos: si se desea que las neuronas de salida sean binarias, se utiliza la función sigmoidea, puesto que la función es casi biestable y además, derivable.

  • Paso 4:
  • Después que todas las neuronas de la red tienen un valor de activación asociado para un patrón de entrada dado, el algoritmo continúa encontrando el error que se presenta para cada neurona, excepto las de la capa de entrada. Para la neurona k de la capa de salida, si la respuesta es (y1, y2,..., yM), dicho error (d) se puede escribir como:

y para la función sigmoidea en particular:

Si la neurona j no es de salida, entonces la derivada parcial del error no puede ser evaluada directamente. Por tanto, se obtiene el desarrollo a partir de valores que son conocidos y otros que pueden ser evaluados. La expresión obtenida en este caso es:

donde observamos que el error en las capas ocultas depende de todos los términos del error de la capa de salida. De aquí el nombre de propagación hacia atrás.

El error que se produce en una neurona oculta es proporcional a la suma de los errores conocidos que se producen en las neuronas a las que está conectada la salida de la misma, multiplicando cada uno por el peso de la conexión. Los umbrales internos de las neuronas se adaptan de forma similar, considerando que están conectados con pesos desde entradas auxiliares de valor constante.

  • Paso 5

Para la actualización de los pesos utilizamos el algoritmo recursivo, comenzando por las neuronas de salida y trabajando hacia atrás hasta llegar a la capa de entrada, ajustando los pesos de la forma siguiente:

a - Para los pesos de las neuronas de la capa de salida:


b - Para los pesos de las neuronas de la capa oculta:


En ambos casos, para acelerar el proceso de aprendizaje, se incluye una tasa de aprendizaje que varía entre 0 y 1, dependiendo del problema a solucionar. También se puede añadir un término de momento, para corregir la dirección del error, de valor en el caso de una neurona de salida, y , cuando se trata de una neurona oculta; la constante g es la tasa de momento; y un tercer parámetro b para acelerar la convergencia del proceso (Campbell y Temporel, 2002).

  • Paso 6

El proceso se repite hasta que el error medio cuadrático (Ep )

resulta aceptablemente pequeño para cada uno de los patrones aprendidos. Este estadístico se utiliza para la evaluación objetiva del desempeño de la RN.

Datos meteorológicos
Los datos diarios de entrada de la RN se obtuvieron de la estación meteorológica convencional de Río Cuarto Aero, que pertenece al Servicio Meteorológico Nacional dependiente de la Fuerza Aérea Argentina, Región Aérea Noroeste, cuyo número de la Organización Meteorológica Mundial (OMM) es 87453, y se encuentra ubicada en las coordenadas geográficas 33º07’ lat. Sur y 64º14’ long. Oeste, la altitud es de 421 m.s.n.m. El clima de la región de Río Cuarto, Córdoba, Argentina, se clasifica, según Köppen, como Cwa, subtropical cálido húmedo con inviernos secos.

Pronóstico de heladas
El modelo general (M1) de pronóstico de heladas se implementó como una red neuronal del tipo "backpropagation", empleando una función sigmoidea, con tasa de aprendizaje a = 1, tasa de momento g = 0,5, y el parámetro b = 0,5, valores recomendados por Campbell y Temporel (2002)
. El mismo se programó utilizando lenguaje C. Para la capa de entrada y la capa oculta se utilizaron 15 neuronas. Como la función de activación utilizada fue la sigmoidea, que entrega valores para temperaturas en todo el intervalo [0,1], se consideró una función lineal para asignar los valores menores a 0,2 como 0 si se produce el fenómeno de helada, y los valores mayores a 0,8 el valor 1 que corresponde a no helada, quedando un gradiente en el intervalo (0,2, 0,8).

En el modelo 1 (M1), los datos de entrada fueron: temperatura (ºC) a nivel del abrigo de las 14:00 h y 20:00 h, humedad relativa (%), temperatura a punto de rocío (ºC), dirección (º) y velocidad del viento (nudos) y nubosidad (octos); los valores de estas variables se consideran para los dos días sucesivos anteriores al que se va a pronosticar.

Como los datos de humedad relativa y temperatura del punto de rocío se encuentran correlacionados y dado que además junto con la velocidad del viento son elementos meteorológicos que se miden en menor número de estaciones, resulta de utilidad analizar el efecto de la disminución de datos de entrada sobre la capacidad de pronóstico de la RN, con el beneficio adicional de la reducción de los tiempos de entrenamiento. Teniendo en cuenta estas razones, a partir del modelo M1 se generaron los modelos M4 que no incluye la variable humedad relativa como entrada, y el modelo M7 que no considera como dato a la variable viento (velocidad y dirección). Para cada uno de estos (Mi con i = 1, 4, 7) se consideraron a su vez otros dos modelos (Mi+1 , Mi+2 ), con menor número de neuronas de la capa oculta, composición que puede observarse en el Cuadro 1.

Cuadro 1. Modelos de redes neuronales para pronóstico de heladas. Variables de entrada y número de neuronas en la capa de entrada (E) y oculta (O).
Table 1. Neural network models for frost prediction. Input variables and number of neurons in the input (E) and hidden layer (O).

Modelos de pronóstico

Capa de entrada:

variables consideradas

Número de neuronas

E

O

Modelo M1

Todas las variables

15

15

Modelo M2

15

11

Modelo M3

15

8

Modelo M4

Sin humedad relativa

13

13

Modelo M5

13

10

Modelo M6

13

7

Modelo M7

Sin dirección ni velocidad de viento

11

11

Modelo M8

11

9

Modelo M9

11

6

 

En la fase de entrenamiento se utilizaron 3650 días (datos), y a los efectos de comparación entre los distintos modelos planteados como de tiempos de computación dedicados a los mismos, se consideró que el número de 20.000 iteraciones era suficiente para lograr un error significativo.

RESULTADOS Y DISCUSIÓN

Para el modelo M1, al cabo de 20.000 iteraciones, se obtuvo un error medio cuadrático de 1,0. En el Cuadro 2 se observan los errores que se presentaron en el entrenamiento de cada uno de los modelos, como así también la evolución de los mismos cuando se disminuyen el número de neuronas de la capa oculta. Se puede deducir que la reducción en el número de neuronas que constituyen la capa oculta produce un aumento en los errores de aprendizaje, esto estaría confirmando la suposición que el fenómeno es decididamente no lineal en su comportamiento, y de allí esta reducción dificulta la elección de pesos, para un mismo número de iteraciones en el aprendizaje.

Cuadro 2. Valor del error de aprendizaje y días con error de pronóstico para los distintos modelos de redes neuronales.
Table 2. Learning error value and days with prediction error for the different neural network models.

Modelos de pronóstico

Error cuadrático de aprendizaje

Días con
error de pronóstico

M1

1,0

2,27

M2

2,0

1,95

M3

4,9

2,33

M4

1,3

2,18

M5

3,1

2,19

M6

7,5

1,87

M7

6,1

2,25

M8

9,3

2,13

M9

14,0

2,22


Proceso de validación
Las redes confeccionadas se aplicaron a datos desconocidos para las mismas, correspondientes a 5110 días, desde 1978, para los cuales se conocía la ocurrencia o no de helada, a partir de la temperatura mínima del día siguiente; en este período se registraron un total de 134 días con helada. Para cada una de las redes modeladas se obtuvieron los días con error de pronóstico (Cuadro 2).

Para cada uno de los modelos de redes planteados, el error cometido en el pronóstico puede clasificarse de dos tipos: aquellos errores de predicción que pueden producir daños sobre el cultivo, y los errores no dañinos. Dentro de los primeros se agruparon los pronósticos de no helada cuando la misma se había producido, para el M1 se registraron para los 14 años con los que se realizaron las pruebas, en promedio 5,3 días con error, con desviación de 3,41, lo que representa un error del 9,7% con respecto al total de días empleados para la validación; este valor es similar al que Garay y Cicero (2001) encontraron para Mendoza, Argentina, de 8,7% en el pronóstico de un único año. Esta cifra debe considerarse en el contexto de las variables meteorológicas, ya que como se señala en Martinez Albaladejo (2001), una pequeña variación del tiempo, como un pequeño retraso o adelanto en el paso de un frente sobre la zona, que el viento sople un poco más o menos fuerte, que al amanecer haya alguna nubosidad o no en la zona, etc., pueden hacer que la predicción de heladas se cumpla o no por muy poco.

Los valores extremos se presentaron en el año 1988, donde en 12 días no se realizó pronóstico de heladas efectivas, si bien se debe destacar que cuando se analizaron las condiciones meteorológicas que dieron como consecuencia dichos errores, únicamente en cuatro de estos días se presentaron temperaturas menores a – 4ºC, en cambio en los ocho días restantes las temperaturas estuvieron muy próximas a 0ºC y se produjeron en invierno, con lo cual los errores no fueron graves con respecto al daño en los cultivos. En cambio en el año 1991 hubo tres días de fallo de pronóstico, correspondiendo a situaciones donde la temperatura mínima registrada fue sólo de –1ºC.

Con respecto a los errores de predicción de heladas cuando no las hubo, haciendo un análisis de las condiciones meteorológicas presentadas en esas situaciones, para los 14 años con los que se realizaron las pruebas, se registraron en promedio 3,6 días con error, con desviación de 1,9.

La función sigmoidea utilizada para modelar la ocurrencia del fenómeno, proporcionó salidas que origina una distribución de los errores (e = diferencia entre ocurrencia y pronóstico), para el modelo M1, representada en el Cuadro 3, el cual muestra la alta eficiencia del pronóstico; en un 95,5% no se presentaron errores entre la ocurrencia y el pronóstico. Si se considera una probabilidad de distinguir entre un pronóstico correcto o incorrecto mayor o igual al 50%, el porcentaje se eleva a un 96,8%. En todo el período de validación sólo el 0,94% de los errores pronosticados en forma desacertada fueron dañinos (e = -1).

Cuadro 3. Distribución de la frecuencia de presentación de los errores de pronóstico de heladas. Modelo general (M1) de red neuronal.
Table 3. Distribution of the error presentation frequency in frost prediction. General neural network model (M1).

Intevalo de errores (e)

Frecuencia absoluta

Frecuencia porcentual

e = -1

48

0,94

- 1 < e ≤ -0,8

0

0

-0,8 < e ≤ -0,6

6

0,12

-0,6 < e ≤ -0,4

39

0,76

-0,4 < e ≤ -0,2

8

0,16

-0,2 < e < 0

0

0

0

4878

95,46

0 < e ≤ 0,2

4

0,08

0,2 < e ≤ 0,4

18

0,35

0,4 < e ≤ 0,6

44

0,86

0,6 < e ≤ 0,8

16

0,31

0,8 < e < 1

0

0

e = 1

49

0,96



Cuando se consideraron únicamente los días con helada efectiva, como se observa en la Figura 2, los porcentajes de error del pronóstico ascienden a valores que varían entre un 10 y un 23%; para el caso de los tres primeros modelos, los pronósticos desacertados alcanzan al 17% aproximadamente; al no considerar las variables relacionadas a la humedad relativa (modelos M4, M5 y M6) vemos que las heladas efectivas se predicen mejor con mayor número de neuronas en la capa oculta. Por el contrario, cuando no se incluye la variable viento (modelos M7, M8 y M9) un menor número de neuronas en la capa oculta disminuye el porcentaje de días con error.

Figura 2. Porcentaje de presentación de errores de pronóstico de heladas efectivas. Comparación entre nueve modelos de redes neuronales.
Figure 2. Percentage of presentation of errors of prediction of effective frosts. Comparison between nine neural network models.


CONCLUSIONES

Los modelos planteados permitieron inferir una función de predicción de heladas que depende de un número reducido de datos meteorológicos: temperaturas a nivel del abrigo de las 14:00 h y 20:00 h, humedad relativa, temperatura del punto de rocío, dirección y velocidad del viento y nubosidad (octos). Considerando la respuesta de las redes neuronales propuestas podemos asegurar que la dependencia de estas variables con la ocurrencia de heladas responde a una función no lineal, si bien las redes no proporcionan la expresión matemática de la misma.

Analizando los resultados obtenidos, se pueden validar como modelos que resultan en buenos pronósticos aquellos que no incluyen las variables que se relacionan con el viento, o bien el que no toma en cuenta los valores de humedad relativa, lo que permite concluir que el número de variables de entrada se puede acotar aún más en caso de disponibilidad de datos. Si se disminuye el número de neuronas de las capas ocultas en el planteamiento, o el número de iteraciones de entrenamiento, los errores no varían en forma importante, por lo cual ambos parámetros pueden decidirse en función del tiempo de entrenamiento.

Para los modelos analizados, se encontró que en general el porcentaje de días con error de pronóstico se encuentra en aproximadamente el 2% para 14 años de validación. Estos errores se incrementan en porcentajes que oscilan, para el mismo período, entre un 10 y un 23% cuando sólo se consideran días de heladas efectivas no pronosticadas.

El proceso de modelación utilizando las redes neuronales es eficiente para la predicción de heladas y permite la utilización de un bajo número de variables.

LITERATURA CITADA

Alexiadis, M.C., P.S. Dokopoulos, H.S. Sahsamanoglou, and I.M. Manousarids. 1998. Short-term forecasting of wind speed and related electrical power. Solar Energy 63:61–68.        [ Links ]

Brahm, B., y C.E. Varas. 2003. Disminución de los tiempos de entrenamiento en redes neuronales artificiales aplicadas a hidrología. Ingeniería Hidráulica en México. México. 18:69–82.        [ Links ]

Campbell, C., and A. Temporel. 2002. An investigation of the delta rule and gradient descent algorithm. Available at http://alex.boulderdash.org/NN.pdf. Connected julio de 2003.        [ Links ]Clair, T.A., and J.M. Ehrman. 1998. Using neural networks to assess the influence of changing seasonal climates in modifying discharge, dissolved organic carbon, and nitrogen export in eastern Canadian rivers. Water Resources Research 34:447-455.         [ Links ]

Freeman, J.A., and D.M. Skapura. 1991. Neural networks: algorithms, applications and programming techniques (Computation and Neural Systems Series) 401 p. Addison-Wesley Pub. Co., Reading, Massachusetts, USA.         [ Links ]

Garay, D., y A. Cicero. 2001. Aplicación de redes neuronales al pronóstico de heladas. Rev. Argentina de Agrometeorología 1:29-34.         [ Links ]

Guimaraes, D., P. Pereira de Albuquerque, e L. Aguiar Sans. 2003. Uso de redes neurais arficiais para a estimativa da evapotranspiração de referência (Eto) do método de Penman-Monteith, com um número reduzido de variáveis empíricas. En XIII Congresso Brasileiro de Agrometeorología, Santa Maria, Río Grande do Sul, Brasil, 04 a 07 de agosto de 2003. Sociedade Brasileira de Agrometeorologia, Campinas, São Paulo, Brasil.         [ Links ]

Hilera, J.R., y V.J. Martínez. 2000. Redes neuronales artificiales. Fundamentos, modelos y aplicaciones. 390 p. Editorial Alfaomega Ra-Ma, Madrid, España.         [ Links ]

Martínez Albaladejo, A. 2001. Evaluación de la predicción de heladas en el área de Lleida. En V Simposio Nacionalde Predicción. Madrid, 20 a 23 de noviembre de 2001. Disponible en http://www.inm.es/web/sup/ciencia/divulga/vsimposio/trabajos/pdf/D4-BAR_Evalua_heladas.pdf. Leído en julio de 2003.         [ Links ]

Mohandes, M., S. Rehman, and T.O. Halawani. 1998a. A neural network approach for wind speed prediction. Renewable Energy 13:345–354.        [ Links ]

Mohandes, M., S. Rehman, and T.O. Halawani. 1998b. Estimation of global solar radiation using artificial neural networks. Renewable Energy 14:179–184 .        [ Links ]

Njau, E.C. 1997. A new analytical model for temperature prediction. Renewable Energy 11:61–68.        [ Links ]

Shamseldin, A.Y. 1997. Application of a neural network technique to rainfall-runoff modeling. Journal of Hydrology 199:272-294.        [ Links ]

Zurada, J. 1992. Introduction to Artificial Neural Systems. 785 p. PWS Publishing Company. Boston, Massachusetts. USA.        [ Links ]

Recibido: 25 de noviembre de 2003 Aceptado: 5 de mayo de 2004.

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons