SciELO - Scientific Electronic Library Online

 
vol.43 número2Corrupción, instituciones provinciales y productividad manufacturera: Nueva evidencia para una economía en transición índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Estudios de economía

versão On-line ISSN 0718-5286

Estudios de Economía vol.43 no.2 Santiago nov. 2016

http://dx.doi.org/10.4067/S0718-52862016000200001 

 

Predicción del fracaso empresarial. Una contribución a la síntesis de una teoría mediante el análisis comparativo de distintas técnicas de predicción*

Business failure prediction. A contribution to the synthesis of a theory, through comparative analysis of different prediction technique

 

Pablo de Llano Monelos**
Carlos Piñeiro Sánchez***
Manuel Rodríguez López****

* Los autores agradecen las sugerencias y comentarios aportados por los revisores anónimos, y por el editor de la revista, que han contribuido a mejorar distintos aspectos de este trabajo.
** Grupo de Investigación en Finanzas y Sistemas de Información para la Gestión (FYSIG), Departamento de Economía Financiera y Contabilidad, Universidad de A Coruña. E-mail: pablo.de.llano@udc.es
*** Grupo de Investigación en Finanzas y Sistemas de Información para la Gestión (FYSIG), Departamento de Economía Financiera y Contabilidad, Universidad de A Coruña. E-mail: carpi@udc.es
**** Grupo de Investigación en Finanzas y Sistemas de Información para la Gestión (FYSIG), Departamento de Economía Financiera y Contabilidad, Universidad de A Coruña, E-mail: marod@udc.es


Resumen

Este artículo ofrece un análisis comparativo de la eficacia de ocho métodos de pronóstico populares: univariante, regresiones lineal, discriminante y logit, particionamiento recursivo, rough sets, redes neuronales artificiales, y DEA. Nuestros objetivos son: aclarar el equilibrio complejidad-efectividad de cada metodología; identificar un subconjunto de variables como predictores significativos independientemente de la metodología; y discutir y relacionar estos hallazgos con la teoría financiera, para ayudar a consolidar las bases de una teoría del fallo financiero. Nuestros resultados indican que, cualquiera que sea la metodología, se pueden emitir predicciones fiables usando cuatro variables, que contienen información acerca de rentabilidad, estructura financiera, rotación, y flujos de caja.

Palabras clave: Pronóstico del fallo financiero, métodos multivariables paramétricos, Inteligencia Artificial, máquinas de soporte vectorial.

Clasificación JEL: G33, C19, M4.


Abstract

This paper offers a comparative analysis of the effectiveness of eight popular forecasting methods: univariate, linear, discriminate and logit regression; recursive partitioning, rough sets, artificial neural networks, and DEA. Our goals are: clarify the complexity-effectiveness balance of each methodology; identify a reduced set of independent variables that are significant predictors whatever the methodology is; and discuss and relate these findings to the financial theory, to help consolidate the foundations of a theory offinancialfailure. Our results indicate that, whatever the methodology is, reliable predictions can be made using four variables; these ratios convey information about profitability, financial structure, rotation, and operating cash flows.

Key words: Financial failure forecast, multivariate methods, artificial intelli-gence, machine learning.

JEL Classification: G33, C19, M4.


 

1. INTRODUCCIÓN

El problema del fracaso empresarial es un asunto de plena actualidad, no ya por la recesión que sufrimos, sino por ser un problema de permanente interés para un amplio conjunto de agentes económicos y sociales. Exigencia crucial en Finanzas es el diseño de modelos capaces de detectar precozmente desequilibrios que pueden desembocar en fracaso. Estas herramientas proporcionarían no solo indicios cruciales para los intereses de acreedores e inversores, sino también evidencias útiles para mejorar la calidad de las decisiones y pautas generales para aumentar las oportunidades de supervivencia de empresas que sufren tensiones o anomalías financieras.

El grueso de la investigación en este campo entronca con el análisis financiero tradicional, de ahí el planteamiento metodológico convencional consistente en la derivación de algoritmos de clasificación o estimadores de probabilidad de fallo, a partir de información financiera. Estos trabajos proporcionan un amplio y extraordinariamente rico volumen de evidencias; pero se observan notables disparidades en las técnicas de análisis, las variables explicativas, y la calidad de los pronósticos.

En nuestra opinión, se precisa un esfuerzo para clarificar si ese ruido se debe a factores puramente metodológicos -singularidades en las poblaciones de estudio, diferencias en las variables predictoras, falta de consistencia en las normas contables locales, etc.- o si, por el contrario, existen evidencias que deban ser aclaradas. La generalización de resultados en este campo es desafiante, porque, a diferencia de otras áreas como la química o la medicina, los trabajos están muy poco protocolizados: la literatura muestra los resultados de configuraciones experimentales muy diferentes, y pone además de manifiesto que el éxito de los modelos se relaciona con el contexto temporal en el que han sido estimados. Todo ello dificulta severamente el establecimiento de las comparaciones objetivas que requieren los metaanálisis, y la generalización de conclusiones.

Nuestro objetivo principal es comprobar si, como es posible esperar, las distintas técnicas vienen a coincidir en un conjunto definido de variables predictoras, y las diferencias observadas en la investigación previa se explican por razones puramente metodológicas. La presencia de coherencia resultaría no solo muy beneficiosa para la consolidación de la teoría, sino también útil para el diseño de cuadros de mando orientados al control de riesgos en empresas no financieras.

El trabajo se organiza del siguiente modo: en el apartado 2 se sintetiza el estado actual del arte en esta área de investigación, prestando atención a la diversidad metodológica y a las variables predictoras habituales. La sección 3 presenta la metodología y a continuación se discuten los resultados; finalmente se extraen las conclusiones principales.

2. LOS MODELOS DE PRONÓSTICO DEL FRACASO

Hasta bien entrados los sesenta, el fracaso financiero fue estudiado como un aspecto más del análisis financiero, más específicamente del estudio de la solvencia y de las condiciones de equilibrio financiero. De acuerdo con esta interpretación, la empresa fracasaba por factores singulares, no generalizables, que causaban fenómenos súbitos de insolvencia. Este planteamiento evolucionó progresivamente con la detección de patrones estadísticos comunes en las empresas fracasadas (Beaver, 1966) y el establecimiento de nexos formales con la teoría financiera, en particular la emergente teoría acerca de la estructura de capital (Modigliani y Miller, 1958 y 1963), que establecía las bases de una relación entre el valor de la empresa, el rendimiento esperado, y riesgo. La noción de riesgo de ruina (Altman, 1968) es un reflejo del cambio en la perspectiva de trabajo, que tiende a ser prospectiva y presta una atención creciente a las condiciones que causan la insolvencia, abriendo el camino para el desarrollo de modelos de pronóstico.

La primera propuesta formalizada en este sentido es el modelo de Altman (1968), que emplea análisis discriminante (MDA) para formular una función que puntúa y clasifica a las observaciones en función de su riesgo, evaluado mediante cinco ratios contables1. El modelo puso de manifiesto la posibilidad de evaluar el riesgo de manera formalizada, y arrojó luz en la dinámica de las tensiones financieras: anomalías operativas que merman los recursos generados y la capacidad de autofinanciación, que conducen a la adopción de medidas desesperadas de supervivencia, las que enfatizan la reducción de gastos y el aumento del endeudamiento, todo ello tiende a crear un ciclo de retroalimentación que intensifica las dificultades financieras. Poco antes, Beaver (1966) había anticipado que la ratio entre cash flow generado y deuda es un indicador muy fiable del riesgo de insolvencia.

Dentro de las técnicas paramétricas, la principal alternativa a los modelos discriminantes es la regresión logística (Martin, 1977; Ohlson, 1980). La finalidad de un modelo logit es estimar la verosimilitud de que una observación, definida por cierto vector de atributos, posea o no la propiedad objeto de estudio, en este caso haber sufrido un evento de insolvencia; por tanto, en lugar de clasificar a las observaciones en categorías predefinidas, proporciona una estimación de la probabilidad de que se produzca el evento observado, por ejemplo una insolvencia. Este planteamiento parece más realista en la medida en que todas las empresas, también las que podríamos clasificar como sanas, están sometidas a un cierto grado de riesgo que debe ser evaluado y eventualmente mitigado. El cinturón hipotético de los modelos logit es también menos restrictivo, y no se requiere por ejemplo que los datos se distribuyan de acuerdo con una normal multivariante (Ohlson, 1980), lo que resulta especialmente conveniente para el análisis de muestras que, como las de ratios financieras, poseen un perfil estadístico diferente del estándar gaussiano. Los modelos logit resultantes son en general muy precisos; en particular poseen tasas de error de tipo I y tipo II equilibradas, lo que les confiere ventaja sobre los MDA -que tienden a sobreestimar el riesgo y cometer una proporción anormalmente alta de falsos positivos (Altman, 1968; Deakin, 1975; Altman, 1977; Kim, 2011)-.

Los modelos heurísticos representan un enfoque radicalmente diferente, caracterizado por la existencia de un proceso subyacente de aprendizaje (Quinlan, 1987; Liang, 1992; Hansen et al., 1993); en este apartado se incluyen, entre otros, las herramientas de inteligencia artificial subsimbólica como redes de neuronas artificiales y máquinas de soporte vectorial (Messier y Hansen, 1988; Hansen y Messier, 1991; Serrano et al. 1993; Wilson y Sharda, 1994; Altman et al., 1994; Kim, 2011; Piñeiro et al., 2013a)2, árboles bayesianos (Sarkar et al., 2001) y las técnicas de particionamiento recursivo (Marais et al., 1984; Frydman et al, 1985; Quinlan, 1986 y 1987; Daubie et al., 2002). Los modelos resultantes son en general más eficaces que sus equivalentes paramétricos, en gran medida porque poseen una capacidad inherente para no solo procesar los datos propiamente dichos, sino también elucidar y formalizar patrones ocultos en las estructuras de información (Coats y Fant, 1999); esto les confiere una habilidad especial para manejar factores cualitativos, por ejemplo medidas semánticas de calificación crediticia o expresiones extraídas de informes de auditoría. Son, no obstante, computacionalmente más complejos y costosos, y también requieren mayores volúmenes de información (Kim, 2011).

2.1. La variable dependiente

Al margen de su importancia metodológica, Ohlson (1980) ocasionó un profundo cambio conceptual en la especificación de la variable dependiente de los modelos. El tratamiento de la insolvencia y el fracaso financiero como eventos susceptibles de gradación -más o menos verosímiles, más o menos inmediatos- abrió el camino para superar el enfoque de bancarrota subyacente en los modelos discriminantes de Altman, y en la literatura previa respecto de fracaso financiero: una empresa puede incurrir en una insolvencia puntual, incluso verse abocada a un proceso concursal, sin que ello suponga necesariamente un proceso extintivo irreversible; es cierto que interesa anticipar estos eventos con antelación y fiabilidad, pero también lo es que tienen diferente gravedad, desde la óptica de un propietario o un acreedor. La definición de fracaso financiero ha evolucionado desde una interpretación ex post puramente jurídica (quiebra o bancarrota) hacia un enfoque ex ante basado en la idea de la insolvencia como una situación en la que la empresa no puede atender sus pagos por razones de tesorería, depreciación de activos, vaciamiento de liquidez en los mercados financieros, etcétera.

2.2. Las variables independientes

El grueso de los modelos de pronóstico, tanto paramétricos como heurísticos, emplea variables cuantitativas, en particular ratios contables. Estos indicadores suelen construirse de acuerdo con la lógica derivada del análisis financiero, lo que permite formular hipótesis razonadas e interpretar los resultados obtenidos en el contexto general de la teoría financiera. Existe un acuerdo general en cuanto a la necesidad de incluir ratios relativas a cinco áreas: la capacidad de generación de recursos por medio de las operaciones (tesorería y rentabilidad) y el equilibrio financiero parecen ser los atributos con mayor peso en el pronóstico (Altman, 1968; Altman et al., 1977; Sharma y Mahajan, 1980; Ezzamuel et al., 1987); los índices de rotación del ciclo corto y ratios de actividad son relevantes, aunque su incidencia no parece ser homogénea en todas las actividades y áreas geográficas (Dimitras et al., 1996); finalmente, Argenti (1976) y Lincoln (1974), entre otros, han enfatizado la importancia de las ratios dinámicas para reflejar los cambios económicos y financieros que experimenta la empresa a lo largo del tiempo.

Ocasionalmente las ratios financieras se han completado con variables macroeconómicas (Rose et al., 1982). Existen sin embargo razones metodológicas que restan interés a este enfoque. La presencia simultánea de ratios y variables macroeconómicas es una fuente potencial de colinealidad, lo que, como se sabe, ocasiona sesgos en los estimadores.

La literatura reciente se orienta a la detección de las tensiones y disfunciones financieras en estados de latencia, antes de que se manifiesten explícitamente en forma de concursos, insolvencias documentadas, o quiebras propiamente dichas; aquí se han realizado interesantes progresos en la búsqueda de variables que puedan proporcionar alertas tempranas acerca de la posible existencia de disfunciones no reveladas -obsérvese que las ratios financieras son indicadores a posteriori-. Se han formulado modelos que incluyen evidencias relativas a la calidad de gestión, tanto indicadores de gobierno corporativo como evidencias derivadas del proceso de auditoría externa (Sun y Li, 2009; Tsai et al., 2009; Lajili y Zéghal, 2011; Piñeiro et al., 2012 y 20Ba; Rodríguez et al., 2014). En estos modelos, que incluso cuando la empresa pone en práctica estrategias para impedir la revelación de sus disfunciones financieras, es posible identificar signos de alerta dentro del flujo de información corporativa: estos resultados son sugerentes, en el sentido de que proporcionan una eficaz alternativa a los modelos basados en ratios, en aquellas situaciones en que existen dudas respecto de la fiabilidad de la información contable.

El uso de ratios no está exento de aspectos cuestionables. Por una parte, su distribución es claramente no gaussiana, lo que cuestiona el empleo de algunas técnicas -en particular, MDA- y en cualquier caso puede obligar a introducir transformaciones previas para modificar el perfil estadístico de la muestra.

La elección de las ratios que actuarán como predictoras es un proceso complejo en el que interactúan la lógica financiera, los antecedentes proporcionados por la literatura, y un cierto grado de subjetividad. A continuación el investigador debe elegir una especificación analítica concreta para la ratio, que en general está condicionada por las características de los datos primarios disponibles. Finalmente, se obtiene un modelo que en teoría debería ser susceptible de generalización, es decir: debería ser capaz de diagnosticar fiablemente a otras empresas ajenas a la muestra de estimación, o a estas mismas empresas en diferentes momentos de tiempo. En otras palabras, los modelos deberían ser consistentes, en términos transversales, y estables, en términos temporales. En la práctica, existen diferencias palpables en las variables de pronóstico.

Tomemos como ejemplo dos trabajos clásicos en esta área, Altman (1968) y Ohlson (1980). El modelo de Altman (1968) logra tasas de acierto cercanas al 90% un año antes del fracaso, empleando cinco ratios3 que, en gran medida, se inspiran en los resultados del trabajo seminal de Beaver (1966); sin embargo es importante observar que la tasa de acierto entre las empresas sanas es sustancialmente más baja; el modelo comete una proporción anormalmente grande de falsos positivos. Ohlson (1980) emplea solo algunos de los indicadores originales de Altman (1968) y añade otros que, como la dimensión (variable de control) o las ratios dinámicas, habían sido sugeridas por trabajos posteriores a este; logra una eficacia comparable a Altman (1968) y además comunica errores I y II más equilibrados.

Como señala Ohlson (1980), existe siempre un cierto grado de duda acerca de la representatividad de la información contable. Incluso si se aplica de manera rigurosa y escrupulosa, la normativa contable permite cierto grado de flexibilidad, lo que en la práctica condiciona la comparabilidad de los estados contables. Por otra parte el volumen de información decrece consistentemente conforme lo hace la dimensión de la empresa.

Sin embargo el aspecto clave radica en la posibilidad de que algunas empresas tengan incentivos para manipular y alterar su información contable. No todas las empresas poseen mecanismos equivalentes de control interno, ni se someten a procedimientos independientes de control externo, como la auditoría. Algunos trabajos recientes indican que las empresas sometidas a tensiones financieras latentes tienden a introducir ajustes discrecionales para encubrir estas tensiones y adoptar acciones encaminadas a manipular o bloquear el flujo de información hacia el exterior (Piñeiro et al., 2012). Una eventual revelación podrían cortar su acceso a financiación o materias primas, o socavar su reputación ante los clientes, de manera que es plausible que estas compañías proporcionen conscientemente información económica y financiera de peor calidad.

A la vista de todo ello, es admisible preguntarse en qué medida la fiabilidad de los pronósticos de riesgo depende de la metodología de trabajo empleada y de la calidad de los datos contables que nutren los modelos; también, si es posible sintetizar un pequeño número de variables que permitan diagnosticar la salud financiera de las empresas, en concordancia con las predicciones de la teoría financiera, y con independencia de la metodología matemática o estadística empleada para diseñar el modelo. Nuestras hipótesis de trabajo son las siguientes:

• H1: Las ratios financieras canalizan información suficiente, en términos de cantidad y calidad, para obtener pronósticos fiables del riesgo de insolvencia de las empresas

• H2: Los modelos heurísticos proporcionan pronósticos de mayor calidad que los modelos paramétricos

• H3: Sea cual sea el método de pronóstico elegido, existe un subconjunto común de variables relevantes que comprenden la tesorería, la estructura patrimonial, y la capacidad de generación de rentas.

3. METODOLOGÍA

3.1. Variable dependiente

En este trabajo empleamos una versión modificada del criterio jurídico (sanas y fallidas), que comprende tanto los concursos y quiebras propiamente dichos como otros eventos puntuales de impago. El criterio jurídico es una elección general por su objetividad y sus vínculos con la lógica financiera: se entiende fracasada la empresa que se ve obligada a instar un concurso de acreedores. Sin embargo, es importante comprender que el fracaso subsume una amplia variedad de situaciones de desequilibrio financiero relativas tanto al ciclo de negocios4 como a la estrategia financiera, que se traducen en una dificultad crónica para atender puntualmente los compromisos de pago. Incluso si la empresa no se ve afectada por un concurso, las insolvencias y morosidades puntuales son relevantes porque reflejan tensiones financieras latentes o, cuando menos, anomalías de gestión (Hing-Ling, 1987). Nuestra noción de fracaso financiero comprende las siguientes situaciones:

• Haber declarado una quiebra o proceso extintivo irreversible durante el período de estudio.

• Estar actualmente incursa en un proceso concursal.

• Estar afectada por litigios judiciales vinculados a la reclamación de deudas de cuantía elevada y relevante.

• Haber impagado efectos comerciales aceptados, con frecuencia y por cuantía relevantes, de acuerdo con el contenido de RAI o BADEXCUG5.

3.2. Variables explicativas

La elección de las variables explicativas está íntimamente relacionada con los objetivos de nuestro trabajo. Por una parte, deben ser compatibles con todas las metodologías a aplicar, lo que obliga a descartar las variables cualitativas y categóricas; por otra deben ser coherentes con la literatura preexistente, que como hemos visto avala la relevancia de las ratios financieras. El empleo de estos indicadores nos brinda además la oportunidad de aportar evidencia indirecta acerca de la calidad de la información contable pública: esta es una cuestión de importancia, ya que los usuarios externos deben evaluar el riesgo de crédito sobre la base de la información pública de la empresa, que está constituida fundamentalmente por datos económicos y financieros emanados de la contabilidad.

Los modelos estimados en este trabajo emplean como variables independientes una batería de 59 ratios financieras (Tabla 1)6 7, seleccionadas de acuerdo con tres criterios: su popularidad en la literatura contable y financiera, la frecuencia con la que son empleadas en la literatura relevante en materia de pronóstico del fracaso empresarial, y la significación estadística que les atribuyen estos estudios. Hemos optado por un conjunto amplio de variables independientes para evitar que el diseño experimental pueda imponer restricciones acerca de la estimación de los modelos y por tanto causar una convergencia artificial o espuria.

Hemos omitido valores extremos y observaciones con ratios que, de manera objetiva, pudiesen ser interpretados como abiertamente atípicos. Las pruebas estadísticas se han realizado con la ayuda del software SPSS; los modelos heurísticos han sido tratados con software de desarrollo propio.

3.3. Selección de la muestra

La población de referencia para esta investigación son las sociedades mercantiles radicadas en Galicia y con una edad igual o superior a cuatro años8, cualquiera que sea su actividad (ya que nuestro objetivo es extraer conclusiones de carácter general). Excepcionalmente, hemos excluido las actividades relacionadas con la intermediación financiera habida cuenta de las muy especiales características de su estructura patrimonial y de su explotación. En principio, este planteamiento expone a los modelos a eventuales fuentes de confusión, ocasionadas por ejemplo por diferencias sectoriales en las tasas de mortalidad o en los valores medios de las variables predictoras, de ahí que hayamos protegido el estudio diseñando un muestreo con emparejamiento9. La identificación de la población se realizó mediante la información proporcionada por la base de datos SABI y por el Registro Mercantil.

Nuestro trabajo maneja dos muestras, ambas extraídas de forma aleatoria dentro de la población descrita más arriba. La primera muestra, correspondiente al período 1989-1999, se emplea para estimar los modelos y realizar una primera verificación de sus capacidades explicativa y predictiva; este período fue elegido por sus similitudes con el contexto económico actual: una profunda crisis económica que eleva drásticamente la mortalidad empresarial, en combinación con un apalancamiento excesivo y una intensificación de la competencia de mercados exteriores. Esta muestra tiene naturaleza equilibrada (60 empresas sanas, y otras tantas empresas fallidas), para evitar que la reducida frecuencia empírica del fracaso se traduzca en un sesgo optimista en los modelos de pronóstico (Zmijewski, 1984).

La segunda muestra (1999-2009), de validación, se emplea para realizar un segundo ciclo de verificación en el que los modelos se enfrentan a observaciones diferentes y datos extemporáneos, es decir, empresas ajenas a la muestra de estimación y ratios correspondientes a un período diferente del marco de estimación. Esta estrategia de doble verificación, característica de las aplicaciones basadas en inteligencia artificial, pretende proporcionar evidencias preliminares para evaluar en qué medida se deteriora la capacidad predictiva cuando los modelos son aplicados fuera del período de estimación y por tanto se vulnera la presunción de estacionariedad (Joy y Tollefson, 1975)10.

El tamaño de las muestras está severamente condicionado por el número de empresas fallidas y por las exigencias de información del estudio. A pesar de su evidente trascendencia, el fracaso afecta a una proporción relativamente pequeña del tejido empresarial; por otra parte, las empresas sometidas a tensiones financieras padecen lagunas informacionales con una frecuencia anormalmente alta (Piñeiro et al., 2012): son frecuentes las omisiones en el deber de depositar las Cuentas Anuales en el Registro Mercantil, así como las estrategias dirigidas a reducir la calidad de la información financiera, por ejemplo la agregación de múltiples partidas en un solo epígrafe de los estados contables. Todas estas observaciones han tenido que ser descartadas, ya que nuestro estudio requiere series financieras completas. En cualquier caso, el tamaño de la muestra de estimación se corresponde con los estándares en esta área de trabajo11.

4. RESULTADOS

En este apartado presentamos los resultados más relevantes proporcionados por cada una de las técnicas de pronóstico12. Debido a la magnitud y complejidad de las estimaciones realizadas, nos hemos visto obligados a omitir el tratamiento de muchas evidencias que tienen trascendencia secundaria o accesoria a los propósitos de este estudio.

4.1. Análisis univariante y reducción de datos

Beaver (1966) demostró la existencia de diferencias estadísticamente significativas en los valores medios de cierto número de ratios financieras. Nuestros resultados corroboran la existencia de diferencias significativas (p-valores inferiores al 1%) en más de la mitad de las ratios13: las empresas fracasadas padecen una incapacidad crónica para generar recursos por medio de la actividad debido a sus bajos niveles de rentabilidad, que suplen recurriendo a un endeudamiento más intenso; todo ello se traduce en tensiones crecientes en el fondo de rotación y en el progresivo estrangulamiento de la cuenta de resultados en lo que respecta tanto al resultado económico o de explotación como a la cobertura de los gastos financieros y la capacidad para atender el servicio de la deuda. Por tanto la liquidez aparece relacionada con solvencia, la rentabilidad, y el apalancamiento.

Hemos calibrado un punto óptimo de corte mediante simulación artificial (Tabla 2); a continuación empleamos estos umbrales para comprobar qué ratios delimitan con mejor nitidez a las empresas sanas y fallidas. Las ocho variables más relevantes están basadas en tan solo seis masas y flujos contables: activo total, cash flow, pasivo exigible, patrimonio neto, resultado ante intereses e impuestos, y resultado neto. Este resultado tiene una traducción directa como criterio para la identificación de los procesos y las magnitudes económicas que deberían centrar la atención de directivos, analistas, y auditores, y también como guía para el desarrollo de modelos multivariables.

A sensu contrario, los resultados de las pruebas de ANOVA indican también que gran parte de las variables planteadas tiene una incidencia marginal en el pronóstico; la acusada correlación de las ratios está bien documentada. Todo ello sugiere el empleo de técnicas para reducir la dimensión de los datos y sus redundancias (Wu et al., 2006): hemos formulado un análisis factorial exploratorio, reteniendo en cada horizonte los factores con autovalor superior a la unidad14, en total 57 (quince en un período de cuatro años antes del fracaso, y catorce en los otros tres plazos). Estos factores se basan en combinaciones lineales de tan solo dieciocho (18) ratios y trece (13) magnitudes contables (Tabla 4), y explican más del 85% de la varianza (85,45% un año antes del fracaso, y 88,55% cuatro años antes), lo que corrobora que la información relevante para el pronóstico está muy concentrada en un pequeño número de magnitudes. Cualquiera que sea el horizonte de pronóstico, los factores con más peso (entre el 25% y el 28% de la varianza) están basados en medidas de rentabilidad, generación de cash flow, endeudamiento y solvencia. En nuestra opinión, debe concluirse que las dificultades para generar recursos, las tensiones de liquidez y las alteraciones en la estructura financiera son disfunciones presentes durante largos períodos antes de que el fracaso se manifieste.

4.2. Modelos multivariables paramétricos

Tradicionalmente el pronóstico de la insolvencia se ha instrumentado en modelos de corte paramétrico: los métodos econométricos multivariables proporcionan herramientas idóneas para seleccionar iterativamente las variables con mayor capacidad explicativa, y diseñar modelos simples y al mismo tiempo fiables. En este caso estimamos tres modelos multivariables: regresión múltiple, análisis discriminante múltiple (MDA), y regresión logística. En cada caso, estimamos un modelo para cada uno de los cuatro horizontes temporales considerados (uno, dos, tres y cuatro años antes del fracaso), y un quinto modelo de naturaleza atemporal. Todos ellos se someten al doble ciclo de verificación que hemos descrito más arriba.

4.2.1. Regresión lineal múltiple

Aunque es empleada con cierta profusión en múltiples áreas de las finanzas, como la modelización del rendimiento y el riesgo (por ejemplo Ross, 1976), la regresión lineal múltiple tiene un difícil encaje en el pronóstico del fracaso financiero, debido a que en este caso la variable dependiente tiene naturaleza dicotómica. Las estimaciones (Tabla 7) se han realizado empleando una estrategia de selección hacia adelante para los regresores; todos los estimadores tienen p-valores iguales o inferiores al 1 % excepto ROT06 que, en el modelo a un año, es dudosamente significativo (p* = 0,05) (Rodríguez, 2002b). En conjunto los modelos son significativos y logran tasas medias de acierto aceptables, entre el 70% y el 100% en la muestra de estimación (Tabla 8), sin embargo su fiabilidad como instrumento de pronóstico es cuestionable: en concordancia con la literatura precedente, se observa una reducción progresiva de la capacidad de discriminación a medio y largo plazo (Altman, 1968; Altman, 1977). Los modelos exhiben además una marcada asimetría: logran tasas de acierto aceptables entre las empresas sanas, pero parecen tener dificultades para expresar adecuadamente el perfil financiero de las fallidas. Por otra parte la calidad de los pronósticos se deteriora acusadamente cuando los modelos se aplican a la muestra de validación que, recordemos, está compuesta por observaciones completamente ajenas a la muestra de estimación, y tiene además una estructura no equilibrada más realista. Fuera de su marco temporal, los MRL cometen llamativos errores de tipo II, que superan en todos los horizontes el 80% (Tabla 10); los modelos MRL atemporales logran excelentes resultados entre las empresas fallidas, pero nuevamente se demuestran incapaces de identificar el perfil de las empresas sanas (Tabla 11).

4.2.2. Análisis discriminante múltiple

Los modelos discriminantes se han estimado empleando el método de inclusión por pasos hacia adelante, en combinación con el criterio Lambda de Wilks. Los resultados de las estimaciones se muestran en la Tabla 7: todos los modelos estimados resultan significativos, a la vista de los respectivos valores del estadístico X2, y los p-valores de las pruebas de significación de los estimadores son inferiores al 1%. En promedio para todos los horizontes y estados financieros, los modelos MDA clasifican correctamente a 81,65% de las observaciones (Tabla 8), por tanto cometen un error medio del 18,35%. Se observan las mismas anomalías descritas más arriba para el caso de los modelos de regresión lineal: la fiabilidad del pronóstico es superior a corto plazo, especialmente en el caso de empresas sanas, y empeora drásticamente en los plazos más distantes; tratándose de empresas fallidas, la tasa media de errores en todos los horizontes supera ampliamente el 20%, y alcanza el 25% en la muestra de validación.

Una debilidad todavía no aclarada de estas herramientas es su inestabilidad temporal, es decir, su incapacidad para mantener niveles satisfactorios de pronóstico cuando se emplean fuera del período de estimación (Moyer, 1977; Altman, 2000). La validación extemporánea de los MDA no recalibrados pone de manifiesto que, si bien cometen relativamente pocos errores de tipo I, clasifican incorrectamente a una amplia mayoría de las empresas sanas, y que este sesgo se intensifica conforme crece el horizonte de pronóstico (Tabla 10). Así, el modelo MDA no recalibrado clasifica correctamente al 96% de las empresas fallidas un año antes del evento, pero solo al 39% de las sanas en ese mismo plazo. Estos resultados corroboran la presencia de una interacción intensa y compleja entre las anomalías financieras, el tiempo, y la capacidad de los modelos para proporcionar diagnósticos de calidad (de Llano et al., 2011a y 2011b).

4.2.3. Regresión logística condicional

La similitud de los resultados proporcionados por los modelos de regresión lineal y discriminante puede radicar en el hecho de que comparten hipótesis que, como la linealidad, normalidad y homocedasticidad, difícilmente se verifican en series de datos basadas en ratios financieras. La regresión logística condicional es menos dependiente de hipótesis a priori, y por tanto potencialmente más adecuada al problema en curso. Los modelos estimados son globalmente significativos, y sus estimadores son diferentes de cero con p-valores inferiores al 1% con una única excepción en el modelo a un año (Tabla 7)15. Atendiendo a las razones de posibilidades u odds-ratios (eβ), las empresas fallidas tienen dificultades para generar cash flow debido a la combinación de un volumen de negocio y un margen relativamente pequeños, lo que se traduce en un déficit crónico de autofinanciación y en un apalancamiento más intenso; la persistencia de las tensiones de liquidez ocasiona dificultades para atender el servicio de la deuda y un aumento del riesgo financiero, más acusado cuando la actividad comercial afronta períodos de volatilidad y cuando la financiación del fondo de rotación y renovación de la deuda se ven condicionadas por restricciones en el acceso al crédito.

En conjunto, los modelos logit estimados logran una tasa de acierto cercana al 87%, en promedio para los distintos horizontes de pronóstico (Tabla 8). En el caso concreto de las empresas fallidas, superan en todos los horizontes a los modelos MDA, tanto en la fase de estimación como en la validación; en el subgrupo de empresas sanas los MDA parecen lograr resultados más favorables solo en los plazos de tiempo más cortos, entre 1 y 3 años. Los errores son sustancialmente inferiores a los comunicados por otros trabajos recientes, como Kim (2011), y comparables a los proporcionados por los modelos de regresión logística multinomial (por ejemplo, Hing-Ling, 1987).

Los resultados de la aplicación de los modelos no recalibrados a observaciones del período 1999-2009 sugieren que los modelos logit son en general menos vulnerables a los cambios inducidos por los factores sistemáticos respecto del perfil económico-financiero de las empresas (De Llano et al., 2011a y 2011b; Piñeiro et al, 2013b): las tasas de acierto oscilan entre el 60% y el 80% y, excepto en el caso del pronóstico a un año, son más favorables en la submuestra de empresas sanas (Tabla 10).

4.3. Modelos heurísticos

4.3.1. Particionamiento recursivo: árboles de decisión

Los modelos de particionamiento logran tasas de acierto superiores al 91,5% en todos los horizontes y en ambas categorías de empresas, sanas y fallidas (Tabla 8)16; lo hacen además con una extraordinaria parsimonia, ya que requieren únicamente dos variables en cada horizonte (Tabla 9).

Un año antes del fracaso, la clasificación se basa en la ratio SOL09: un primer grupo, con SOL09>0,003 y END02>0,0347 es mayoritariamente sano, mientras que las compañías fracasadas muestran SOL090,003. Esta ratio resulta ser también esencial para la clasificación en un horizonte de dos años: el árbol agrupa a 62 empresas con SOL09>0,0089 que son mayoritariamente sanas, mientras que las restantes (con SOL090,0089) son fallidas. A tres años la clasificación está basada en las ratios entre el beneficio neto y la deuda total (APL04), y entre el patrimonio neto y el activo no corriente (SOL07): un grupo de empresas dominantemente sanas verifica simultáneamente APL04>0,009 y SOL07>0,329; las restantes empresas (APL040,009 o APL04>0,009 y además SOL070,329) son mayoritariamente fallidas.

Es interesante observar que cualquiera que sea el horizonte de pronóstico, el algoritmo de particionamiento recursivo sugiere que las empresas fracasadas muestran una anomalía característica en la estructura financiera: el endeudamiento es anormalmente pequeño en los años inmediatamente anteriores al evento de fallo. Estos resultados indican que las tensiones financieras llevan a las empresas a aplicar acciones desesperadas de supervivencia, entre las que se hallan la liquidación de activos y una contracción del nivel de diversificación de la actividad, y que estas acciones coinciden en el tiempo con caídas abruptas en el nivel de deuda. Es posible que la reducción del exigible responda a un intento por mitigar los gastos financieros y, con ello, el riesgo de incumplimiento; sin embargo, parece más plausible que se deban a ajustes discrecionales dirigidos a enmascarar las dificultades financieras de la empresa y transmitir al entorno una imagen de normalidad (Francis y Yu, 2009).

El contraste en la muestra correspondiente al período 1999-2009 sugiere que los árboles conservan una muy elevada capacidad de diagnóstico en un horizonte de un año; la precisión se deteriora sistemáticamente en plazos más prolongados, de manera más acusada en empresas sanas.

4.3.2. Herramientas de inteligencia artificial: redes neuronales

La concurrencia de múltiples posibles variables explicativas, correlaciones, estructuración incompleta, patrones de clasificación difusos, relaciones no lineales, convierten a las RNA en candidatas idóneas para el desarrollo de instrumentos de análisis y pronóstico. Hemos entrenado y validado una red multicapa de perceptrones con 52 elementos en la capa de entrada, una sola capa oculta de 10 neuronas, y una neurona en la capa de salida (Rodríguez, 2002b). La red logra una tasa de acierto cercana al 94% en la fase de entrenamiento y del 80,5% en la de validación, con mejores resultados en los horizontes de pronóstico más próximos. Estos resultados son coherentes con los aportados por trabajos recientes, como Kim (2011) y Xiaosi et al. (2011).

Las ratios relevantes (Tabla 9) enfatizan la relación entre el resultado y la inversión de la empresa, el equilibrio patrimonial por plazos y por origen de la financiación, y la capacidad del negocio para generar flujos en una cuantía proporcionada a la deuda. En los plazos más cortos, el riesgo aparece relacionado con indicadores de la rotación, la liquidez del ciclo de operaciones, la rentabilidad del negocio y, llamativamente, con la estructura de la financiación: creemos que la presencia de estas dos últimas ratios en la RNA para pronósticos a un año es el reflejo de las acciones defensivas a las que nos hemos referido más arriba, y que se materializan en intentos extremos para reducir a toda costa el nivel de endeudamieno o renegociar la deuda para aumentar los plazos de pago.

Las RNA han sido repetidamente criticadas por su carácter adhocrático: por tratarse de herramientas que simplemente se adaptan a los datos pero están desconectadas de la teoría; también, que su funcionamiento a modo de caja negra no contribuye a explicar el problema en curso, por tanto tampoco a proporcionar evidencias útiles para el progreso del conocimiento. Hemos formulado un análisis de sensibilidad (Nath et al., 1997) para diseccionar el funcionamiento intemo de la red, y aclarar cuáles son las variables con mayor peso en el diagnóstico. En concordancia con lo señalado por otros modelos previos, la ratio con mayor incidencia es el apalancamiento (Tabla 3); la red destaca también a la rentabilidad económica y a varias ratios relacionadas con el equilibrio en el ciclo financiero a corto plazo.

4.3.3. Rough sets

La ausencia de estructuración, la delimitación difusa de las fronteras entre los grupos de empresas sanas fallidas, y la presencia de redundancias en las variables explicativas hacen que el pronóstico del fracaso empresarial sea, a priori, un campo idóneo para la aplicación de la teoría de conjuntos aproximados. Debido a que los atributos de condición -las ratios- tienen naturaleza continua, fueron discretizados en diez intervalos; a continuación, y de acuerdo con el principio de longitud de descripción mínima (Rissanen, 1983), se realizó una selección de los atributos potencialmente relevantes mediante el procedimiento de selección automático descrito por Díaz y Corchado (2001), lo que permitió descartar 33 de los 59 atributos originales (Rodríguez y Díaz, 2005); finalmente se identificaron los reductos para cada uno de los cuatro horizontes de tiempo considerados en el estudio (Tabla 7). Las reglas de decisión asociadas a los reductos permiten realizar clasificaciones con una tasa de acierto que oscila entre el 91,96% a un año, y el 72,14% cuatro años antes del evento, empleando solo 18 de las 59 ratios originales (Tabla 9).

4.3.4. Data Envelopment Analysis (DEA)

Aunque existen aplicaciones datadas hace más de treinta años, DEA (Charnes et al, 1978; Charnes et al., 1985; Cook y Seiford, 2009) es posiblemente la técnica más atípica en el pronóstico del fracaso (Troutt et al, 1996; Sueyoshi y Goto, 2009a y 2009b). Uno de los principales inconvenientes es la necesidad de calibrar el punto de corte de los modelos logit, que en aplicaciones generales suele definirse como p=0,5: algunos autores, entre ellos Premachandra et al. (2009), mantienen que este valor no es adecuado cuando el logit se incardina en el análisis de eficiencia relativa basada en DEA porque puede inducir sesgos, especialmente cuando se utilizan modelos "supereficientes"; en su lugar, sugieren identificar un valor óptimo entre 0,1 y 0,9 mediante estrategias de simulación. Esta discusión trasciende sin embargo los objetivos de nuestro trabajo, de manera que hemos estimado un DEA aditivo que incluye una variable "ck" para representar dinámicas de rendimiento variable (Adler et al, 2002; de Llano et al, 2013). Las fronteras se estimaron con datos del período 1990-99, y a continuación se sometieron a una validación extemporánea con datos de 2000-2009.

De acuerdo con nuestros resultados, las variables más relevantes para el análisis de la eficiencia DEA resultan ser la capacidad de generar rentas, medida por los ingresos y el cash flow, y la estructura de las inversiones a corto plazo, representada por el capital circulante y el activo corriente; los modelos sugieren que estas características inciden definitivamente en la relación entre deuda y activo total, y evalúan a partir de ellas el riesgo relativo de cada empresa (De Llano et al., 2013). La herramienta logra clasificar correctamente al 79,85% de las empresas, sin embargo en nuestra opinión el empleo de DEA para formular pronósticos en este contexto es cuestionable. Una primera crítica se refiere a la determinación del papel que debe jugar cada variable en el modelo (Premachandra et al., 2009 citando a Altman, 1968). Muchas de las variables y procesos implicados en las ratios no son, en sentido riguroso, inputs ni outputs, sino eslabones de un ciclo financiero retroalimentado; esto hace que su calificación sea en mayor o menor medida arbitraria, y que se precisen modelos DEA multifase (Lit et al., 2012) capaces además de tratar con variables en diferente escala (Sinuany-Stern y Friedman, 1998). Por otra parte es sabido que la noción de frontera eficiente tiene un marcado sentido relativo: las unidades, en este caso las empresas, no son eficientes en sentido absoluto, sino en relación con otras y en un momento dado del tiempo. Aunque podamos jerarquizar a las empresas en función de su exposición relativa, la conversión de las distancias en medidas del riesgo y de la verosimilitud de un eventual fallo resulta problemática (Liu y Chen, 2009; Shetty et al., 2012).

4.4. Convergencia de las variables predictoras y análisis comparativo de la calidad de los pronósticos

La Tabla 9 pretende expresar sintéticamente los resultados de los modelos estimados, en lo que atañe a los objetivos de nuestro estudio: analizar las ventajas comparativas de las diferentes técnicas de pronóstico y determinar si existen similitudes en los conjuntos de ratios relevantes. En filas, se presentan las 28 ratios financieras que forman parte de uno o más de los modelos estimados; en columnas, se muestran las técnicas de trabajo empleadas, agrupadas por horizonte de pronóstico. En el interior de la tabla se presentan, en tono sombreado, las ratios empleadas por cada una de las técnicas paramétricas, en cada uno de los horizontes considerados y también en el modelo atemporal (global). En las dos últimas filas se detallan el número de variables empleado por cada técnica y plazo (Nj), y la tasa de acierto lograda (acierto).

En nuestra opinión, la tasa de acierto y el número de variables (N1) deben ser interpretadas conjuntamente en términos de parsimonia o simplicidad, es decir, del grado en el que un modelo es capaz de proporcionar indicaciones fiables manteniendo una estructura y unos requerimientos de información moderados. De acuerdo con este razonamiento, el modelo más parsimonioso para un horizonte de pronóstico de tres años resultaría ser el logit, ya que logra una tasa de acierto del 86% con tan solo dos regresores; en el extremo opuesto (y dejando al margen al enfoque univariante), la RNA requiere 8 indicadores para una tasa de acierto del 89%.

En la última columna de la tabla, bajo el encabezado N2, se muestra el número de modelos en los que aparece cada una de las 28 variables; por ejemplo la ratio APL04 forma parte de 22 de los 35 modelos estimados. El valor N2 tiene, en nuestra opinión, una interpretación directa como signo de la importancia relativa de cada ratio; pero no debe concluirse de ello que un indicador que aparece una sola vez pueda ser desechado, porque es posible que forme parte esencial de un modelo relevante: por ejemplo, ACT03 solo aparece en tres modelos, pero en uno de ellos el árbol de particionamiento recursivo atemporal proporciona una tasa de acierto del 96% con solo dos variables adicionales.

Dejando al margen el enfoque univariante, todas las técnicas de trabajo proporcionan resultados satisfactorios, con tasas de acierto superiores al 80% e incluso al 90%; aunque todos los modelos han sido estimados sobre la misma muestra y empleando exclusivamente datos financieros, creemos que estos resultados respaldan ampliamente nuestra hipótesis número 1 en cuanto a la suficiencia de la información financiera para formular pronósticos fiables acerca del riesgo de fracaso. La hipótesis número 2 obtiene también respaldo, en la medida en que los modelos heurísticos logran mejores tasas de acierto que los multivariables; esto es particularmente cierto en el caso de los árboles de clasificación, que poseen además una elegancia formal y una simplicidad muy atractivas.

Sin embargo, si aceptamos una interpretación amplia de calidad como parsimonia, los modelos logit son una opción a tener en cuenta. Dentro de las técnicas paramétricas convencionales logran las mejores tasas de acierto en todos los horizontes de pronóstico, también las relaciones más equilibradas de errores de tipo I y tipo II; por otra parte emplean en promedio menos predictoras que sus competidores: requieren en torno a tres regresores por período, mientras que los modelos MDA y MRL emplean entre tres y cuatro (en un horizonte de cuatro años, resultan significativas seis ratios), sin que ello se traduzca en una mejora palpable en la capacidad de diagnóstico. Los modelos logit atemporales mantienen una tasa de acierto superior al 70% en todos los horizontes, y cualquiera que sea la salud financiera de la empresa, lo que nos induce a pensar que son menos vulnerables a los factores sistemáticos y por tanto más confiables en un escenario de aplicación real.

Inesperadamente los modelos discriminantes logran resultados mediocres, que en ningún caso superan los proporcionados por herramientas triviales como la regresión lineal múltiple (Tabla 8). Las tasas de error son más elevadas que las comunicadas por otros trabajos previos (incluso el modelo revisado de Altman et al., 1977), y revelan una acusada pérdida de capacidad predictiva en horizontes temporales prolongados. La aplicación extemporánea de los modelos sin recalibrado pone de manifiesto errores de clasificación muy elevados entre las empresas sanas, que llegan hasta el 76% en un horizonte de cuatro años (Tabla 10).

Creemos que esta aparente incapacidad de MDA puede estar relacionada con las características estadísticas de las variables, en particular con el manifiesto incumplimiento de las hipótesis de normalidad y homocedasticidad; por otra parte las relaciones subyacentes en los procesos de fracaso financiero no son necesariamente lineales. Estos resultados se deberían interpretar como una llamada a la prudencia ante la tendencia a emplear rutinariamente modelos discriminantes como el z-score sin un control estadístico riguroso (por ejemplo, Bardia, 2007).

Quisiéramos hacer notar que la vulneración de las hipótesis habituales en estadística descriptiva resulta problemática no solo para la estimación de algunos modelos multivariables, sino, también, para la evaluación de rasgos que, como el riesgo, suelen ser descritos por medio de estadísticos paramétricos. El riesgo, entendido como una medida de la inestabilidad de una o más magnitudes relevantes (beneficio, cotizaciones, etc.) es sin duda determinante en la evaluación de la verosimilitud de un fallo (Altman, 1977; Dambolena y Khoury, 1980); sin embargo, su medición en forma de varianzas o desviación típica está condicionada al cumplimiento de propiedades estadísticas que las ratios financieras no suelen verificar.

Las redes de neuronas artificiales logran un error medio también satisfactorio (10,7%), pero requieren casi nueve variables y muestran además una cierta inestabilidad temporal (en la red a cuatro años esta tasa de error alcanza el 18%). Podría interpretarse que ello, unido a la evidente complejidad inherente al diseño, entrenamiento y verificación de las redes, les resta interés práctico en este campo de trabajo; sin embargo es preciso destacar que las funcionalidades de las redes están estrechamente relacionadas con la complejidad del problema: por ejemplo, Piñeiro et al. (2013) demuestran cómo una RNA supera a los modelos paramétricos cuando se pretende pronosticar el fracaso basado en signos e indicadores indirectos derivados del proceso de auditoría; y muchos otros antecedentes de investigación que confirman la eficacia de este tipo de herramientas (Yang et al., 1999; Boyacioglu et al., 2008; Tsai, 2008; Kim, 2011). Es posible que, bien por la naturaleza de la muestra o bien por el tipo de variables seleccionadas, el contexto experimental no haya sido el más favorable para las RNA.

En conjunto, y para todos los horizontes de pronóstico, la técnica de trabajo más fiable parecen ser los árboles de decisión construidos mediante particionamiento recursivo, que logran una tasa media de acierto del 97,2% con o = 0,023; el particionamiento es también la técnica más parsimoniosa, ya que cada árbol emplea en torno a dos variables. Estos resultados son compatibles con Daubie et al. (2002), que concluyen la superioridad de los árboles inducidos por particionamiento recursivo respecto de los modelos basados en conjuntos difusos; no obstante, hemos hallado tasas de error de tipo I y tipo II más equilibradas que las comunicadas por dicho trabajo.

Es interesante observar que, con independencia de la técnica estadística o matemática empleada, existe una muy acusada convergencia en las ratios relevantes para la explicación y el pronóstico al fracaso. Con excepciones puntuales (como la ratio REN05 en el horizonte de cuatro años), los modelos concuerdan en un núcleo duro de variables explicativas, lo que proporciona un sólido punto de partida para la construcción de una teoría acerca del fracaso financiero. En el caso de las técnicas multivariables es evidente un grupo de ocho ratios financieras que están presentes en la mayoría de los modelos, cualquiera que sea el horizonte de pronóstico y la metodología de análisis estadístico empleada (Tabla 5). Estas ratios sintetizan evidencias relativas a:

- La proporcionalidad entre el beneficio contable y el importe total de la deuda (ApL04), que tiene una interpretación como medida de la capacidad para atender el servicio de la deuda.

- La configuración general de la estructura financiera de la empresa (END03, SOL06)

- El equilibrio entre el nivel de actividad, el resultado y la cuantía de las inversiones de la empresa (REN05, ROT06).

- La cuantía de los recursos invertidos en el ciclo de operaciones (EST03) y de los flujos generados por la actividad (LIQ05), y la proporcionalidad entre las rentas generadas y las obligaciones de pago ocasionadas por la actividad (intervalo sin crédito).

Estos resultados avalan nuestra hipótesis 3, y son coherentes con la literatura relevante en la materia: el fracaso está relacionado con relaciones de equilibrio entre el resultado económico, el volumen de activos instalados, el volumen de recursos generados, la liquidez del ciclo de operaciones, la estabilidad del resultado, la capacidad para atender el servicio de la deuda y la política de autofinanciación de enriquecimiento (entre otros, Beaver, 1966; Altman et al., 1977; Charitou et al., 2004) (Tabla 5).

Las relaciones entre el activo y el endeudamiento se definen de manera indirecta mediante tres relaciones complejas de proporcionalidad, establecidas con los recursos propios (END03 y SOL06), con el volumen de recursos generados (LIQ05 y LIQ06), y con el beneficio contable (REN05 y APL04). La ratio deuda vs. recursos propios suele emplearse preferentemente como indicador del grado de solvencia a largo plazo; sin embargo, al margen de su interpretación puramente numérica como factor de apalancamiento, END03 contribuye también con evidencias del grado de autonomía de la dirección, ya que en un escenario de tensión los prestamistas podrían interferir en la gestión para proteger sus intereses.

El volumen y la estructura de los activos son en general indicadores significativos para anticipar los riesgos de crédito y fracaso (Bardia, 2007); los modelos evalúan, por una parte, la capacidad del activo instalado para generar una corriente de flujos de caja adecuada a las exigencias derivadas de la cifra exigible y, en particular, de la deuda corriente (LIQ07); por otra, examinan la suficiencia del beneficio contable obtenido por la empresa en el ejercicio, relacionándolo con la cuantía total de la financiación ajena empleada (APL04) y con la inversión económica de la empresa (REN05). El resultado es la fuente principal de los recursos precisos para atender el servicio de la deuda, y también una medida de la verosimilitud de que una empresa logre superar una situación financiera desfavorable (Bardia, 2007), no obstante la presencia de los indicadores de liquidez corrobora que los flujos de caja son una variable crítica para la evaluación de la solvencia (Bernard y Stober, 1989).

En la parte central del grafo se muestran tres relaciones que ligan la estructura patrimonial, el ciclo de negocios, y la solvencia mediante el cash flow: los recursos generados aparecen relacionados con la inversión económica total de la empresa, que es su fuente generadora (LIQ05), y con las cifras de exigible total (LIQ06) y deuda a corto plazo; ya que la información contable pública no permite delimitar qué parte de ese pasivo a corto plazo representa compromisos de pago inmediatos, incluso obligaciones ya vencidas, debemos entender que la ratio LIQ07 (cash flow vs. pasivo corriente) aporta la evidencia material más granular acerca de los desequilibrios y las anomalías de tesorería que preceden al fallo financiero. Esta relación debe ser interpretada en conexión con evidencias previas indicativas de que las empresas sometidas a tensiones financieras tienden a introducir ajustes discrecionales en las magnitudes que forman parte del capital circulante (Bradshaw et al., 2001). Finalmente, la ratio SOL02 está evaluando la financiación del ciclo de negocios, concretamente el grado de autonomía financiera a corto plazo: la ratio toma valores decrecientes al aumentar el endeudamiento, ceteris paribus la cuantía del capital circulante, lo que se corresponde con menor capacidad de autofinanciación y en definitiva representa un signo de vulnerabilidad financiera.

La Tabla 6 presenta las magnitudes económicas y financieras que, de acuerdo con nuestro análisis, son cruciales para el pronóstico del fracaso financiero. En nuestra opinión, estos resultados proporcionan una guía clara en cuanto a las medidas contables y los procesos financieros que deberían recibir mayor atención por parte de los agentes interesados en la evitación del fracaso, incluyendo directivos, accionistas y prestamistas; también puede ser de interés para los auditores como responsables de tutelar la calidad de la información contable y eventualmente también de desvelar las incertidumbres que pudieran afectar al principio de empresa en funcionamiento (Tabla 6).

Quisiéramos finalizar esta discusión examinando algunas alternativas de mejora para los modelos. A la vista de los resultados expuestos, creemos que el uso de unas u otras metodologías aporta poco valor añadido a la calidad de los pronósticos, y que el esfuerzo de investigación debería centrarse en el desarrollo de nuevas variables explicativas que completen la información presentada a los modelos (Bottazzi et al, 2011). La alternativa más inmediata es la inclusión de indicadores adicionales que, actuando como variables de control, aporten evidencias relativas a los condicionantes que afectan a variables clave como la estructura financiera o la rentabilidad: habilidades directivas, reputación, opciones latentes, acceso a los mercados financieros, naturaleza de la propiedad, fórmulas de gobierno corporativo, etc. (Keasey y Watson, 1987; Liu, 2004; Lajili y Zéghal, 2011). En nuestra opinión, este enfoque plantea algunas dificultades de naturaleza metodológica, como el tratamiento de los efectos retardados y acumulativos y la posible emergencia de efectos de confusión e interacción, que podrían llegar a ser contraproducentes en términos de capacidad predictiva. Por otra parte, no puede descartarse que una parte de la información del entorno esté presente en la evidencia muestral, en forma de efectos indirectos ocasionados en las ratios financieras17.

5. CONCLUSIONES

La contribución principal de nuestro trabajo es el análisis exhaustivo y riguroso de la capacidad predictiva de las diferentes técnicas empleadas en el pronóstico del fracaso financiero, del que se derivan conclusiones relevantes acerca de sus respectivas ventajas relativas e indicios acerca de qué ratios y magnitudes poseen mayor contenido informacional y deben ser objeto de una supervisión más rigurosa, con independencia de la técnica matemática o estadística empleada. Nuestro estudio ha sido diseñado para proporcionar evidencias acerca de las ventajas comparativas de las técnicas estándar más habituales en este campo de trabajo, superando por tanto las limitaciones de muchos otros trabajos a los que hemos tenido acceso, y en los que la comparación está restringida a dos o a lo sumo tres métodos de trabajo; la singularidad de esta investigación consiste en la estimación de estos modelos de forma completa y simultánea, y sobre la misma muestra, lo que nos permite garantizar la comparabilidad de los resultados y hacer tabula rasa de factores que, como las diferencias aleatorias de muestreo o la incidencia de variables sistemáticas, pueden arrojar dudas acerca de la interpretación de la evidencia recogida y han dificultado una y otra vez la generalización de conclusiones.

Una segunda contribución de importancia es la aplicación de los modelos en una segunda muestra de verificación, extraída en un período temporal diferente al de estimación (concretamente, 1999-2009). Esta estrategia refuerza nuestros resultados, porque constituye un procedimiento de validación adicional al que se realiza rutinariamente de las propias muestras de estimación; sin embargo, creemos que la contribución más importante son evidencias preliminares acerca de una cuestión largamente debatida en la literatura: la estabilidad temporal de los modelos de pronóstico, y la necesidad de recalibrarlos regularmente. Lo que en principio podía interpretarse, tras el contraste, como el reflejo de la crisis de 2007 en los resultados, apunta a ser la limitación temporal del modelo. Una de las primeras evidencias en este sentido es el trabajo de Joy y Tollefson (1975), quienes critican duramente el hecho de que la inestabilidad de los modelos discriminantes hubiese pasado inadvertida debido a la ausencia de procedimientos de contraste intertemporal en los estudios originales de Altman (1968 y 1977); de hecho, el nuevo modelo de z-score aportado por Altman et al. (1977) conserva solo una de las predictoras originales del modelo básico de Altman (1968). Compartimos la opinión, expuesta por Joy y Tollefson (1975), de que esta inconsistencia es científicamente indeseable, ya que supone una amenaza permanente para cualquier constructo teórico que se pueda derivar de la investigación; desde el punto de vista práctico, representa además una evidente fuente de riesgo de modelo: el decisor no dispone de criterios para aventurar si los pronósticos obtenidos en un momento dado son fiables o, por el contrario, están sesgados por la degeneración temporal a la que nos hemos referido.

Nuestro trabajo corrobora la posibilidad de realizar pronósticos de gran calidad empleando exclusivamente evidencias basadas en magnitudes financieras y económicas básicas, lo que no solo avala la calidad general de información contable difundida por las empresas, sino que también pone de relieve que los esfuerzos para ocultar las disfunciones financieras internas por medio de ajustes discrecionales u otras acciones de ocultación son ineficaces. No obstante es interesante observar que, con la única excepción de los modelos basados en particionamiento recursivo, las tasas de error de las técnicas más fiables parecen converger en un nivel en torno al 90%; en nuestra opinión, este resultado podría ser indicativo de que la calidad de los pronósticos difícilmente podrá mejorarse a menos que se incluyan variables adicionales, expresivas por ejemplo de la bondad de la gestión o de las condiciones económicas generales, y que aporten evidencia para matizar la interpretación de los valores numéricos de las ratios. Las evidencias proporcionadas por la auditoría externa -sentido del dictamen, naturaleza de las salvedades, etc.- son, de acuerdo con nuestra experiencia, candidatas idóneas para entrar a formar parte de modelos de pronóstico del fracaso, junto con las variables financieras que hemos examinado en este trabajo.

Sin perjuicio de todo ello, los resultados indican también que una gran parte de la información financiera que manejan los usuarios (en forma de datos brutos o de ratios) es prescindible en un diagnóstico de fracaso: en algunas ocasiones, porque no contiene evidencias de interés para evaluar el riesgo de fallo; en otras, porque esas evidencias están canalizadas por otros indicadores y son por tanto redundantes. Solo 28 de las 59 ratios originales están presentes en alguno de los 35 modelos estimados, cada uno de estos emplea en promedio entre 4 y 5 variables; siete ratios seleccionadas nos permiten formular una cuarta parte de esos modelos (los que, recordemos, alcanzan tasas medias de acierto del 90%). Nuestro trabajo arroja luz respecto de qué elementos de ese flujo de información requieren mayor atención; proporciona criterios concretos para seleccionar los datos relevantes, y una guía general para el trabajo en escenarios de información imperfecta.

Una segunda área de interés de nuestro trabajo es la problemática metodológica. Dejando al margen el enfoque univariante, cuyas limitaciones no requieren mayor aclaración, todas las técnicas proporcionan en general pronósticos de gran calidad; la tasa media de acierto para todos los modelos estimados, que incluyen pronósticos con hasta cuatro años de anticipación, supera el 87%. Los modelos basados en análisis discriminante, que son empleados con profusión en la literatura y se hallan en la base de métodos cuasiestándar como el z-score de Altman, obtienen los peores resultados en todos los horizontes de tiempo, con tasas de error similares a las de los modelos de regresión lineal convencionales; su fiabilidad decrece acusadamente con el tiempo, y en el modelo de pronóstico a cuatro años comete un error medio del 29%, superior al derivado de un simple análisis univariante. Creemos que esta aparente incapacidad puede estar relacionada con el incumplimiento de algunas de sus hipótesis esenciales, concretamente las relativas a la normalidad y homocedasticidad.

Los modelos logit no logran las mayores tasas de acierto, sin embargo mantienen una excelente parsimonia: emplean un número mínimo de variables explicativas, imponen requerimientos hipotéticos realmente laxos, y ofrecen resultados de gran interés práctico y teórico, como las medidas de riesgo relativo (odds-ratios). Por su parte, los árboles han demostrado una capacidad analítica inesperada: en un horizonte de un año clasifican correctamente a todas las empresas, y cuatros años antes del fracaso cometen un error del 2%. En nuestra opinión, los métodos de particionamiento recursivo son candidatos idóneos para el desarrollo de modelos para el análisis del riesgo financiero, dadas su naturaleza no paramétrica, el carácter explícito de sus reglas de clasificación, y las oportunidades de informatización.

No hemos hallado signos de que exista una relación precisa entre la sofisticación del método de trabajo y la calidad de sus pronósticos: los modelos basados en conjuntos imprecisos, que junto con las RNA son los que poseen mayor complejidad operativa, no ofrecen ventajas comparativas claras frente a otras técnicas más convencionales como la regresión logística o los propios árboles generados por particionamiento recursivo. De hecho emplean también un número mayor de variables (la RNA a un año utiliza 14 variables), lo que significa que consumen más información y son por tanto más costosos. Como hemos señalado, es posible que la complejidad del problema presentado no sea coherente con la capacidad de procesamiento de algunas de las herramientas heurísticas, y que ello haya redundando en una merma aparente de eficacia; en cualquier caso, debemos concluir que la metodología de trabajo empleada no parece alterar significativamente los resultados de los pronósticos, lo que sugiere que el esfuerzo de investigación debería concentrarse más en mejorar la calidad y el contenido informacional de las variables de entrada, que en el diseño de técnicas de análisis sofisticadas.

NOTAS

1 Fondo de rotación/activos, dotación de reservas/activos, beneficio/activos, capitalización/deuda, y ventas/activos.

2 Las primeras aplicaciones de inteligencia artificial en finanzas estaban basadas en inteligencia artificial simbólica -sistemas expertos- (por ejemplo Messier y Hansen, 1988), pero este enfoque se ha abandonado progresivamente por sus limitaciones en el tratamiento de problemas poco estructurados.

3 Fondo de rotación/activos, dotación de reservas/activos, beneficio/activos, capitalización/deuda, y ventas/activos.

4 Debilidad de facturación, anomalías en la estructua de costes, dificultades para realizar los cobros, etcétera.

5 RAI: Registro de Aceptaciones Impagadas, es un fichero de incumplimiento de obligaciones dinerarias de titularidad privada. BADEXCUG es el acrónimo de Base de Datos Experian Closed Users Group (fichero de morosidad gestionado por Experian Credit Bureau).

6 Las ratios se han elegido atendiendo a las evidencias aportadas por la literatura previa. En particular, BBR 1930, Beaver 1966, Baxter 1967, Altman 1968/69/77/80/94/00, Mártin 1977, Deakin 1972, Vinso 1979, Dambolena y Khoury, 1980, Sharma y Mahajan 1980, Olshon 1980, Taffer 1982, Hing-Ling 1987, García, Arqués y Calvo 1995, Lizarraga 1997, Kahl 2002, Martínez 2003, Charitou 2004, Platt y Platt 2004, Kim 2011, entre otros.

7 Bellovary et al. (2007: 43) ofrecen una detallada síntesis de las ratios más comunes en esta área de trabajo.

8 Este condicionante se introdujo para controlar los efectos de confusión que podrían derivarse de un proceso bien conocido, como es la anormalmente alta tasa de mortalidad que suele caracterizar a las empresas de nueva creación.

9 A cada empresa fallida le corresponde una empresa sana de la misma actividad y dimensión similar. La actividad ha sido definida por el código CNAE de tres dígitos correspondiente al negocio principal de la empresa, y la dimensión por el dato más reciente del volumen de activos.

10 Es de reseñar que Altman (1977) discrepa de este planteamiento, afirmando que si los modelos acumulan tasas crecientes de error debido al incumplimiento de las presunciones de estacionariedad, la validación contra una muestra ajena al período de estimación proporcionaría tasas de error poco relevantes. En nuestra opinión este argumento tiene más contenido semántico que entidad formal: si la validación arroja tasas anormalmente grandes de error, al menos seremos conscientes de que el comportamiento del entorno altera la capacidad predictiva de los modelos, y tendremos indicios acerca de cómo mejorar la especificación de estos.

11 Por ejemplo, Altman et al. (1977) emplean una única muestra de 111 empresas, sin observaciones adicionales para la validación; el trabajo de Dambolena y Khoury (1980) se basa en 46 empresas, Premachandra et al. 2009 (DEA) utilizan las mismas ratios y empresas originales de Altman.

12 El recorrido de las distintas metodologías de pronóstico del fallo financiero, se halla reflejado en el trabajo de Bellovary et al. 2007. Ahí se puede observar la utilización de las distintas técnicas desde 1930, siendo MDA, MRL, LOGIT, IA, Rough sets y DEA, las más representativas.

13 Por restricciones ineludibles de espacio, omitimos el detalle de las pruebas de descomposición de la varianza y nos centramos en el objeto de este trabajo, que es el análisis comparativo de las técnicas de pronóstico. Los resultados de ANOVA se exponen y discuten minuciosamente en Rodríguez (2002a).

14 Rodríguez (2002b) proporciona una discusión detallada de los resultados de este análisis exploratorio.

15 Como en el modelo de regresión lineal, el estimador de la variable ROT06 tiene una significación dudosa (p = 0,036).

16 Calvo y Rodríguez (2003).

17 Una empresa con dificultades para mantener el ritmo de innovación característico de su sector, o que afronta una rivalidad especialmente intensa, mostrará también alteraciones en los indicadores financieros; aunque no se hayan formalizado como variables independientes, estas evidencias están presentes en la información muestral como efectos subsumidos en la inercia general de las magnitudes económicas y financieras. En cualquier caso este planteamiento impide estimar el efecto de esos factores contextuales relativas al riesgo de fracaso, y también respecto del resto de variables predictoras.

18 Activos defensivos: Activo Corriente - Existencias

                              (Activo Corriente - Existencias) - Pasivo Corriente
Intervalo sin crédito: --------------------------------------------------
                              Gastos Explotación - (Amortizaciones y Provisiones)

Valor añadido: Ingresos de explotación. Consumos de explotación. Otros gastos de explotación.
Cash flow recursos generados: Res. Neto + Dot. Amortizac. + Res. Act. Extraord. + ΔProv. para riesgos y gastos.
Cash flow operativo: CF recursos generados - ΔExistencias - ΔDeudores - ΔAj. periodif. activos + ΔAcreed. comerciales + ΔOtras deudas no comerciales + ΔAj. periodif. pasivos + ΔProv. riesgos y gastos C/P.

19 La muestra de estimación tiene naturaleza equilibrada (60 empresas sanas, 60 empresas fallidas).

20 La muestra de validación de la RNA está formada por 29 empresas fracasadas y 294 sanas; no obstante la red para pronósticos a cuatro años se ha validado con una muestra de 15 empresas fracasadas y 284 sanas debido a la existencia de omisiones en los datos primarios (nótese que el empleo de RNA exige series rigurosamente completas). El modelo global se ha verificado con 102 empresas fallidas y 1.136 sanas.

 

BIBLIOGRAFÍA

Adler, N., Friedman, L., Sinuany-Stern, Z (2002). "Review of Ranking in the Data Envelopment Analysis Context". European Journal of Operational Research, 140, 249-265.         [ Links ]

Altman, E. (1968). "Financial Ratios, Discriminant Analysis and the Predition of Corporate Bankruptcy". Journal of Finance, 589-609.         [ Links ]

Altman, E. (1977). "Some estimates of the cost of lending errors for commercial banks". Journal of Commercial Bank Lending, octubre.         [ Links ]

Altman, E. I. (2000). "Predicting Financial Distress of Companies: Revisiting the Z-Score and ZETA© Models". Working Paper. NYU Salomon Center.         [ Links ] Altman, E. I., Haldeman, R. C., Narayanan, P. (1977). "ZETA Analysis. A New Model to Identify Bankruptcy Risk Corporations". Journal of Banking and Finance. June: 29-54.         [ Links ]

Altman, E., Marco, G., Varetto, F. (1994). "Corporate distress diagnosis: comparisons using linear discriminant analysis and neural networks". Journal of Banking and Finance, Vol. 18, pp. 505-529.         [ Links ]

Anzola, O. & Puentes, M. (2007). "Determinantes de las acciones gerenciales en microempresas y empresas Pymes". Bogotá: Universidad Externado de Colombia, Facultad de Administración de Empresas.         [ Links ]

Argenti, J. (1976). Corporate collapse: The causes and symptom (pp. 5-6). New York: Wiley.         [ Links ]

Bardia, S. C. (2007). "Predicting financial distress and evaluating long-term solvency: an empirical study". The IUP Journal of Accounting Research & Audit Practices, Vol. XI, Nº 1, pp. 47-61.         [ Links ]

Baxter, N. (1967). "Leverage, risk of ruin, and the cost of capital". Journal of Finance, Vol. 22, septiembre, pp. 395-404.         [ Links ]

Beaver, W. H. (1966). "Financial ratios as predictors of failure". Empirical Research in Accounting: Selected Studies, suplements to V. 4 of Journal of accountant Research, 71-111.         [ Links ]

Bellovary, J., Giacomino, D., Akers, M. (2007). A Review of Bankruptcy Prediction Studies: 1930-Present, Accounting Faculty Research and Publications, College of Business Administration, 1-1-2007.         [ Links ]

Bernard, V. I., Stober, T. I. (1989). "The nature and amount of information in cash flows and accruals". Accounting Review, 64(4), pp. 624-652.         [ Links ]

Bottazzi, G., Grazzi, M., Secchi, A., Tamagni, F. (2011). "Financial and econo- mic determinants of firm default". Journal of Evolutionary Economics, Vol. 21, Nº 3, pp. 373-406.         [ Links ]

Boyacioglu, M., Kara, Y., & Baykan, O. (Ed.) (2008). Predicting bank financial failures using neural networks, support vector machines and multivariate statistical methods: A comparative analysis in the sample of Savings Deposit Insurance Fund (SDIF) transferred banks in Turkey. Experts Systems with Applications, 36(2), 3355-3366.         [ Links ]

Bradshaw, M. T., Richardson, S. A. y Sloan, R. G. (2001). "Do analysts and auditors use information in accruals?". Journal of Accounting Research, 39(1), 45-74.         [ Links ]

Bureau of Business Research (1930). A Test Analysis of Unsuccessful Industrial Companies. Bulletin No. 31. Urbana: University of Illinois Press.         [ Links ]

Calvo, A., Rodríguez, M. (2003). "Aplicación de Técnicas de Segmentación Jerárquica a la predicción del Fracaso Empresarial". VI Congreso Gallego de Estadística e Investigación Operativa.         [ Links ]

Charitou, A., Neophytou, E., Charalambous, C. (2004). Predicting Corporate Failure: empirical evidence from the U. European Accounting Review, Vol. 13, Nº 3, pp. 465-497.         [ Links ]

Charnes, A., Cooper, W. W., Golany, B., Seiford, L. (1985). "Foundations of Data Envelopment Analysis for Pareto-Koopmans Efficient Empirical Production Functions". Journal of Econometrics, 30, 1985, 91-107.         [ Links ]

Charnes, A., Cooper, W.W., Rhodes, E. (1978). "Measuring the efficiency of decision making units". European Journal of Operations Research, 2, 429-444.         [ Links ]

Coats, P., Fant, F. (1993). "Recognizing financial distress patterns using a neural network tool". Financial Management, 22(3), pp. 142-155.         [ Links ]

Cook, W. D., Seiford, L. M. (2009). "Data Envelopment Analysis (DEA)-Thirty Years On". European Journal of Operation Research, Vol. 192, Nº 1, pp. 1-17.         [ Links ]

Dambolena, I.; Khoury, S. (1980). "Ratio stability and corporate failure". The Journal of Finance, Vol. XXXV, Nº 4, septiembre, pp. 1017-1026.         [ Links ]

Daubie, M., Levecq, P., Meskens, N. (2002). "A Comparison of the Rough Sets and Recursive Partitioning Induction Approaches: An Application to Commercial Loans". International Transactions in Operational Research, 9(5), pp. 681-694.         [ Links ]

Davydenko, S. (2010). When do firms default? A study of the default boun- dary. Toronto: University of Toronto. Recuperado de http://ssrn.com/abstract=672343        [ Links ]

De Llano, P., Piñeiro, C., Rodríguez, M. (2011a). "Contraste de los modelos de pronóstico del fallo empresarial en las pymes sanas gallegas". XXV Congreso de AEDEM. Valencia.         [ Links ]

De Llano, P., Piñeiro, C., Rodríguez, M. (2011b). "Modelos de pronóstico del fallo empresarial en las pymes sanas gallegas". XXV Congreso de AEDEM. Valencia.         [ Links ]

De Llano, P., Piñeiro, C., Rodríguez, M. (2013). "DEA as a business failure prediction tool". Contaduría y Administración, 59(2), pp. 65-96.         [ Links ]

Deakin, E. (1972). "A discriminant analysis of predictors of business failure". Journal of Accounting Research, Spring, pp. 167-179.         [ Links ]

Díaz, F., Corchado, J. M. (2001). The Selection of Relevant Features and Rough Sets. Conferencia de la Asociación Española de Inteligencia Artificial. Gijón, 14-16 Noviembre.         [ Links ]

Dimitras, A., Zanakis, S., & Zopounidis, C. (1996). "A survey of business failure with an emphasis on prediction methods and industrial application". European Journal of Operational Research, 90(3), 487-513.         [ Links ]

Ezzamuel, M., Brodie, J., & Mar-Monlinero, C. (1987). "Financial patterns of manufacturing companies". Journal of Business Finance and Accounting, 14(4), 519-536.         [ Links ]

Francis, J. R., Yu, M. D. (2009). "The effect of big four office size on audit quality". The Accounting Review, 84(5), 1521-1552.         [ Links ]

Friedman, J. (1977). A recursive partitioning decision rule for nonparametric classification. IEEE Transactions on Computers, Vol. 26, Nº 4, pp. 404-408.         [ Links ]

Frydman, H., Altman, E.; Kao, D. (1985). "Introducing Recursive Partitioning for Financial Classification: The Case of Financial Distress". The Journal of Finance, XL(1), pp. 269-291.         [ Links ]

García, D., Arqués, A. & Calvo-Flores, A. (1995). "Un modelo discriminante para evaluar el riesgo bancario en los créditos a empresas". Revista Española de Financiación y Contabilidad, XXIV (82), 175-200.         [ Links ]

Graham, B. (1934). Security Analysis. McGraw-Hill.         [ Links ]

Graveline, J., Kokalari, M. (2008). "Credit risk", Working Paper, The Research Foundation of CFA Institute.         [ Links ]

Hansen, J., Messier, W. (1991). "Artificial neural networks: foundations and application to a decision problem". Expert Systems with Applications, 3, pp. 135-141.         [ Links ]

Hing-Ling, A. (1987). A five-state financial distress prediction model. Hotchkiss, E. S.; Mooradian, R. M. (1997): "Vulture investors and the market for control of distressed firms". Journal of Financial Economics, 43, 401-432.

Hotchkiss, E., Mooradian, R. (1997). "Vulture investors and the market for control of distressed firms". Journal of Financial Economics, 43, 401-432.         [ Links ]

Jiménez, S. (1996). "Una evaluación crítica de la investigación empírica desarrollada en torno a la solvencia". Revista Española de Financiación y Contabilidad, Vol. XXV, Nº 87, pp. 459-479.         [ Links ]

Joy, O., Tollefson, J. (1975). "On the financial applications of discriminant analysis". Journal of Financial and Quantitative Analysis, Vol. 10, Nº 5, pp. 723-739.         [ Links ]

Kahl, M. (2002). "Economic Distress, Financial Distress, and Dynamic Liquidation". The Journal of Finance, Vol. 57, Nº 1, pp. 135-168.         [ Links ]

Kane, G., Richardson, F., Mead, N. (1998). "Rank transformation and the prediction of corporate failure". Contemporary Accounting Research, 145-166.         [ Links ]

Keasey, K. and R. Watson (1987). "Non-Financial Symptoms and the Prediction of Small Company Failure. A Test of Argenti’s Hypotheses". Journal of Business Finance and Accounting, 14(3): 335-354.

Kim, S. (2011). "Prediction of hotel bankruptcy using support vector machine, artificial neural network, logistic regression, and multivariate discriminant analysis". The Service Industries Journal, Vol. 31, Nº 3, pp. 441-468.         [ Links ]

Laffarga, J., Martín J. & Vásquez, M. (1987). "Predicción de la crisis bancaria en España: comparación entre el análisis Logit y el Análisis Discriminante". Cuadernos de Ciencias Económicas y Empresariales, 18, 49-57.         [ Links ]

Lajili, K., Zéghal, D. (2011). "Corporate governance and bankruptcy filing decisions". Journal of General Management, Vol. 35, Nº 4, pp. 3-26.         [ Links ]

Li, Y., Chen, Y., Liang, L., Xie, J. (2012). "DEA model for Extended Two-stage Network Structures". Omega, 40, pp. 611-618.         [ Links ]

Lincoln, M. (1984). "An empirical study of the usefulness of accounting ratios to describe levels of insolvency risk". Journal of Banking and Finance, 8(2), 321-340.         [ Links ]

Liu, F. F., Chen, C. L. (2009). "The Worst-Practice DEA Model with Slack- Based Measurement". Computers & Industrial Engineering, Vol. 52, Nº 2, pp. 496-505.         [ Links ]

Liu, J. (2004). "Macroeconomic determinants of corporate failures: evidence from the UK". Applied Economics, (36), 939-945.         [ Links ]

Lizarraga, F. (1997). "Utilidad de la información contable en el proceso de fracaso: análisis del sector industrial de la mediana empresa española". Revista Española de Financiación y Contabilidad, XXVI (92) 871-915.         [ Links ]

Marais, M., Patell, J., Wolfson, M. (1984). "The experimental design of classifi- cation models: an application of recursive partitionning and bootstrapping to commercial bank loan classifications". Journal of Accounting Research, 22(1), pp. 87-118.         [ Links ]

Martin, D. (1977). "Early Warning of Bank Failure: a Logit regression approach". Journal of Banking and Finance, Vol. 1, Núm. 3, pp. 249-276.         [ Links ]

Martínez, O. (2003). "Determinantes de fragilidad en las empresas colombianas. Banco de la República de Colombia". Borradores de Economía, 259, 1-24.         [ Links ]

Messier, W., Hansen, J. (1988). "Inducing rules for expert systems development: an example using default and bankruptcy data". Management Science, 34(12), pp. 1403-1415.         [ Links ]

Moyer, R. C. (1977). "Forecasting Financial Failure: A Reexamination". Financial Management, 6 (1): 11-17.         [ Links ]

Nath, R., Rajagopalan, B., Ryker, R. (1997). "Determining the saliency of input variables in neural network classifiers". Journal of Computers, 24(8), pp. 767-773.         [ Links ]

Pereira, J., Basto, M., Ferreira, A., Barbas, E. (2011). Propuesta de un modelo de predicción del fracaso empresarial considerando las variables tamaño y antigüedad. XVI Congreso de AECA. Granada.         [ Links ]

Pindado, J., Rodrigues, R., de la Torre, C. (2008). "Estimating Financial Distress Likelihood". Journal of Business Research, Vol. 61, Nº 9, pp. 995-1003.         [ Links ]

Piñeiro, C., de Llano, P., Rodríguez, M. (2012). "La evaluación de la probabilidad de fracaso financiero. Contraste empírico del contenido informacional de la auditoría de cuentas". Revista Española de Financiación y Contabilidad (AECA), n156, volumen XLI, pp. 565-588.         [ Links ]

Piñeiro, C., de Llano, P., Rodríguez, M. (2013a). "¿Proporciona la auditoría evidencias para detectar y evaluar tensiones financieras latentes? Un diagnóstico comparativo mediante técnicas econométricas e inteligencia artificial". Revista Europea de Dirección y Economía de la Empresa, 22(3), pp. 115-130        [ Links ]

Piñeiro, C., de Llano, P., Rodríguez, M. (2013b). "A parsimonious model to forecast financial distress, with base in audit evidences". Revista Contaduría y Administración, 58(4), pp. 151-173.         [ Links ]

Platt, H. & Platt, M. (2004). Industry-relative ratios revisited: the case of financial distress. Paper presented at the FMA 2004 Meeting, New Orleans (USA), pp. 6-9.         [ Links ]

Premachandra, I. M., Bhabra, G. S., Sueyoshi, T. (2009). "DEA as a tool for bankruptcy assessment: a comparative study with logistic regression technique". European Journal of Operational Research, 193, 412-424.         [ Links ]

Quinlan, J. (1986). "Induction of decision trees". Machine Learning (1), pp. 81-106.         [ Links ]

Quinlan, J. (1987). "Inductive knowledge acquisition: a case study". En J. Quinlan. Applications of Expert Systems (pp. 157-173). Nueva York: Addicion-Wesley.         [ Links ]

Rissanen, J. (1983). "A Universal Prior for Integers and Estimation by Minimum Description Length". Annals of Statistics, Vol. 11, Nº 2, 416-431.         [ Links ]

Rodríguez, M. (2002a). "El fracaso empresarial en Galicia a través del análisis tradicional de la información contable. La capacidad predictiva del análisis univariante". II Congreso de Economía de Galicia.         [ Links ]

Rodríguez, M. (2002b). "Modelos de insolvencia en empresas gallegas. Aplicación de Técnicas Paramétricas y de Inteligencia Artificial". En La gestión del riesgo de crédito. Madrid: AECA, pp. 24-59.         [ Links ]

Rodríguez, M. (2005). "Pruning de las variables en el Modelado Neuronal para la predicción de la insolvencia empresarial y su contraste con el análisis univariante", IVWS, Sevilla.         [ Links ]

Rodríguez, M.; Díaz, F. (2005). "La teoría de los Rough Sets y la predicción del fracaso empresarial. Diseño de un modelo para las PYMEs". XIII Congreso de AECA. Oviedo.         [ Links ]

Rodríguez, M., Piñeiro, C., de Llano, P. (2014). "Determinación del riesgo de fracaso financiero mediante la utilización de modelos paramétricos, de inteligencia artificial y de información de auditoría". Estudios de Economía, 41(2), 187-217.         [ Links ]

Rose, P. S., Andrews, W. T., Giroux, G. A. (1982). "Predicting Business Failure: A Macroeconomic Perspective". Journal of Accounting Auditing and Finance, 6(1), pp. 20-31.         [ Links ]

Ross, S. (1976). "The arbitrage theory of capital asset pricing". Journal of Economic Theory, Vol. 13, Nº 3, pp. 341-360.         [ Links ]

Rubio, M. (2008). Análisis del fracaso empresarial en Andalucía especial referencia a la edad de la empresa. Cuadernos de CC.EE, 54, 35-56.         [ Links ]

Sarkar, S., Sriram, R. (2001). "Bayesian Models for Early Warning of Bank Failures". Management Science, 47(11), pp. 1457-1475.         [ Links ]

Sharma, S., Mahajan, V. (1980). "Early warning indicators of business failure". Journal of Marketing, 44(4), 80-89.         [ Links ]

Shetty, U., Pakkala, T. P. M., Mallikarjunappa, T. (2012). "A Modified Directional Distance Formulation of DEA to Assess Bankruptcy: An Application to IT/ITES Companies in India", Expert Systems with Applications Vol. 39, Nº 2, pp. 1988-1997.         [ Links ]

Shin, K., Lee, T., Kim, H. (2005). "An application of support vector machines in bankruptcy prediction model". Expert Systems with Applications (28): 127-135.         [ Links ]

Shumway, T. (2001). "Forecasting Bankruptcy More Accurately: A Simple Hazard Model". Journal of Business, Vol. 74, Nº 1, January, pp. 101-124.         [ Links ]

Sinuany-Stern, Z., Friedman, L. (1998). "DEA and the Discriminant Analysis of Ratios for Ranking Units". European Journal of Operational Research, Vol. 111, Nº 3, pp. 470-478.         [ Links ]

Sueyoshi, T., Goto, M. (2009a). "Methodological Comparison between DEA (data envelopment analysis) and DEA-DA (discriminant analysis) from the Perspective of Bankruptcy Assessment". European Journal of Operation Research, Vol. 199, Nº 2, pp. 561-575.         [ Links ]

Sueyoshi, T., Goto, M. (2009b). "DEA-DA for Bankruptcy-based Performance Assessment: Misclasification Analysis of Japanese Construction Industry". European Journal of Operation Research, Vol. 199, Nº 2, pp. 576-594.         [ Links ]

Sun, J. and H. Li (2009). "Financial distress early warning based on group decision making". Computers & Operations Research, 36: 885-906.         [ Links ]

Support Systems, 11(5), 545-557.

Taffler, R. (1982). "Forecasting company failure in the UK using discriminant analysis and financial ratio data". Journal of the Royal Statistical Society, 145, 342-358.         [ Links ]

Troutt, M., Rai, A., Zhang, A. (1996). "The Potential use of DEA for Credit Applicant Acceptance Systems". Computer & Operations Research, Vol. 23, Nº 4, pp. 405-408.         [ Links ]

Tsai, B., Lee, C., Sun, L. (2009). "The Impact of Auditors’ Opinions, Macroeconomic and Industry Factors on Financial Distress Prediction: An Empirical Investigation". Review of Pacific Basin Financial Markets and Policies, Vol. 12, No. 3, pp. 417-454.

Tsai, C. (2008). "Financial decision support using neural networks and support vector machines". Expert Systems, 25(4), 380-393.         [ Links ]

Vinso, J. (1979). "A determination of the risk of ruin". Journal of Financial and Quantitative Analysis, Vol. XIV, Nº 1, Marzo, pp. 77-100.         [ Links ]

Wilcox, J. (1971). "A simple theory of financial ratios as predictors of failure". Journal of Accounting Research, 9, pp. 389-395.         [ Links ]

Wilson, R., Sharda, R. (1994). "Bankruptcy prediction using neural networks". Decision Support Systems, 11(5), pp. 545-557.         [ Links ]

Wu, W., Siong, V., Yean, T. (2006). "Data preprocessing and data parsimony in corporate failure forecast models: evidence from Australian materials industry". Accounting and Finance, 46, pp. 327-345.         [ Links ]

Xiaosi, X., Ying, C., Haitao, Z. (2011). "The comparison of enterprise bankruptcy forecasting method". Journal of Applied Statistics, Vol. 38, No. 2, 301-308.         [ Links ]

Yang, Z., Platt, M., & Platt, H. (1999). "Probabilistic neural networks in bankruptcy prediction". Journal of Business Research, 44, 67-74.         [ Links ]

Zavgren, C. (1985). "Assessing the vulnerability of failure of American industrial firms: A logistic analysis". Journal of Business, Finance and Accounting, 12(1), pp. 19-45.         [ Links ]

Zmijewski, M. E. (1984). "Methodological Issues Related to the Estimation of Financial Distress Prediction Models". Journal of Accounting Research, Vol. 22, pp. 59-82.         [ Links ]

 

7. ÁNEXO: TABLAS

 

TABLA 1
VARIABLES EXPLICATIVAS 18

 

TABLA 2
MODELO UNIVARIANTE: RATIOS RELEVANTES EN CADA HORIZONTE DE PRONÓSTICO,
CON PORCENTAJE DE ACIERTO SUPERIOR AL 70%

 

TABLA 3
ANÁLISIS DE SENSIBILIDAD DE LAS VARIABLES DE ENTRADA DE LA RNA

 

TABLA 4
RATIOS INCLUIDAS EN LOS FACTORES EXTRAÍDOS, Y MASAS PATRIMONIALES RELEVANTES

 

TABLA 5
RATIOS Y MAGNITUDES CRÍTICAS, DE ACUERDO CON LOS MODELOS MULTIVARIANTES

 

TABLA 6
MAGNITUDES ECONÓMICAS Y FINANCIERAS RELEVANTES DE CARA AL PRONÓSTICO

 

TABLA 7
ESTADÍSTICOS Y CONTRASTES DE LOS MODELOS

Resultado de las estimaciones.

 

TABLA 8
TASAS DE ERROR DE LOS MODELOS ESTIMADOS
19 20

 

TABLA 9
VARIABLES RELEVANTES Y TASAS DE ACIERTO, POR MODELO Y HORIZONTE DE PRONÓSTICO

Síntesis de las variables relevantes y las tasas de acierto, por metodología y horizonte de pronóstico

U = Modelo univariante D = MDA L = Logit R = Regresión lineal múltiple
P = Particionamiento recursivo N = RNA I = Rough Sets

 

TABLA 10
TASAS DE ERROR EN LA VALIDACIÓN EXTEMPORÁNEA DE LOS MODELOS
PARAMÉTRICOS (HORIZONTE LIMITADO)

Resultado de la valicación extemporánea de los modelos (sin recalibrado).

 

TABLA 11
TASAS DE ERROR EN LA VALIDACIÓN EXTEMPORÁNEA DE LOS MODELOS PARAMÉTRICOS (ATEMPORALES)

Modelos globales (atemporales)

 

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons