SciELO - Scientific Electronic Library Online

 
 número96Sandboxing. Un juego de negociación de recursosHerramientas digitales para la ciudad del futuro índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


ARQ (Santiago)

versão On-line ISSN 0717-6996

ARQ (Santiago)  no.96 Santiago ago. 2017

http://dx.doi.org/10.4067/S0717-69962017000200036 

Lecturas

Misiles y cronómetros: La instrumentalidad de la arquitectura desde las herramientas del management

Gonzalo Carrasco Purull 1  

1 Docente, Escuela de Arquitectura, Facultad de Arquitectura y Diseño, Universidad Finis Terrae, Santiago, Chile. gonzalocarrasco3@gmail.com

Resumen:

Es conocido el argumento de que muchas de las innovaciones tecnológicas que habitualmente usamos tienen su origen en la guerra. Sin embargo, se ha dicho menos sobre cómo esos desarrollos han impactado en la arquitectura. Con la Guerra Fría como telón de fondo, esta investigación nos muestra cómo los instrumentos del management desarrollados en la posguerra, tuvieron un impacto en los procesos de trabajo de la arquitectura, posibilitando su inserción más fluida en las lógicas del capitalismo.

Palabras clave: Guerra Fría; Vietnam; cpm; pert; som

En los sesenta, la relación entre industria, tecnología y arquitectura estuvo fuertemente determinada por las tensiones que generó la Guerra Fría. Este escenario propició transferencias tecnológicas entre la arquitectura y el sector productivo que modificaron drásticamente las prácticas disciplinares a finales del siglo xx. Uno de estos cambios fue la introducción en arquitectura de sistemas de management científico de última generación como el cpm (Critical Path Method) y el pert (Program Evaluation and Review Technique). Desarrollados a fines de los años cincuenta en el ámbito militar e industrial junto a la creciente utilización de computadores en los procesos de diseño y cálculo, estos instrumentos vinieron a transformar tanto los medios como los criterios de una nueva arquitectura. Así, esta pasó a convertirse en una pieza fundamental en la reproducción de las condiciones políticas y económicas que dominaron el último tercio del siglo pasado, prefigurando muchas de las contradicciones que en la actualidad tensionan a la disciplina.

“¿Dónde están tus datos? Dame algo que pueda poner en la computadora. No me des tu poesía”. Robert McNamara al ser informado por un asesor de la Casa Blanca que la guerra de Vietnam estaba condenada al fracaso, citado en Bousquet, 2008:77.

Polaris

A las 12:39 del 20 de julio de 1960, treinta millas frente a la costa de Florida y desde el submarino uss George Washington, la Armada norteamericana lograba poner en el aire su primer misil lanzado desde un submarino, el Polaris, entregando así una amplia movilidad al arsenal nuclear estadounidense cuyo transporte hasta ese momento había estado asegurado únicamente por los gigantescos bombarderos del Strategic Air Command (Figura 1). Fue así como el Polaris inauguró el fbm (Sistema de Misiles Balísticos de Flota), generación de armamento perteneciente al tipo irbm (Misiles de Alcance Medio), que se convirtió en un programa fundamental dentro de las estrategias de contención implementadas por Estados Unidos durante la Guerra Fría, ya que su tecnología aceleró los tiempos de respuesta ante un posible ataque nuclear: de las seis horas que tardaban los bombarderos B-52 en recorrer 5000 kilómetros se pasó a sólo 25 minutos, igualando, en distancia, a los misiles irbm y icbm (Misiles Balísticos Intercontinentales). Este escenario de incertidumbre se incrementó aún más en 1957 al conocerse que Moscú estaba experimentando con el ss-6 Tyuratam, un misil del tipo icbm.

Fuente: © Creative Commons

Figura 1 uss Observation Island (E-AG-154) en el astillero naval de Norfolk, c.1959. El barco está disparando un modelo de prueba del misil Polaris, resultado de mejoras realizadas para equipar al buque con el Sistema de Misiles Balísticos de Flota. 

En este contexto nació el programa Polaris, luego de la recomendación impartida por el comité Killian para el desarrollo de misiles balísticos que cubriesen un rango de 1.500 millas náuticas (Wyndham, 1963). El National Security Council elevó esta sugerencia al presidente Eisenhower, quien la aprobó, delegando su ejecución al Departamento de Defensa. Fue así como Charles E. Wilson, desde su cargo como Secretario de Defensa, dio inicio a dos programas irbm llevados a cabo, al menos en una primera etapa, de manera conjunta por el Ejército y la Armada. Así, mientras el trabajo realizado por el Ejército tuvo como resultado la creación del misil Júpiter, la labor de la Armada concluyó en el ensamblaje del Polaris.

Consciente de estar en medio de una carrera armamentista con la Unión Soviética, el secretario Wilson exigió desde un comienzo la implementación de un sistema de administración de proyecto - management - destinado a acelerar los tiempos de fabricación (Figura 2). Esto se debía a que el programa Polaris no sólo implicaba la resolución de los problemas propios de la fabricación de un misil apto para despegar desde una plataforma móvil en altamar, sino que además requería el desarrollo de las tecnologías para crear el submarino desde donde se lanzaría el misil. A este sistema de management, diseñado para administrar los tiempos y costes de todo el programa Polaris, se le dio el nombre de pert (programa de evaluación y revisión técnica), una herramienta de coordinación enraizada tanto en el programa Operations Research, desarrollado en Inglaterra en los treinta e implementado exitosamente en la Segunda Guerra Mundial, como en los más recientes avances de la naciente cibernética.

Fuente: Redibujo arq a partir de original en: Malcolm, Roseboom, Clark, 1959:665.

Figura 2 Panorama integrado pert para el programa de misiles Polaris.  

El método pert - ampliamente implementado por la industria y el empresariado en los sesenta y setenta - jugó un rol fundamental en el éxito del programa Polaris. En un principio el calendario fijó 1963 como fecha límite para el inicio de las pruebas, considerando que el proyecto debía estar finalizado en 1965. Sin embargo, un evento no previsto por los planificadores echó por tierra todos los cálculos previos y forzó la aceleración del programa. El 4 de octubre de 1957 la Unión Soviética puso en órbita el sputnik 1, un satélite de tan sólo 58 centímetros y 83 kilos de peso que desató el pánico entre la población estadounidense, la que se sintió vulnerable frente a un aparente dominio soviético del espacio. A raíz de esto, tanto la opinión pública como el Gobierno exigieron la aceleración del programa de misiles norteamericanos. La sensación de emergencia no hizo más que incrementarse al conocerse la noticia de la puesta en órbita de un segundo satélite soviético el 3 de noviembre de ese mismo año. Fue así como la implementación del pert tuvo que adaptarse a este nuevo escenario, dejando de lado el desarrollo de muchas pruebas y componentes inicialmente considerados necesarios pero que exigían un tiempo del que ya no se disponía. La estricta sujeción al calendario fijado por el pert, la eliminación de muchas de las tareas diagnosticadas como ‘cuellos de botella’ proclives a generar demoras y la apelación al patriotismo de cada trabajador y contratista involucrado permitieron alcanzar una meta que inicialmente parecía imposible: construir el submarino Polaris en un tiempo menor que cualquier barco montado por los Estados Unidos en tiempos de paz.

En años en que los subproductos de la industria militar - como la lavadora eléctrica, el televisor o la aspiradora - gozaban de un indiscutible reconocimiento de calidad y modificaban la vida cotidiana de la segunda posguerra, el éxito del programa Polaris (reflejado en las imágenes de su silueta emergiendo en medio de una torre de espuma y agua) fue el mejor argumento para la masificación del pert en diversos sectores de la industria, sectores dentro de los cuales estuvo obviamente el de la construcción.

Mapas del futuro

Como otras herramientas de management, lo que ofrecía el pert era la confección de un “mapa del futuro” (Getz, 1964), una cartografía que requería una simplificación de la realidad a través de un modelo y una serie finita de variables . A diferencia de otros métodos inspirados en las doctrinas de Frederick Winslow Taylor, como las tablas elaboradas por Henry Lawrence Gantt, el pert descomponía las tareas requeridas para la obtención de un objetivo no siguiendo un cronograma de carriles paralelos e independientes, sino uno que conformaba una ‘red’ de múltiples relaciones de dependencia y autonomía. Así, el pert se implementaba a partir de la identificación de objetivos finales o metas para los cuales era preciso determinar una serie de actividades o ‘acontecimientos’ a ejecutar. Estos se representaban a través de ‘cajas’ que podían ser llenadas por un profesional, una maquinaria, un proceso o un contratista; asimismo, las relaciones entre estas se representaban mediante flechas que indicaban el término de una actividad y el inicio de otra. De esta manera, el pert asociaba el tiempo empleado al término de una de estas actividades definiendo tres estimaciones: una optimista, una pesimista y una probable, donde el tiempo óptimo necesario resultaba de una combinación matemática de estas tres cifras. En este universo de datos constituido por una red que fijaba no sólo la secuencia lógica de los acontecimientos, sino que además las interdependencias entre estos, la ‘ruta crítica’ era producto de la secuencia de actividades que más tiempo exigía. Según esto, el pert retroalimentaba el modelo inicialmente presupuestado, señalando así las decisiones que se debían tomar para acortar los tiempos empleados o los costos involucrados.

De esta forma el pert ofreció un escenario de certidumbre en medio de unas prácticas definidas mediante la prueba y el error. Las decisiones no sólo aparecían validadas por números, sino que al constituir un sistema interconectado que se retroalimentaba continuamente permitía que la toma de decisiones fuera un proceso ajustable a las contingencias, disminuyendo así los grados de incertidumbre. La intuición o el conocimiento basado en la experiencia fueron paulatinamente sustituidos por criterios aparentemente objetivos que podían ser medidos y cuantificados mediante las variables de tiempo y costo. Estos criterios primero fueron transferidos a la industria, a la administración pública, a la construcción y por último a la arquitectura, significando un desplazamiento de conocimientos, pues esta última disciplina trabajaba más con variables cualitativas que cuantitativas; esto supuso un proceso de transformación sujeto a fuertes tensiones, ya que le exigió a la arquitectura redefinir su posición dentro del sistema productivo capitalista .

Mundos cerrados

El pert fuerza al pensamiento lógico. Incita a los planificadores de programas a reconocer las relaciones de las partes con el todo; como consecuencia de esto, el pert es tan natural como una herramienta de planificación en un sistema de armamento (Getz, 1964:15).

Lo que trataba de controlar el pert, así como el cpm , era el aparente desorden de un mundo dominado por la contingencia y el accidente, objetivo compartido por otra tecnología desarrollada en la posguerra: la cibernética. Esta disciplina podía entenderse como la superación de las categorías del siglo xix basadas en la biología y la zoología, que veían a los organismos complejos como organizaciones jerarquizadas formadas por una estructura y órganos; para Norbert Wiener, uno de los creadores de la cibernética, esta manera de describir la organización de máquinas y organismos se acercaba mucho más a la visión mecanicista derivada de los sistemas de relojería del siglo xvii y xviii o a los modelos circulatorios inspirados por las máquinas a vapor del xix. En el siglo xx, en cambio, tanto organismos como máquinas pueden entenderse principalmente como sistemas de comunicación y control en donde la información, que constituye su materia prima, se encuentra definida por su opuesto: la entropía.

Basándose en la segunda ley de la termodinámica, que sostiene que la totalidad de los niveles de entropía o desorden tienden a incrementarse probabilísticamente en los sistemas cerrados a lo largo del tiempo, Wiener señaló que, al igual que la energía, la cantidad de información de un sistema está sujeta a procesos similares de reducción y nivelación de entropía. Para Wiener, todo sistema organizativo complejo, al encontrarse inmerso en ambientes entrópicos, se relaciona con estos mediante la generación de una respuesta (output). Así, mientras el completo dominio de la entropía en un sistema determinaría su muerte, su adaptación implicaría la activación de un proceso antientrópico llamado homeostasis . Lo que convierte a un sistema u organización de información en antientrópico sería, entonces, su capacidad para ser regulado mediante un ciclo continuo de retroalimentación de información o feedback que le permitiría hacer las correcciones necesarias para responder a las variaciones de información provenientes de un ambiente (input) a través de una rectificación sobre el propio sistema (output).

Así, los sistemas de management compartirán con los postulados de Wiener no sólo el diagnóstico de desenvolverse en ambientes construidos a partir de sistemas de información o datos, sino también la necesidad de encontrar mecanismos para superar la entropía dominante a partir de su respuesta (output) mediante formas de autorregulación (feedback) que ayuden a enmendar el curso. De la misma forma en que las actividades son entendidas como funciones encaminadas a la obtención de un determinado fin u objetivo, Wiener cifra el destino, tanto de organismos como de máquinas, a la resolución de un propósito. Es así como las decisiones en los programas de management van a estar medidas por tal sentido teleológico, habiendo tres posibles respuestas ante los efectos desestabilizadores de una contingencia: aumentar los recursos invertidos, incrementar el peligro de fallo o riesgo, o mejorar los rendimientos. Esta última opción muchas veces implica eliminar partidas o modificar partes enteras del proyecto .

Tal como lo señala Reinhold Martin (1998:112), uno de los conceptos que las ideas de Wiener vinieron a modificar fue la concepción que se tenía de organización. Desde el siglo diecinueve, esta descansaba sobre la idea de una estructura jerárquica de subordinación de unas partes a un todo. Para Wiener, en cambio, una organización - llámese aquí máquina u organismo - es un sistema de información que autorregula sus partes, respondiendo todas estas a los flujos de datos que se transmiten en todos los sentidos. Esta autorregulación o feedback implica la existencia de un sistema de comunicación altamente eficiente entre cada una de las partes. Sin embargo, si bien la inmediatez de la respuesta a un medio entrópico hace variar constantemente las jerarquías al interior del sistema, este siempre mantiene su condición de sistema cerrado. En esto se apoya Martin (1998:113) cuando señala que en las organizaciones de información planteadas por Wiener las categorías ‘interior’ y ‘exterior’ pierden su sentido. Mientras que a partir de la idea decimonónica de cuerpo se deducía un interior que albergaba una organización jerárquica de órganos, en un sistema de información - al estar cada parte conectada a las otras en una red de relaciones ‘de ida y vuelta’ - el mismo ambiente exterior es incluido al sistema a través del mecanismo de autorregulación o feedback. Así, la definición de cualquier grado de interioridad en un sistema cerrado de información se vuelve un hecho de límites altamente difusos. Esta pérdida tanto de una jerarquía vertical - de arriba hacia abajo, propia de los sistemas tayloristas de organización - como del carácter cerrado de todos los sistemas de información va a tener consecuencias en el ámbito de la construcción y la arquitectura con la adopción de diversas herramientas organizacionales y de management derivadas de la industria militar, como ocurrió con el pert.

Si bien la fragmentación jerárquica de las tareas va a encontrar en Taylor a su principal ideólogo y en Henry Ford a su más célebre promotor, no va a ser hasta la Segunda Guerra Mundial que esta alcanzará su pleno desarrollo, como en el caso del sistema de organización adoptado por la aviación norteamericana para la fabricación de los grandes bombarderos. Este pensamiento de guerra, dominado por una estricta verticalidad castrense junto a una atomización de las labores traducidas en una serie de ‘cajas’ llenadas por departamentos responsables de un número finito de tareas, fue implementado no sólo por amplios sectores de la industria, sino que también por oficinas de ingeniería y arquitectura como The Austin Company (f. 1878), Albert Kahn Associates (f. 1895) y Skidmore, Owings & Merrill (f. 1936). Dichas oficinas se beneficiaron enormemente de la optimización de los tiempos de trabajo producto de la estandarización y las divisiones profesionales entre arquitectos, ingenieros y contratistas requeridas por la construcción de las fábricas armamentistas. La transformación en los medios de organización de la oficina de arquitectura de la firma de Albert Kahn fue descrita por Henry-Russell Hitchcock como “la oficina burocrática por excelencia”, cuya principal fortaleza radicaba en que el éxito de los proyectos ya no dependía del genio de un solo hombre, sino del “genio organizativo que puede establecer un sistema infalible de un rápido y completo plan de producción” (Hitchcock, 1947:3-6).

Estos esfuerzos por sistematizar el trabajo al interior de las oficinas de arquitectura en la posguerra vino a modificar una organización que históricamente se había basado en el modelo del atelier del artista, donde los propios instrumentos de creación de la arquitectura eran los que definían criterios de calidad más próximos al mundo de la artesanía que al de la producción capitalista industrial. El caso de som se inscribe en esta transformación dando una gran visibilidad a este nuevo modelo de trabajo, llegando a ser la primera oficina corporativa en tener una exposición en el MoMA .

som mantuvo conexiones estrechas con el Ejército norteamericano con el cual colaboró en importantes proyectos durante la Segunda Guerra Mundial. El de mayor relevancia para la oficina fue el diseño para la ciudad de Oak Ridge, Tennessee, también conocida como Atom City (1945). Esta ciudad de 75.000 habitantes estaba ideada para albergar a los trabajadores, científicos e ingenieros que trabajaban en el Proyecto Manhattan. Construida en secreto, Atom City se levantó de la nada entre noviembre de 1942 y 1945. Para cumplir con los plazos som tuvo que adaptarse, incorporando el uso masivo de componentes prefabricados para así poder cumplir con el apretado calendario fijado por el Gobierno. Al concluir la guerra, som no sólo no abandonaría las lecciones aprendidas en su experiencia en Oak Ridge, sino que las haría propias, profundizándolas (Figura 3) (Figura 4).

Fuente: Redibujo arq a partir de original publicado en: Galison, 2001:9

Figura 3 Organigrama, u.s. Strategic Bombing Survey (ussbs). 

Fuente: Redibujo arq a partir de original publicado en: Boyle, 1984:283

Figura 4 Esquema organizativo de la oficina Skidmore, Owings & Merril, 1957. 

Después de som, la oficina de arquitectura corporativa se descompuso en una serie de ‘cajas’ subordinadas a un directorio. Esta subdivisión en departamentos - administración, diseño, producción y construcción - tuvo efectos sobre la concepción misma que el equipo tenía del edificio. Este se fragmentó en una serie de funciones compartimentadas, formando agrupaciones de ‘cajas negras’, identificadas por características cuantitativas como la determinación de unas medidas de cabida y una función genérica demostrada por unos índices de rendimiento o performance. La concepción del edificio corporativo de la posguerra - tal vez el legado de mayor impacto de som - se entendió en los siguientes años de manera similar: como un organismo complejo cuyos componentes podían ser simplificados en funciones específicas. No obstante, a diferencia de los generados a fines de los cincuenta, este sistema organizacional aún conservó una marcada jerarquía vertical de ‘arriba hacia abajo’. Tanto en el esquema de la producción de los bombarderos de la fuerza aérea norteamericana como en la estructura de trabajo de som, a la cabeza de cada departamento siempre fue necesaria la presencia de un director que debía responder a un superior quien, en último término, estaba sujeto a las decisiones tomadas por un directorio personificado por una persona o grupo que poseía la ‘visión’ o idea del total del proyecto.

Con la incorporación de los sistemas de management como el pert o el cpm, la subdivisión del trabajo se radicalizó. Si antes la labor era representada por un departamento o un grupo de profesionales y contratistas, ahora el trabajo devino en mera ‘actividad’. Tanto ingenieros, arquitectos, contratistas como también maquinarias, materiales y burocracia quedaron emplazados en un mismo plano de jerarquía, orientados únicamente a la conclusión de una determinada función en pos de la obtención de un objetivo. Las actividades, más que tener una importancia a priori, mantuvieron una relevancia relativa medible en la cantidad de conexiones con el total del sistema - o sea, en volúmenes de información - traducidos en la cantidad de tiempo y recursos que cada una de estas actividades demandaba. De esta forma, la atención se puso en aquellos puntos conflictivos proclives a generar ‘cuellos de botella’, donde el tiempo gastado podría superar las holguras fijadas en el plan inicial. El sistema se retroalimentaba frente a cada una de estas contingencias, reordenándose, posponiendo o dejando de lado todas aquellas actividades que exigían más tiempo y recursos. La misma autorregulación o feedback respondía al ambiente entrópico en el que se trabajaba a partir de las decisiones necesarias para que cada una de las actividades llegaran a completarse.

El arquitecto contemporáneo queda así fijado al interior de un programa total como aquel que entrega el input inicial al sistema - el anteproyecto - que debe ser adaptado en cada etapa de ejecución frente a las respuestas o feedback que el resto de los componentes del programa le exijan, modificándose siempre en función de la obtención de un único propósito: la conclusión exitosa del proyecto ya no medido en cuanto a su calidad, sino que en función del tiempo estimado versus el tiempo empleado y los recursos previstos versus los recursos gastados.

La necesidad de manejar grandes cantidades de datos en los modelos organizacionales obligó a recurrir a computadoras para la generación de los cálculos. Para esto fue necesario traducir a datos computables las variables que entraban en juego en cada uno de los problemas a resolver, siguiendo una operación que privilegiaba los formalismos abstractos por sobre el conocimiento experiencial y situado (Bousquet, 2008:82). El mismo hecho de tener que trabajar sobre sistemas implicó la comprensión de la realidad como un escenario finito, administrable y computable posible de ser predicho y controlado. Todo lo que no se podía llevar a números no podía ser manipulado ni adoptar la forma de una respuesta cuantificable. Esta fue la base para los equipos de Operation Research de los cuales se derivaron herramientas como el pert y el cpm. Fue así como en los albores de los sesenta, los sistemas organizacionales fortalecidos por las matemáticas parecieron ofrecer el camino más ‘científico’ o correcto frente a un problema (Bousquet, 2008:90).

Hacia fines de los sesenta, estas herramientas comenzaron a ser introducidas en los programas de estudios de las escuelas de arquitectura, como ocurrió en la Universidad de Washington en 1968 (Montgomer & Boxerman, 1968). Esta asimilación incluso llegó a Chile a través de la Corporación de Mejoramiento Urbano (cormu) en casos como la Remodelación San Borja y el edificio de la unctad iii, donde los cálculos del pert se realizaron mediante el computador ibm 360/30 - el primero en emplear microtransistores en vez de tubos al vacío - que había llegado a la Universidad de Chile en 1967 .

Hiperreal

Cuando la administración Nixon tomó el poder en 1969, todos los datos sobre Vietnam del Norte y los Estados Unidos fueron introducidos en la computadora del Pentágono - la población, el producto nacional bruto, la capacidad manufacturera, el número de tanques, barcos y aviones, el tamaño de las fuerzas armadas, y cosas semejantes. Luego el computador fue interrogado: “¿Cuándo vamos a ganar?” Solo tomó un momento dar la respuesta: “¡Usted ganó en 1964!” Coronel Harry Summers, citado en Bousquet, 2008:98.

En 1961 Robert McNamara era elegido Secretario de Defensa del gobierno de Kennedy, marcando un triunfo para el grupo de profesionales detrás del programa rand (Research and Development), quienes estaban transformando la manera de concebir la guerra moderna. McNamara, que se había destacado durante la Segunda Guerra Mundial por su trabajo como analista en la Statistical Control Office, había transferido muchas de las herramientas desarrolladas al interior del Operation Research a su posterior cargo como presidente de la Ford Motors Company. Con McNamara a cargo de la defensa, las herramientas del management desplazaron la antigua administración de la guerra basada en la existencia de un Comando Central - un equipo de altos oficiales que, apoyándose en un amplio conocimiento experiencial y en el instinto del soldado, definían los escenarios y las decisiones a tomar. Este modelo fue reemplazado por el concepto de Comando-Control, equipo formado principalmente por técnicos que basaban sus decisiones en el análisis de datos. De esta forma, el escenario bélico se tradujo a una serie de índices mensurables, haciendo de la toma de decisiones un proceso objetivable y, aún más importante, predecible. Vietnam surgió entonces como el mejor terreno de aplicación de tales herramientas de control de la incertidumbre .

Al igual que la guerra pensada y llevada a cabo por McNamara - quien basó la posibilidad de una victoria en la certidumbre de las herramientas de management - la arquitectura corporativa de la posguerra, y sobre todo la planificación urbana, fue administrada desde un enfoque en que se le representó una realidad fragmentada, construida a partir de compartimentos altamente especializados, cuyas relaciones se daban a partir de la comunicación de hechos posibles de ser traducidos a valores objetivables. Datos para los que sólo cabía un análisis a partir de los mismos criterios desde donde estos eran recogidos, es decir, aquellos que podían adecuarse a las ecuaciones de costos-tiempo y costos-recursos. Esta concepción hizo que gran parte de la arquitectura corporativa se transformara en un universo cerrado de referencias; un mundo de sistemas cerrados, antientrópicos, que a través del control aparente de las incertidumbres propias de la obras - que operan más bien en el terreno de lo cualificable que de lo cuantificable - hicieron de la construcción de la arquitectura un simulacro de realidad. Por momentos, este mundo se volvió más real que la propia realidad a tal punto que, tal como la tecnoguerra llevada a cabo por McNamara, se estrelló contra la contingencia propia de la ciudad, en un caso, y la de la jungla, en el otro.

Referentes

ALSAKER, E. T. “La técnica básica: análisis de la red” (1964). En: Stilian, Gabriel. pert: un nuevo instrumento de planificación y control. Bilbao: Ediciones Deusto, 1973. [ Links ]

BOUSQUET, Antoine. “Cyberneticizing the American war machine: science and computers in the Cold War”. Cold War History , Vol. 8, Issue 1 (2/1/2008):77-102. [ Links ]

BOYLE, B. “El ejercicio de la arquitectura en América, 1865-1965. Ideal y realidad”. En: Kostof, S. El arquitecto. Historia de una profesión. Madrid: Cátedra, 1984. [ Links ]

ENGELHARDT, T. El fin de la cultura de la victoria. Estados Unidos, la Guerra Fría y el desencanto de una generación. Barcelona: Editorial Paidós, 1995. [ Links ]

GALISON, Peter. “The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision”. Critical Inquiry. 21 (1) (1994):228-266. [ Links ]

GETZ, C. W. “Visión general del pert” (1964). En: Stilian, Gabriel. pert: un nuevo instrumento de planificación y control. Bilbao: Ediciones Deusto , 1973. [ Links ]

HITCHCOCK, Henry Russell. “The Architecture of Bureaucracy and the Architecture of Genius”. The Architectural Review (Oct., 1947):3-6 [ Links ]

MALCOLM, D. G., Roseboom, J. H., & Clark, C. E. “Application of a Technique for Research and Development Program Evaluation”. Operations Research, Vol. 7, Issue 5 (1959):646-669. [ Links ]

MARTIN, Reinhold. “The Organizational Complex: Cybernetics, Space, Discourse”. Assemblage 37(1998):102-127. [ Links ]

MAULÉN, David. “Una trayectoria excepcional. Integración cívica y diseño colectivo en el edificio unctad iii”. ARQ 92 (Abril, 2016):68-79. [ Links ]

MONTGOMER, R.; BOXERMAN, S. “An Applied Mathematics Course for Architects and Urban Designers”. Journal of Architectural Education, Vol. 22, No. 2/3 (Mar-May, 1968):29-31 [ Links ]

SCOTT, Felicity. “On Architecture under Capitalism”. Grey Room 6 (2002):44-65. [ Links ]

WYNDHAM, M. D. “The Polaris”. Technology and Culture, Vol. 4, Issue 4 (1963):478-489. [ Links ]

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons