Category: Research

  • DESIGNBOOM – Architecture et caustiques

    DESIGNBOOM – Architecture et caustiques

    INTERACTION BETWEEN DAYLIGHT AND WATER IN ARCHITECTURE THROUGH SIMULATION OF CAUSTICS

    M. Di Sibio; O. Baverel

    Ecole Nationale des Ponts ParisTech – Master Spécialisée Design by Data 2018-19

    0 ABSTRACT

    In the last decades, various computational approaches to the design field have started to emerge and become widely employed. Computational and generative design are, actually, mostly used in structural engineering, artistic installations, project management and performance-based design, while there are fewer examples of using those tools to study how certain phenomenon affect a building from a perceptive and architectonic point of view.
    This study aims to provide a simple but robust framework to evaluate and study the interaction between daylight and water as a precise architectonic intention: the phenomenon of caustics will be studied and simulated. This framework is applied to a real case-study project currently developed by Ateliers Jean Nouvel, the intention of which is to understand the caustic effect in relation to the project, in order to enrich and inform the architectural design.
    The problem of gathering useful and usable caustic data is addressed in this paper and an architectural design proposition will be done as an example of how to use the obtained data.
    To validate the result, measurable images will be generated using both validated and proprietary rendering engines.
    KEYWORDS: caustics, reflections, daylight, water, light, architecture

    1 INTRODUCTION

    In architecture, water and light, but more in general the relationship with nature, has always been very strong, and, in many cases, has been the tool used to guide the whole design process.
    In architecture there are plenty of examples using light and water as physical architectural elements, like in the excellent work of Louis Kahn [11], Rem Koolhaas or Tadao Ando [12].
    Therefore, it has been very difficult to find literature and works about the specific phenomenon of caustics in architecture, exception made for the work of Philippe Bompas (Fig. 1.1) [13].
    Caustics are one of the most fascinating light phenomenon, consisting in the continuous focusing and diverging of light rays, creating refracted or reflected light patterns in a way that seems unpredictable, but once it takes place, curiously, shows lifelong stability and persistence [3]. Almost everything that can reflect or refract light can spot caustics: windows, glasses filled with liquids, metals or water (Fig. 1.2).
    How can a random and wild phenomenon like caustics inform the architectural design process?The aim of this paper is to study caustics in order to find a simplified methodology to compute and predict this phenomenon and allow to use it as an architectural feature. It’s important to state that this research is not about controlling the shape or the pattern of reflected light, but instead to understand, when and where caustics will take place and define a convenient way of measuring this chaotic and apparently unpredictable effect. In a second section of the paper a simple algorithm will be developed in order to optimize the architecture geometry in relationship to the caustics.
    Chapter 2 of the paper, will explain the background research made on caustics, give an overview of the actual studies on caustics and show some references of previous works on the subject.
    Chapter 3 will state the objectives of this study and Chapter 4 will give an introduction to the case study and the design parameters.
    In Chapter 5 the methodology proposed will be explained, as well as the models used, while Chapter 6 will explain the results obtained.
    Chapter 7 will address the methods used to validate the methodology.

    Fig. 1.1- Philippe Bompas, Lighwaves (2012); A fine layer of water refracting light passing through a transparent window.

    Fig. 1.2- A glass of water casting caustics (Left); Underwater caustics (Right)

    Fig. 1.3- A scene taken from the movie Blade Runner 2049 showing the work of Roger Deakins with caustics.

    2 BACKGROUND RESEARCH

    2.1 Caustics
    When light propagates through a medium, especially a liquid in motion like water, is not occasional that it focuses and dim constantly in apparently random patterns. Those patterns are called caustics and, despite one can imagine, those are not just the focusing point of light travelling through a material acting like a lens, but in general are families of rays enveloping a caustic surface in space. This means that caustics are three dimensional structures of concentrated rays in space and that the simple focus point (of a parabola or sinusoid curve for instance) is still a caustic but is also unlikely to be found in nature due to its perfect symmetry and his high instability [0].
    The term “caustic” comes from the ancient Greek word καυστός (kaustόs), that means “burnt” because of the nature of this phenomenon of concentrating rays and eventually, in specific cases, burn a surface [4].
    Nowadays a caustic is not representing anymore a mystery but, before the end of the 70’s, the geometrical optics theory was not able to fully explain the phenomenon, until the introduction of the theory of catastrophes, which leaded to the creation of catastrophe optics theory. Today we know that a caustic basically represents a discontinuity point in a stable system (which is called a catastrophe) [0].


    2.2. Related Works
    Architecture literature is particularly rich regarding the theme of light and water. Those natural elements have been always seen as features to improve physical and psychological health of the human being, as highlighted also by several studies [15]. A special regard to light and water in architecture is due to the growing attention to sustainability, especially in the latest years, when computational power is enough to predict and optimize performance gains due to the combination of those elements.
    Therefore, there is a lack of architectural studies on caustics. The work of Philippe Bompas on caustics is one of the closest to the actual architectural practice, in particular with Timescapes (Fig. 1.1), a project that investigates how light, water and other materials interacts each other. Another interesting work has been conducted by EPFL on the way a caustic can be controlled in order to produce an image, deforming a refractive surface of plexiglass [4].
    Other examples of working with caustics can be found in cinema and photography, which are deeply correlated with the intention of this study of recreating a specific ambience for a non-controllable environment. Specifically, the work of Roger Deakis as light designer for some stages of Blade Runner 2049 has been very inspiring (Fig.1.3).


    2.3 Metrics
    In order to be able to express numerically such a raw and qualitative phenomenon, it is urgent to find a way to measure, somehow, the caustic effect. Based on the previous research (Chapt. 2.1), the fact that a caustic is a three-dimensional structure helps defining the main metric which will be the Thickness of the caustic surface, an indicator that can easily give a qualitative idea of the phenomenon as explained in Fig. 2.3.1. It is important to state here that the acceptable boundaries for this value are set empirically, based on experience and necessity, because of the aesthetic and unquantifiable nature of the problem. At the end of the workflow what is here called a Caustic Index will be produced in order to quantify in a scale from 1 to 0 the quality of the effect. Along with the Thickness, other metrics will be gathered and stored in order to be used and studied afterwards.

    Fig. 2.3.1- (Left) Photography of an underwater caustic; (Right) A high
    contrast zoom of the caustic showing in blue the bounds of the caustic
    surface. In green is represented the measure corresponding to the average
    Caustic Thickness metric.

    3 OBJECTIVES

    The aim of this study is to understand how caustics can become part of architectural design
    process along with light and water. The outputs will be multiple and all related to the case study
    currently developed at Ateliers Jean Nouvel: “heatmaps” and schemes showing during the
    year and the analysis days the location, the characteristics and the Caustic Thickness metric (as
    described in Chapter 2.3) useful to understand the overall behaviour of the caustics. Based on
    that schemes and datas, placement of various architectural elements will be decided accordingly
    in order to, locally, maximise or minimise the caustics.
    Through the application to the case study, the main goal is to define a methodology to address
    analytically the study of caustics, cutting the time for qualitative visualization (that actually is still
    very high and often not enough accurate) and provide anyway consistent answers.

    4 CASE STUDY

    The case study is the Zhoushan Cultural Tourism Financial Complex (ZCTFC), a project actually
    being developed at Atelier Jean Nouvel.
    The site is located near Zhoushan, China, about 180Km south from Shanghai (Fig. 4.1) and is displaced
    in two islands, it is obvious that the relationship with water is absolutely predominant.
    The whole project consists in several interventions covering the entire surface of the two islands (Fig. 4.2), but for the purpose of this paper we will focus only on the building denominated Marine Horizons (Fig. 4.3), a terraced building that enhance the relationship between water and light as a main architectural feature; the concept, indeed, is inspired by the typical Chinese terraced rice fields.
    The typical section of the building (Fig. 4.4) shows an intentional repetition of the same system (Fig. 4.4 top) for several floors and also suggests how strong will be the interaction of light and water, considered as an architectural feature but inevitably posing several problems that needs to be addressed. One of the most important desired effects of this interaction is represented by caustics, intended as a phenomenon aimed to improve the perceptive quality of the private terraces of the building; it is merely an aesthetic intention, but it represents a strong natural effect as well that is always been fascinating and can provoke positive psychological effects. The architectural features of the building we are most interested in, for this study, are represented by the apartments, the pools (1m deep), the water mirrors (0.15m deep) the and the overhanging terraces to serve as sunshades. Other important elements are represented by the ceiling windows that will be placed below the water mirror level, on the overhanging roof, and the pool vegetation that will serve for the Phyto depuration of the pool water. The roof windows, being below the water level, will cast refracted caustics in areas normally darker while the vegetation, placed above the water level, will help to block reflected light and for consequence reflected caustics in zone where this effect could be discomfortable causing glare and overheating, like in the interior of the apartments.
    Those two elements are then interesting to be manipulated in order to control the caustics behaviour
    during the analysis days. To summarize, among the others, one big intention of the project is to study how caustics can be implemented in the architectural design in order to significantly improve the ambiance and the quality of the space.

    Fig. 4.1- Distance between Shanghai and Zhoushan

    Fig. 4.2- Zhoushan; Site of the project

    Fig. 4.3- Zhoushan; Marine Horizons location

    Fig. 4.4- Zhoushan Cultural Tourism Financial Center; Marine Horizons Typical Section of the building highlighting housing units (in red) and water pools (in blue). On top, a scheme of the elements composing the base system.

    5 METHODOLOGY

    In order to address the problem, the first step is evidently to understand how to properly simulate and measure the behaviour of caustics and gather necessary data.
    At a first glance, one could think about using a classic photon mapping rendering engine in order to address the problem and visualise the results, but the drawbacks in this case are several: the very high computation time represents a huge bottleneck for the workflow, but the main problem is the lack of usable data. It is indeed hard and unprecise to analyse image data coming from rendering engines since in most cases is dominated by noise.
    In this study is not relevant to visualize the caustic itself; it is relevant instead to have the possibility to rapidly calculate all the quantitative characteristics of a caustic for many different scenarios and situations in order to store them and reuse precalculated data afterwards. A methodology using geometrical optics theories is then proposed to solve a relatively small but still relevant amount of sun ray intersections and find the metrics described in Chapter 2.3.

    5.1. General Workflow
    The general workflow (Fig. 5.1) of this study can be divided in two standalone and linked models: an evaluation model will be used to pre-calculate and store generic caustics metrics for a broad range of sunlight directions and water wave conditions; on the other hand, the case study model is where gathered data will be used to calculate the actual conditions relatives to the case study and where statistics and metrics are analysed in order to retrieve the useful information. The two models will gather weather data from the Energy Plus online database of weather and sun conditions specifically for the Zhoushan area [16].

    Fig. 5.2.2 – On the left (a) the calculation rules for reflected rays; on the
    right (b) the scheme for calculating refracted rays. Both are using the
    Snell’s Law.

    Fig. 5.2.3 – Zoom showing the modeled trochoid wave curve (double blue
    line), reflected rays (in red) and refracted rays(in blue)


    5.2. Evaluation Model
    The evaluation model is a parametric two-dimensional representation of the basic architectural system of the case study (Fig. 5.2.1), meant to pre-calculate the characteristics of caustics in every condition of light and wind in order to understand how those parameters are affecting the phenomenon on a yearly scale.
    Both reflected and refracted caustics will be calculated using different metrics as output.
    The model is composed by water, represented by a trochoid curve, a sun vector and a target plane (in this paper the target will be placed at 6.4m high relative to the water level). The parameters of the simulation are represented by the water wave height (ranging from 0.001m to 0.150m), the water wave period (from 0.01m to 1.00m, the sun direction vector (for 8760 hours in the location of the epw file) and the target plane height (6.4m).
    As it could be seen from the workflow of the evaluation model (Fig. 5.2.4) the first step is to generate the water wave curve using the wave height and period parameters. For the purpose of this study, literature suggests [9] that the widely employed sinusoid curve is not the best suited for simulating water waves; it is instead the trochoid curve (or circular curve) (Fig. 5.2.3) the one that best approximates the shape and the motion of water with periodic waves, since in reality it is not a symmetric shape. The period of the curve, and of the model more in general, in this case, is needed in order to obtain consistent results between different tests. A random gaussian function could be used in place but this kind of curve will probably give false results due to the randomness.
    Therefore, since the pools of this case study must be considered as shallow water, we assume that waves generated by wind (without external perturbations) in such conditions can be considered close to be periodic; the two wave parameters at this point are calculated using a brute force algorithm in order to retrieve every result. It is important to state that the model is computed using two periods of wave, in order to take into account, the interaction that could occur between near waves but keeping the algorithm very light, without sacrificing precision.
    A simple mathematical raytracing script calculates then the interaction between a significant number of light rays (1000 in this case; 500 per wave period), also called samples, and the NURBS curve using the Snell’s Law (Fig. 5.2.2) [5] to determine the reflected and refracted angle of incidence:


    sin θ/sin γ = v1/v2 {1}


    where θ and γ are respectively the angles formed by rays with the normal to the wave and v1 and v2 are represents the density of the two different mediums.
    Since the algorithm needs to calculate just one bounce of the rays, the calculation is very fast. The first families of rays are casted parallel to the sun direction vector and following the angle retrieved by the equation they determine the intersection point with the target plane.
    A caustic is detected by the algorithm if at least the 5% of the total amount of rays intersects the target in the same spot or if their intersection forms a linear group of point which is smaller than the threshold T:


    T = D(S-1) {2}

    Where D is the average distance between the intersection points and S is the number of ray samples. Those values are determined experimentally, and various test shows that changing the number of rays does not affect significantly the results. the length of the group of intersections. The choice of using NURBS curves instead of using a traditional mesh is due to the necessity of extreme precision, hardly achievable with meshes since all the sample points are concentrated in two wave periods. The first attempts with traditional raytracing with high density meshes (edges smaller than 1mm) showed higher calculation time and a significant number of rays were falling in same face then wrongly calculated as parallel. The calculation is being done both for reflected and refracted caustics, gathering different metrics for each category. To give a further dimensional idea of the pattern that could be achieved in a particular condition, another gathered metric will be the distance between the centres of the neighbouring clusters, called Caustic Relative Distance. All these metrics are then stored along with their generating parameters in a .csv file in order to be reused afterwards. A slightly different and simpler process is used to gather the metrics for the refracted caustics. Since those are supposed to be casted from above, the most interesting data to analyse is how far from the media interface the caustics will start to be in focus (for example the distance between the water surface and the floor of a pool). To address this problem, the distance between the ground plane and the first intersection point is being calculated. The value will give an idea of the depth at which the caustic will start to be in focus and be appreciable. This value is then stored in the database. The process is repeated for each hour of the year (using Zhoushan, China, as location) and for each condition of water wave, using a brute force algorithm. It could be of course possible to already restrict at this point of the workflow the number of iterations, studying the weather and sunlight data of the site, but it is indeed interesting to visualise how different conditions are giving different result and the correlation between them. It is also a very fast process. More details are discussed in Chapter 6.1.

    Fig. 5.2.4 – Evaluation model workflow

    5.3. Case Study Model

    The case study model represents the simplified architectural geometry of the Project of the ZCTFC and it has its own specific workflow (Fig. 5.3.2). An iteration floor-by-floor is necessary in order to reduce the computer memory usage and simplify the simulation; The algorithm gathers weather data from Energy Plus .epw file, a free online weather database that guarantees in general a good historical source of data [16]. In the case of this study, the data taken into account is the wind speed and direction, since they will inform the first part of the algorithm, the Wave Height Statistical Forecast [b6]. Literature describes this method as a way to forecast the wave height and period in open sea, but provides also a method to bound the results in order to be valid as well as for shallow waters. More details about this method will be explained in chapter 5.3.1. The WHSF will give as output the parameters of the wave, in order to retrieve the relative caustics data from the csv database previously generated with the evaluation model, along with the sun vector, calculated using Ladybug; those new metrics are stored in a second csv file for being analysed. In parallel, a daylight analysis made with Radiance will be performed using the ceiling of the terrace as target, in order to retrieve lit and dark zones. The process and the model are explained in Chapter 5.3.2. This data will be weighted with a Caustic Index (explained in chapter 5.3.3), to give an idea of where the effect will be maximum or minimum and at the same time to show different intensities of the phenomenon. The resulting map is what is called in the workflow scheme “Caustics Heatmap”. These maps will be used to design the vegetation areas needed for the pool Phyto depuration, in order to modify those heatmaps and maximise the quantity of caustic effect in allowed zone or block it in unwanted zones (like in the interiors of the apartments).

    Fig. 5.3.1- Geometric composition of the case study. Highlighted a single floor.

    Fig 5.3.2 – Case Study Workflow

    5.3.1 Wave Hight Statistical Forecast

    An algorithm capable to estimate waves characteristics given the wind speed is the Wave Height Statistical Forecast (from here onwards called also WHSF) (Fig. 5.3.1.1) developed by US Army Corps of Engineers and described in the Coastal Engineering Manual [8]. In order to find the wave height limit Hmax, in relationship to the wind hourly data, the following equation needs to be resolved:

    Hmax = (0.27U2) / g {3}

    where U is the wind speed at the desired height and g is the gravity force.

    To calculate U at a given height, the Wind Speed Calculator of Ladybug is used, in order to correct the .epw hourly wind data, which is calculated at 10m high.
    The value obtained by {3} should be adjusted if it exceeds the values of the wave height Hw con-strained by the wind distance retrieved by the equation:


    (gHw)/Uf2 = 4.1310-2 * ((gX)/Uf2)1/2 {4}

    where Uf is the Friction Velocity if the Drag Coefficient is considered constant and X is the wind dis-tance, which expresses the distance in meters the wind can travel without physical obstacles.

    Uf is calculated by the following expression:

    Uf = Ux²(0.001(1.1+(0.035Ux))) {5}
    Where Ux is the wind speed at 10m high.


    The wave period maximum limit Tp is determined by the equation:
    (gTp) / Uf = 0.751((g*X)/Uf2)1/3 {6}


    This value, in case of shallow water, must be validated by performing the following actions:

    • Check that Tp < Tmax; if Tp > Tmax, we assume Tp = Tmax;
      Where Tmax = 9.78(d/g)^1/2
    • Recalculate X using {6} for the corresponding boundary value and recalculate Hw using {4} ac-cordingly;
    • If Hw > 0.6d then Hw = 0.6d
      Where d is the water depth

    The limits for using these formulas are primary regarding the wind speed, which must be below 37.5 m/s, above which the wind is considered a hurricane.
    The distance X in the case study is largely sufficient to ensure that all the obtained values are never restricted by this parameter.
    More limitations are explained by [8] and [10].
    This algorithm returns the wave parameters Height and Period for each hour of the year, that will be used to retrieve the caustic characteristics.

    Fig.5.3.1.1 – Grasshopper Algorithm used to calculate WHSF


    5.3.2 Daylight Simulation Setup


    The daylight analysis is performed in order to retrieve for each floor’s target lit and dark zones.
    The analysis is done using the Grasshopper plugins Honeybee and Ladybug, which allows to maintain a parametric workflow; the used engine is Radiance, a validated raytracing software capable of accurately simulate daylight.
    The model is composed by several parts (Fig. 5.3.2.1a): the apartments are represented by their bounding boxes, the concrete terraces, the roof internal and external targets (Fig. 5.3.2.1b) and the pool water.
    For each element is used the standard radiance material corresponding to the architectural functions (such as walls, floors, roofs, …) and for water a custom parametric material is used in order to account the Fresnel Laws, since the RGB reflectance of water changes according to the sun angle between its direction and the vertical vector Z [6].
    To address the problem, the Schlick’s Approximation [7] of the Fresnel Equations is used; this formula is often used in computer graphics (Fig. 5.3.2.2):


    R = R0+(1-R0)*(1-cos(θ))5 {7}


    where θ is the angle between the direction of the sun and the normal to the interface of the two media and R0 is the reflection coefficient for rays parallel to the normal Z and R is the material reflectance.


    R0 = ((v1-v2)/(v1+v2))2 {8}


    Where v1 and v2 are the indices of refraction of the two media: in this case v1=1 (air) and v2=1.33 (water)
    With this algorithm, the simulation takes into account the fact that in the morning and in the evening, water is reflecting more rays than at noon.
    Since we need this analysis in order to understand where and when caustics happens, before the simulation the water surface is projected into the target roof following the sun direction vector inversed; the Boolean subtraction of the projection from the roof determine the zones in which, at the given sun conditions, is impossible to have caustics. (Fig.5.3.2.1c)
    The analysis mesh resulting from Radiance (Fig. 5.3.2.1d) is then modified in order to set to a 0 Lux value all the sample points inside the found curve; the other values are remapped into a 0-1 value scale where 0 equals to 0 Lux and 1 equal to 100000 Lux (Fig. 5.3.2.1e).
    The Radiance analysis is performed every 15 days of the year, for each hour from 9:00 to 16:00. A total of 168 analysis meshes are calculated along the whole year. Since in the global workflow we are working with hourly data, in order to be weighted with the Caustic Index, eight linear interpolations are done, one for each hour of the day, in order to obtain 2920 meshes; because night-time is not considered we don’t calculate the whole 8760 values.

    Fig. 5.3.2.1 – a. Radiance Model Elements; b. External Target in purple
    and Internal Target in orange; c. Area in which caustics are not possible;
    d. Radiance analysis mesh: e. Radiance analysis mesh corrected and
    remapped.

    Fig. 5.3.2.2 – Grasshopper Algorithm used to calculate Schlicks Approximation
    and Radiance Mirror Material used for Water


    5.3.3 Caustic Index


    As stated before, the aim of this research is mainly to understand how to express numerically a chaotic and qualitative effect such as caustics. In a first step some characteristics such as thickness and relative distance are calculated, but in order to evaluate the caustic quality globally, an index ranging from 0 to 1 is needed and easier to use.
    With all the gathered data from the precalculated database, we can rapidly build a second database relative to the case study, this time recording the caustics for each hour of the year in Zhoushan using real wind and sun data to extract the metrics.
    This last database shows that, excluding the +Infinity values, which means the caustic is out of focus, the boundaries of caustic thickness in this geographical area are ranging from 0.001m to 0.52m.
    The first operation done is to replace every infinite value with the upper bound 0.52m and remap those values into 0-1 domain.
    The following formula is then applied:


    abs|CT-CTd|-1 {9}


    Where CT is the Caustic Thickness and CTd is the Desired Caustic Thickness (Target Value);


    The CTd value used is 0.05, since in this case the most desirable caustic thickness is 5cm; the {9} equation makes an offset of every value in order to set 5cm at the 0. The -1 exponent is needed in order to reverse the domain: the result is that 1 will correspond to 5cm and 0 will correspond to 52cm thickness.
    This index is used afterwards to be multiplied with the luminance 1-0 value in order to retrieve the results.
    The output is a dataset of 8760 values, ranging from 0 to 1, which are representing the Caustic Thickness for each hour of the year.

    6. RESULTS

    This chapter will discuss about the obtained re­sults both for the evaluation model and the case study model.

    6.1. Evaluation Model

    The results obtained from the caustic evalua­tion model are formatted in a csv file contain­ing all the combinations of Wave Height, Period and sun direction for each hour of the year in Zhoushan.

    The 15 July at 14:00 dataset resulting from the evaluation model is then visualized (Fig. 6.1.1) in order to make the gathered data easily read­able. The metric visualized by color gradient is the Caustics Thickness, which has been culled to a maximum value of 20cm, empirically. It is noticeable how actually is the wavelenght the parameter that most affects the results, except for very short waveheights. It is also interesting to see how the Caustic Thickness tends to grow while the wavelenght grows, but at certain point it starts to decrease again; this phenomenon is caused by the interference between two near waves.

    Fig. 6.1.1 – Evaluation model results visualization. X axis – wavelenght (0.01m – 1.00m); Y axis – waveheight (0.001m – 0.15m). Colours are representing the Caustic Thickness calculated at 7.4m high (ref legend on top).

    6.2. Case Study Model

    The first operation done in order to retrieve the first results is to weight the luminance values of each Radiance mesh with the Caustic Index.

    The mesh values are linearly interpolated and, taken alone does, not represents interesting re­sults; on the other hand the Caustic Index is calculated for each hour; it makes sense then to weight every mesh with the corresponding Caustic Index, since are both ranging from 1 to 0 and since we want to weight caustic data with light brightness data.

    We obtain 2920 weighted meshes with values ranging from 0 to 1 which represents the zones in which caustics are brighter or darker taking into account their thickness. From this data we can extract the average caustic per year (Fig. 6.2.1), the day of maximum and minimum val­ues and it’s possible to visualize the heatmaps day by day.

    In Fig. 6.2.1 it’s shown one floor (entire result in Fig 6.2.4) of the resulting mesh after making the average between all the obtained meshes for the whole year: it’s clear how the resulting colours are segmented in defined zones; the blue areas shows that generally at the bottom of the apart­ments will never happens caustics during the year; on the other hand the exterior overhang presents several areas in which on average caus­tics will takes place during the year. It’s remark­able to see how in general caustics are more con­centrated on the east and west sides of the roofs, probabily because are casted in the late after­noon or in the early morining (Fig6.2.7 for com­parison between caustic wind and su altitude). It is interesting also to see how at level F1 (Fig. 6.2.4) the middle roof is the one that presents more caustics overall: it can be explained by the half floor-to-floor height of this level and, since there are no pools below this portion, another time those are caused by early morning or eve­ning rays. This result shows how the important height between levels is making caustics more difficult to percieve.

    Analysing the data presented in Fig. 6.2.5 shows that the day with the best caustic conditions is 30 July at 16:00 and the un position can be seen in Fig. 6.2.4; the wind speed is relatively low at 4m/s (7.78 Knots) but enough to produce some small waves.

    On the other hand, the worst day is September the 14 at 10:00 with wind speed of 12 m/s (23 Knots) which is very close the upper bound of the wind dataset (Fig. 6.2.6). It is important to note that the site during the year is not very windy, and the upper registered bound is 14.9 m/s registered the 20th September at 20:00.

    Fig. 6.2.1 – (Top) Axonometry of the case study’s first floor model showing the average of all year’s days. (Bottom) Plan view; Colour scale used is the same as Fig. 6.2.1

    Fig. 6.2.2 – Detail Plan View showing the sharp edges caused by the average. Color scale used is the same as Fig. 6.2.1; The red dotted line represents the apartments bounding box.

    7. VALIDATION

    This chapter presents the methodologies used in order to check and validate the accuracy of the proposed workflow for the Evaluation Model.

    The validation process consists in the visual assessment of the results obtained by the algo­rithm and a second check using validated soft­ware Radiance.

    The software utilized for visualization is Octane Render’s PMC Kernel, a rendering engine specif­ically studied for rendering caustics [14].

    This engine can calculate extremely accurate caustics.

    In the case studied, periodic waves are used in order to be able to measure effectively the nu­merical results: the caustic thickness and the rel­ative distance between the clusters of rays.

    After the calculation of the 8760 caustics metrics for each hour of the year in Zhoushan, using the WSHF algorithm for determining the wave con­ditions, 15 March at 12:00 is chosen as valida­tion day since is the closest to a 10cm thickness caustic (0.09989m), which is convenient to mea­sure. Furthermore, the caustic relative distance is 0.299m which is also very handy to measure.

    The calculated wave period is 0.29m and the wave height is 0.003m. (Fig 7.1)

    The wind speed at 7.4m high, which is the low­est pool in the project, calculated using Ladybug Wind Speed Calculator component for Grass­hopper, is 0.774 m/s.

    The Radiance analysis (Fig.7.3 Top), performed on the sample portion of the project, clearly shows horizontal high contrast zones with a dif­ference of more than 15000 Lux. Using a 5x5cm mesh grid as analysis surface permits to appreciate the phenomenon, since the caustic should be the double in dimension (10cm) (Fig 7.3 Bottom). The high contrast zones are affecting 2 consecu­tive faces and are on average distant 30cm each other. The results are then coherent with the evaluation model.

    For the visualization assessment, Octane PMC Kernel is used to render the same model used for the Radiance Analysis, in order to visually confirm the results (Fig 7.2 Top).

    Exactly the same zone and time is used and, as precaution, every image filtering, post pro­duction colour correction or denoising feature is turned off. A parameter intended to speed up the visualization of caustics using interpolation, called “Caustic Blur”, is reduced to 0, which in­troduces artifacts and noise in the final image but gives unfiltered results.

    At the 9x18m target roof surface is applied a met­ric checkerboard texture representing 50x50cm squares, in order to visually understand the pro­portions.

    Fig 7.2 (Bottom), is a parallel view of the roof tar­get seen from below, showing clearly the 10cm caustics with a 30cm space between them.

    Fig.7.2 – (Top) Render of the 3D evaluation model with Octane PMC. (Bottom) Rendered bottom view of the target roof (18x9m); Caustics are visible over a metric texture. Each square has 0.5m side.

    Fig. 7.3 – (Top) Radiance analysis plan view. (Bottom) Detail of the result mesh; Each face is 0.05×0.05m.

    8. CONCLUSIONS

    Despite the complexity of the phenomenon, it is interesting to see how, using a relatively simple al­gorithm, it is possible to understand how caustics are behaving in different conditions, by greatly sim­plifying the problem. Furthermore, it is interesting to see the different conditions in which caustics can happens during the year, and to discover that ba­sically those are casted during the whole year but mainly in months where the sun is on average lower on the horizon and the wind conditions are not at the extremes.

    On the other hand, it is very difficult to forecast caustics in standardized conditions, because of the huge number of parameters combinations that can produce caustics and that are not easily predictable.

    9. ACKNOWLEDGEMENTS

    The author wishes to thank Oliver Baverel, Adrien Rigobello, Romain Mesnil, Francesco Cingolani and Andrea Graziano for the precious help, advice and comments, a very special thanks to Tristan Israel for his support and dedication. Finally, a big thanks to all the students of the Master Specialisée Design By Data 2018-19 for their support and comments.

    10. SOFTWARES

    This research and all the described algorithms have been mainly developed using the 3d modeling soft­wares Rhinoceros and the plugin Grasshopper to develop the parametric workflow.

    All the daylight analysis, both for the simulations and the validation, are conducted using Radiance as part of the Ladybug and Honeybee plugins for Grasshopper.

    The last software is Octane Render 4.1, used for the visual validation since is among the most advanced physiscally-based engines capable of rendering caustics using GPU calculation and hugely reducing calculation time.

    9. REFERENCES

    CAUSTICS AND OPTICS

    [0] CATASTROPHE OPTICS: MORPHOLOGIES OF CAUSTICS AND THEIR DIFFRACTION PAT­TERN; M.V.Berry, C. Upstill; H. H. Wills Physics Laboratories, University of Bristol. 1980

    [1] CAUSTICS AND SYMMETRIES IN OPTICAL IMAGING. THE EXAMPLE OF CONVECTIVE FLOW VISUALIZATION; A. Joets, R. Ribotta; Laboratoire de Physique des Solides, Université de Paris Sud; 1994

    [2] USING ROLLING CIRCLES TO GENERATE CAUSTIC ENVELOPES RESULTING FROM RE­FLECTED LIGHT; Jeffrey A. Boyle; Department of Mathematics, University of Wisconsin-La Crosse.

    [3] NATURE’S OPTICS AND OUR UNDERSTANDING OF LIGHT; M.V.Berry; H. H. Wills Physics Laboratories, University of Bristol; 2014

    [4] ARCHITECTURAL CAUSTICS: CONTROLLING LIGHT WITH GEOMETRY; T. Kiser, M. Ei­gensatz, M. Nguyen, P. Bompas, and M. Pauly; Advances in Architectural Geometry, Springer; 2012.

    [5] FONDAMENTI DI FISICA; D. Halliday, R.Resnick, J.Walker; Zanichelli; 2001

    [6] https://en.wikipedia.org/wiki/Fresnel_equations

    [7] AN INEXPENSIVE BRDF MODEL FOR PHYSICALLY-BASED RENDERING; C. Schlick; Com­puter Graphics Forum; 1994

    WATER, WAVES AND WIND

    [8] COASTAL ENGINEERING MANUAL; U.S. Army corps of engineers; 2008; Chapter II-2-2, Pag II-2-37

    [9] http://hyperphysics.phy-astr.gsu.edu/hbase/Waves/watwav2.html ; R.Nave; Georgia State Univeristy

    [10] https://planetcalc.com/4442/

    ARCHITECTURE

    [11] BETWEEN SILENCE AND LIGHT: SPIRIT IN THE ARCHITECTURE. SHAMBHALA; L. Kahn; 1979

    [12] LIGHT REVEALING ARCHITECTURE; Marietta S. Millet; Wiley; 1996

    [13] https://philippebompas.com/

    OTHERS

    [14] https://docs.otoy.com/StandaloneH_STA/StandaloneManual.htm#StandaloneSTA/PMCK­ernel.htm ; Octane’s Render PMC Kernel Documentation

    [15] https://www.archlighting.com/technology/the-benefits-of-natural-light_o ; « The Benefits of Natural Light »; Kevin Van Den Wymelenberg.

    [16] https://energyplus.net/weather-location/asia_wmo_region_2/CHN//CHN_Zhejiang.Ding­hai.584770_CSWD

  • [PARA]site – Petite histoire d’architecture numérique

    [PARA]site – Petite histoire d’architecture numérique

    parametro /pa’rametro/ s. m. [dal fr. paramètre,
    comp. di para-² e -mètre «-metro»].

    1. (matem.) [costante arbitraria da cui dipende
    l’andamento di una funzione]. 2. (fig.)
    [concetto che sta alla base di una valutazione:
    giudicare la situazione secondo p. diversi] ≈
    criterio, metro, misura, principio, valutazione.
    ‖ canone, metodo, regola.
    [Treccani, 2016]


    1. INTRODUCTION

    Le terme paramétrique trouve ses racines dans les mathématiques, en particulier dans les équations dites littérales (ou paramétriques), dont les variables, contrairement à celles des équations numériques, sont exprimées en fonction d’un ou plusieurs paramètres. Grâce à l’application de ces équations, Galilée, à la fin du XVIe siècle, a réussi à quantifier le mouvement en le décrivant à l’aide de lois mathématiques, toujours valides aujourd’hui, qui relient le temps et l’espace en tant que paramètre et variable respectivement.

    À une époque plus récente, toutefois, le terme paramétrique a été introduit dans l’architecture par certains ingénieurs et architectes comme un label leur permettant de s’identifier et de différencier leur travail d’autres styles ou mouvements. Bien que la proposition de Patrick Schumacher d’adopter le terme “Parametricisme” remonte à la Smart Geometry Conference de Gothembourg en 2007 (Schumacher, The Autopoiesis of Architecture, vol. 1, 2010), une production architecturale qualifiable de paramétrique a des racines bien plus anciennes.

    Aujourd’hui, l’architecture paramétrique est souvent associée à l’intégration de stratégies de conception inspirées de processus numériques et à l’utilisation de logiciels avancés. Ces deux disciplines sont désormais si étroitement liées que leurs frontières en deviennent presque indistinctes. Cependant, cette conception ne reflète pas la réalité pour de nombreux architectes et ingénieurs qui ont utilisé les mêmes processus logiques bien avant l’ère numérique. L’ordinateur n’a fait qu’accélérer ces processus, permettant la création d’architectures dont les formes résultent uniquement d’un processus algorithmique basé sur de multiples paramètres.

    Parmi les pionniers de l’utilisation de ces méthodes, on retrouve Antoni Gaudí, Luigi Moretti, Sergio Musmeci, Buckminster Fuller, Heinz Isler et Frei Otto. Ce qui les unit, c’est leur recours aux mathématiques paramétriques et aux modèles physiques pour anticiper les différentes configurations d’espaces et de structures, en réponse à un problème rigoureusement formulé. C’est grâce à ces exemples que l’on peut encore aujourd’hui distinguer une architecture fondée sur un processus solide d’un simple exercice de style informatique purement formel.

    Jusqu’aux années 1980, l’architecture paramétrique n’était pas encore considérée comme une pratique architecturale à part entière. Cependant, avec l’arrivée des premiers ordinateurs dans les bureaux d’ingénierie et d’architecture, elle a commencé à se définir progressivement. Ces machines ont offert un avantage considérable en accélérant de façon exponentielle des tâches complexes, comme les calculs structurels, ouvrant ainsi la voie à ce que l’on appelle aujourd’hui l’architecture numérique.

    Parmi les premiers architectes à avoir fait de l’architecture numérique leur signature, on trouve Ben Van Berkel, Ron Arad, Hani Rashid (Asymptote Studio) et Lars Spuybroek (Groupe NOX), dont le travail reste emblématique à ce jour. À mi-chemin entre l’architecture numérique et analogique, des figures contemporaines comme Peter Eisenman se démarquent en s’éloignant du processus traditionnel de définition des formes architecturales, et en privilégiant une approche basée sur des diagrammes et une logique vectorielle-informatique

    1. INTRODUZIONE

    Il termine parametrico affonda le proprie radici nella matematica, in particolare in quelle equazioni dette letterali (o parametriche) le cui variabili, al contrario di quelle delle equazioni numeriche, sono espresse in funzione di uno o più parametri. Tramite l’applicazione di queste equazioni, Galielo Galilei, alla fine del Cinquecento, riuscì nel proprio intento di quantificare il moto descrivendolo con leggi matematiche, tutt’ora valide, che mettono in relazione il tempo e lo spazio rispettivamente come parametro e variabile.

    In epoca recente, tuttavia, il termine parametrico è stato introdotto anche in architettura da alcuni ingegneri e architetti come etichetta con la quale identificare sé stessi e differenziare il proprio operato da altri stili o movimenti. Anche se la proposta avanzata da Patrick Schumacher di adozione del termine “Parametricismo” risale alla Smart Geometry Conference a Gothemburg del 2007 (Schumacher 2010, The Autopoiesis of Architecturevol.1), una produzione architettonica definibile parametrica ha radici ben più remote.

    L’architettura parametrica viene oggi associata alla pratica di ispirare la strategia di progetto attraverso processi digitali ed all’utilizzo di computer e software complessi, al punto che ormai le due discipline risultano così strettamente correlate da rendere quasi indistinguibili i rispettivi confini; ciò tuttavia non è valido per la moltitudine di architetti ed ingegneri che hanno fatto largo uso dei medesimi procedimenti logici, che il calcolatore ha unicamente la facoltà di accelerare, e che permettono di produrre architetture le cui forme dipendono esclusivamente dal risultato di un processo algoritmico generato da molteplici parametri.

    Tra i pionieri dell’utilizzo di questi metodi spiccano figure come Antoni Gaudì, Luigi Moretti, Sergio Musmeci, Buckminster Fuller, Heinz Isler e Frei Otto. Comune a tutti loro è l’impiego della matematica parametrica e dei modelli fisici di studio per determinare a priori le varie configurazioni di spazi e strutture, come risultato di un problema ben formulato. È quindi soprattutto grazie a questi esempi che oggi è ancora possibile distinguere un’architettura guidata da un processo solido da un esercizio di stile informatico e6puramente formale.

    Quella che fino agli anni ’80, quindi, non era ancora considerata come una pratica architettonica a sé stante, inizia a delineare i propri caratteri con l’avvento dei primi computer, che compaiono negli studi di ingegneria e architettura più importanti. L’enorme vantaggio di queste macchine fu quello di velocizzare esponenzialmente compiti complessi come ad esempio i calcoli strutturali, aprendo di fatto le porte a quella che oggi viene definita come architettura digitale.

    Ben Van Berkel, Ron Arad, Hani Rashid (Asymptote Studio) e Lars Spuybroek (Gruppo NOX) furono tra i primi architetti a fare dell’architettura digitale la propria firma, rimasta tale fino ad oggi. A metà strada tra architetti “digitali” ed “analogici” si delineano quelle figure contemporanee come Peter Eisenman, che prende le distanze dal processo di definizione delle forme dell’architettura, guidandole invece l’utilizzo dei diagrammi secondo una logica vettoriale-informatica.

    2 LES ORIGINES DE L’ARCHITECTURE PARAMÉTRIQUE

    La méthode développée par Gaudí, bien qu’elle puisse être considérée comme l’exemple le plus important d’utilisation des mathématiques paramétriques au XIXe siècle, a été précédée par quelques cas où les équations paramétriques ont été utilisées pour optimiser la résolution d’un problème.

    L’un des premiers exemples notables est celui de James Dana, minéralogiste et géologue du XIXe siècle. Dans son ouvrage On the Drawing of Figures of Crystals (Dana, 1837), il décrit un processus “étape par étape” reliant divers points géométriques pour dessiner des formes cristallines tridimensionnelles et leurs variations, en les définissant à l’aide de paramètres, variables et proportions. Toutefois, bien qu’il ait largement recours à ces notions, Dana n’emploie pas le terme paramétrique dans un sens autre que purement mathématique.

    L’exemple le plus significatif du XIXe siècle, comme mentionné précédemment, reste sans aucun doute Antoni Gaudí, principal représentant du modernisme catalan. Grâce aux recherches minutieuses de Mark Burry, architecte en charge de l’achèvement de la Sagrada Família, il a été possible de mieux comprendre les méthodes utilisées par Gaudí pour concevoir une œuvre aussi monumentale. En plus de ses études en architecture, Gaudí possédait une solide formation en mathématiques avancées, physique et ingénierie. Il s’est particulièrement intéressé à l’étude de la chaînette, une courbe qui ressemble à la forme prise par une corde suspendue à ses extrémités sous l’effet de son propre poids.

    L’arc caténaire, qu’il a systématiquement employé, suit la géométrie de ces courbes particulières. Lorsqu’elles sont mises en miroir sur l’axe horizontal, ces formes permettent une répartition homogène des charges, générant exclusivement des efforts de compression, ce qui élimine le besoin de contreforts ou de structures de soutien supplémentaires. C’est cette analogie avec une chaîne réelle qui a permis à Gaudí de créer de grands modèles physiques pour évaluer le comportement structurel de ses bâtiments dans leur ensemble.

    Grâce à un processus itératif, en modifiant la disposition des chaînes suspendues, Gaudí pouvait définir les espaces tout en vérifiant simultanément la stabilité de la structure. Ce principe de “propagation des modifications” est à la base des systèmes paramétriques modernes, où tout changement apporté à un élément se répercute logiquement sur l’ensemble.

    En parallèle des modèles physiques, Gaudí utilisait également des modèles mathématiques constitués d’équations paramétriques afin de garantir la rigueur de ses démarches et de ses résultats. L’un des exemples les plus emblématiques est son étude pour les différentes versions de la chapelle de la Colònia Güell. Des photographies témoignent d’un modèle tridimensionnel inversé de la structure, basé sur un réseau de cordes suspendues.

    Ce modèle fonctionne exactement comme une équation paramétrique : un ensemble de paramètres indépendants (longueur des cordes, poids, position des points d’ancrage) génère un ensemble de variables dépendantes (positions des points le long des cordes) régies par les lois de Newton.

    En modifiant ces paramètres, Gaudí a pu générer différentes versions de la chapelle, tout en garantissant que la structure reste en pure compression, créant ainsi un système auto-adaptatif semblable aux systèmes paramétriques informatiques modernes.

    2 LE ORIGINI DELL’ARCHITETTURA PARAMETRICA

    Il metodo sviluppato da Gaudì, anche se può considerarsi l’esempio più importante di utilizzo di matematica parametrica dell’Ottocento, è preceduto da alcuni esempi che fanno uso delle equazioni parametriche per ottimizzare la soluzione ad un problema.

    James Dana, mineralogista e geologo vissuto nella metà dell’Ottocento, nel proprio libro On the Drawing of Figures of Crystals (Dana, 1837) illustra un processo “passo-passo” di relazione tra vari punti geometrici per disegnare forme cristalline tridimensionali e le relative variazioni, definendolo con parametri, variabili e proporzioni. Dana tuttavia, nonostante ne faccia largo uso, non utilizza il termine parametrico in un senso diverso da quello prettamente matematico.

    L’esempio sicuramente più significativo dell’Ottocento, come già detto, è rappresentato da Antoni Gaudì, il maggior esponente del modernismo catalano. Grazie all’opera meticolosa di ricerca di Mark Burry, attuale architetto esecutivo incaricato di completare la Sagrada Familia, è stato possibile conoscere i metodi che Gaudì utilizzò per la progettazione di un’opera così imponente. Egli infatti oltre gli studi di architettura aveva solide basi di matematica avanzata, fisica ed ingegneria. Si concentrò in particolar modo sullo studio della catenaria, una curva che assomiglia alla configurazione che assume una fune appesa ai due estremi e soggetta al peso proprio.

    L’arco catenario, che Gaudì impiegò sistematicamente, è la struttura che segue l’andamento di queste particolari curve che, se riflesse sull’asse orizzontale, subiscono una ripartizione del carico omogenea che genera sforzi in pura compressione, eliminando la necessità di contrafforti od ulteriori strutture di supporto. È proprio l’analogia con la fune reale che permise a Gaudì di creare enormi modelli di studio grazie ai quali fu in grado di valutare il comportamento strutturale dell’edificio nella sua interezza.

    Tramite un processo iterativo, cambiando la disposizione delle funi, era possibile per l’architetto determinare gli spazi e contemporaneamente verificare la stabilità della struttura. Questo metodo di “propagazione delle modifiche” è alla base dei moderni sistemi parametrici, nei quali ogni modifica in qualsiasi punto si riflette secondo una certa logica su tutto l’insieme.

    Gaudì, affiancava parallelamente ai modelli fisici una serie di modelli matematici composti da equazioni parametriche per verificare la rigorosità dei procedimenti e dei risultati. Risulta emblematico lo studio per le varie versioni della cappella della Colonia Guell, del quale vi sono testimonianze fotografiche del plastico tridimensionale ribaltato della struttura;

    il modello della fune appesa ha infatti tutte caratteristiche di un’equazione parametrica: un insieme di parametri indipendenti (lunghezza delle funi, peso, posizione dei punti di ancoraggio) danno origine ad un insieme di variabili (il luogo dei punti situati lungo le funi) in funzione delle leggi di Newton. Modificando i parametri indipendenti Gaudì poté generare diverse versioni della cappella con la certezza che la struttura fosse sempre sollecitata in pura compressione, creando di fatto un sistema auto rigenerativo del tutto simile ai moderni sistemi parametrici informatici.

    3 LES ANNÉES 1940

    Les années 1940 marquent les premières véritables expérimentations en architecture paramétrique, tant sur le plan formel que structurel, notamment grâce au travail de l’architecte Luigi Moretti et de l’ingénieur Sergio Musmeci.

    Moretti, fervent critique de l’inadéquation des théories architecturales modernes et postmodernes face à la complexité du monde et aux défis que l’architecture doit relever, considère que l’approche formelle rigide et figée ne permet pas de résoudre ces problématiques de manière satisfaisante. Il affirme que l’architecture doit naître d’une série de paramètres quantifiables, reliés entre eux par un processus logique et rigoureux. Pour la première fois, le processus génératif de la forme devient le cœur du projet et son unique moteur.

    Poursuivant cette idée, Moretti fonde en 1957 l’IRMOU (Istituto per la Ricerca Matematica ed Operativa applicata all’Urbanistica), où il mène un travail de recherche intensif sur l’application des mathématiques à l’architecture. Sergio Musmeci, suivant la même logique, développe les premières études sur les structures en béton armé, en adoptant une approche où la forme est considérée comme une inconnue. Grâce à des outils mathématiques complexes et à l’étude des surfaces minimales, il formule la problématique de l’analyse structurelle en termes d’équations paramétriques. La résolution de ces équations donne lieu à plusieurs solutions valables, rompant ainsi avec la méthode classique consistant à dimensionner et vérifier une structure de manière répétitive. Musmeci défend l’idée que la science des constructions devrait développer une théorie propre des formes, indépendante des méthodes conventionnelles trop rigides des manuels d’ingénierie.

    Ce qui unit Moretti et Musmeci, c’est leur conviction que la valeur de l’architecture ne réside pas dans la définition a priori des formes, mais dans la juste définition des relations entre espaces et éléments, en fonction de paramètres objectivement mesurables et quantifiables. Cette approche transforme l’architecture en un processus scientifique et mathématique, sans pour autant en altérer la dimension créative.

    L’un des projets les plus emblématiques de Luigi Moretti est son prototype de stade, présenté à la douzième Triennale de Milan en 1960. En collaboration avec des mathématiciens, il élabore un modèle intégrant dix-neuf paramètres (allant du champ de vision optimal de chaque spectateur au coût de construction des structures en béton armé). Les variations de ces paramètres génèrent une série de courbes définissant la “topologie” de la structure du stade.

    Le Watergate Complex de Washington D.C., également conçu en 1960, constitue un autre exemple de la méthodologie de Moretti. Contrairement au stade, ce projet est réalisé grâce à l’usage de coûteux ordinateurs et à l’intervention de spécialistes en informatique. Il peut ainsi être considéré comme l’une des premières constructions où le numérique joue un rôle fondamental.

    De son côté, Sergio Musmeci réalise en 1967 l’un de ses ouvrages les plus marquants : le pont sur le Basento à Potenza. Sa structure en béton armé est conçue en suivant la forme qu’adopterait un tissu tendu, permettant une distribution optimale des forces.

    Toujours dans les années 1940, aux États-Unis, Richard Buckminster Fuller entame ses recherches dans un petit collège de Caroline du Nord. C’est là qu’il développe la coupole géodésique, une structure dont l’originalité réside dans le rapport entre sa taille et sa résistance : lorsque la dimension augmente, la résistance augmente proportionnellement. Ce phénomène est rendu possible par la discrétisation de la coupole en triangles équilatéraux, qui, bien que plus nombreux à mesure que la structure grandit, conservent toujours la même taille.

    La coupole de Fuller est considérée comme la structure ayant le meilleur rapport poids/volume. Son efficacité et sa grande adaptabilité séduisent l’armée américaine, qui en fait construire plusieurs milliers. Dans ce cas précis, le modèle géodésique paramétrique permet de modifier la taille sans altérer l’intégrité structurelle, générant ainsi différentes configurations valides.

    3 GLI ANNI ‘40

    Gli anni ’40 vedono nascere i primi veri esperimenti di architettura parametrica, sia a livello formale sia strutturale, ad opera soprattutto dell’architetto Luigi Moretti e dell’ingegnere Sergio Musmeci.

    Il primo, fervido sostenitore dell’inadeguatezza della teoria architettonica moderna e postmoderna nell’interpretazione della complessità del mondo e dei problemi a cui l’architettura deve fornire risposte concrete, impossibili da risolvere adeguatamente con una pratica architettonica così rigida e formalista, asserisce che l’architettura debba nascere da una serie di parametri quantizzabili messi in relazione tra loro con un processo logico e rigoroso; il procedimento che genera la forma dell’edificio diventa per la prima volta il fulcro del progetto ed unico generatore.

    A dimostrazione della propria tenacia, Moretti, nel 1957, fondò l’IRMOU (Istituto per la Ricerca Matematica ed Operativa applicata all’Urbanistica) svolgendo un intenso lavoro di ricerca sull’applicazione della matematica in architettura. Sergio Musmeci, seguendo la stessa logica, inizia gli studi per le prime strutture in calcestruzzo armato con la filosofia della ‘forma come incognita’; avvalendosi di complessi strumenti matematici abbinati allo studio delle superfici minime, egli pone il problema dell’analisi strutturale in termini di equazioni parametriche, la cui risoluzione porta a diverse soluzioni egualmente valide, prendendo la distanza dal classico procedimento ripetitivo di dimensionamento e verifica. Egli sosteneva che la scienza delle costruzioni dovesse sviluppare una propria teoria delle forme, distaccandosi dai metodi obsoleti e troppo limitanti riportati nei manuali.

    Ciò che accomuna questi due personaggi è la convinzione che il valore dell’architettura non risieda nella definizione delle forme a priori, ma piuttosto, nella corretta definizione delle relazioni tra spazi e singoli elementi, dipendenti da parametri descrivibili e quantizzabili oggettivamente, rendendola di fatto un processo matematico e scientifico ma non meno creativo.

    Un esempio perfetto dell’opera e del pensiero di Luigi Moretti è il prototipo dello stadio prodotto per la dodicesima Triennale di Milano del1960. In collaborazione con alcuni matematici, sviluppò un modello che mette in relazione ben diciannove parametri (dal campo visivo ottimale di ogni spettatore al costo di esecuzione delle opere in cemento armato) la cui variazione genera una serie di curve che rappresentano la “topologia” della struttura dello stadio.

    Il Watergate Complex di Washington D.C., sempre del 1960, è un ulteriore esempio della pratica architettonica di Moretti basata sulla definizione di parametri, con la differenza che questo venne effettivamente realizzato con l’aiuto di costosissimi calcolatori e l’impiego di esperti informatici; quest’ultima può essere considerata tra le primissime costruzioni in cui il computer ha giocato un ruolo fondamentale.

    La progettazione dell’opera più significativa di Sergio Musmeci risale invece al 1967: il Ponte sul Basento a Potenza. La struttura è realizzata in cemento armato plasmato secondo la forma che assumerebbe un “tessuto teso” che permette la miglior distribuzione possibile delle forze.

    Risalente sempre agli anni ’40, in America, è l’inizio dell’attività di Richard Buckminster Fuller come ricercatore in un piccolo college in North Carolina dove sviluppò la cupola geodetica. La peculiarità di questa struttura è il rapporto tra dimensioni e resistenza: all’aumentare della prima aumenta proporzionalmente la seconda. Questo fenomeno è reso possibile dal metodo di discretizzazione della cupola in elementi triangolari equilateri che aumentano di numero all’aumentare delle dimensioni della struttura nel complesso ma non modificano la propria dimensione.

    La struttura di Fuller è considerata quella con il più favorevole rapporto peso/volume racchiuso, al punto che l’esercito americano, constatandone la versatilità, ne fece costruire migliaia. In questo caso, il modello della cupola geodetica permette di modificare il parametro della dimensione senza alterare l’integrità della struttura, restituendo quindi diversi output sempre validi.

    4 LES ANNÉES 1950 : ANALOG COMPUTING

    Les années 1950 voient émerger les premières tendances postmodernes, en opposition avec la rigide philosophie du Mouvement Moderne. Des figures comme Robert Venturi et Denise Scott Brown popularisent des slogans tels que « Less is a Bore » (Moins, c’est ennuyeux), tandis que Peter Blake tourne en dérision l’adage moderniste « Form follows function » en le transformant en « Form follows Fiasco » (La forme suit le fiasco). Dans ce climat de rejet des principes du Mouvement Moderne et de l’International Style, naissent les premières œuvres de Frei Otto et Heinz Isler.

    Ces deux pionniers s’éloignent des canons traditionnels, y compris ceux du postmodernisme, en développant une approche de « Form Finding » (recherche de forme) qui rappelle les méthodes employées par Antoni Gaudí.

    Architecte de formation, Frei Otto est l’un des plus grands spécialistes des surfaces minimales. Ces dernières sont définies comme des surfaces reliant deux ou plusieurs courbes fermées, en adoptant une configuration où l’aire est minimisée et où la courbure moyenne est nulle en tout point. Une telle disposition permet un équilibre parfait des tensions internes.

    La théorie des surfaces minimales remonte à 1792, lorsque Lagrange publie son essai « Essai d’une nouvelle méthode pour déterminer les maxima et les minima des formules intégrales indéfinies », dans lequel il cherche à définir les équations de la surface minimale entre deux cercles. Un siècle plus tard, autour de 1850, Joseph Plateau approfondit ces études en plongeant des cadres métalliques de différentes formes dans une solution d’eau savonneuse. L’objectif est d’observer la manière dont le savon forme des membranes minimales entre des courbes complexes.

    Dans les années 1950, Frei Otto est le premier à transposer cette approche en architecture. Il expérimente avec des films de savon, mais aussi avec des tissus suspendus, des filets tendus et des structures en treillis pour étudier les configurations minimisant les tensions internes.

    Il met au point un processus itératif :

    Détermination des limites structurelles: en variant la configuration du cadre dans lequel est soufflée la membrane de savon, il identifie la distance maximale entre les bords avant que la structure ne se rompe.

    Application aux matériaux architecturaux: en remplaçant le savon par un tissu tendu, il analyse la forme obtenue et l’espace généré.

    Cette approche garantit une distribution uniforme des tensions et génère une architecture organique et optimisée, sans que la forme ne soit déterminée à l’avance. Otto définit ce processus avec Bodo Rasch sous le nom de « Form Finding », un principe fondamental de l’architecture paramétrique.

    L’ingénieur suisse Heinz Isler, quant à lui, devient célèbre pour ses coques en béton armé. Utilisant des techniques similaires à celles de Frei Otto, il étudie le comportement des structures par l’expérimentation physique, mais avec une approche singulière :

    Il suspend des chaînes et des tissus pour observer leur forme naturelle sous traction.

    Il congèle ces structures, puis les retourne pour les analyser sous compression, générant ainsi des modèles physiques de coques en béton. Cette technique lui permet de concevoir des structures aux formes inattendues et optimisées, minimisant la matière tout en garantissant une stabilité maximale.

    Otto et Isler utilisent tous deux des modèles physiques analogiques pour générer des formes adaptées aux contraintes structurelles et environnementales. Leur méthode repose sur des processus algorithmiques et itératifs, où la forme finale n’est pas prédéfinie, mais résulte naturellement de l’interaction entre des forces et des paramètres physiques.

    Aujourd’hui, des logiciels de simulation avancés permettent de reproduire ces mêmes principes dans un environnement numérique, offrant une flexibilité encore plus grande dans l’exploration des formes architecturales.

    Leurs travaux sont donc les prémices de l’architecture paramétrique numérique, où la conception est guidée par les lois de la physique et de la géométrie, plutôt que par une intuition purement esthétique.

    4 GLI ANNI ’50: ANALOG COMPUTING

    Gli anni ’50 videro la nascita delle prime tendenze postmoderne, dichiaratamente in contrasto con la rigida filosofia del Movimento Moderno, coniando frasi come <<Less is a Bore>> di Robert Venturi e Denise Scott Brown e <<Form follows Fiasco>> di Peter Blake, rifiutando anche il celebre saggio ‘Ornament und Verbrechen’ (Ornamento e Delitto) di Adolf Loos del 1908. In questo clima di superamento dei limiti imposti dal Movimento Moderno e dall’International Style, che hanno guidato l’architettura fino a quel momento, nascono le prime opere di Frei Otto e Heinz Isler.

    Entrambi prendono le distanze dai normali canoni di progettazione, anche da quelli postmoderni, lavorando con un metodo di “Form Finding” che ricorda quello utilizzato da Antoni Gaudì.

    Otto, laureato in architettura, fu uno dei più importanti studiosi delle superfici minime, ossia quelle superfici che “collegano” due o più curve di bordo chiuse, disponendosi secondo una configurazione tale per cui la propria area è minimizzata e la curvatura media è sempre zero in ogni punto. In questa configurazione, le tensioni interne delle strutture sono perfettamente bilanciate.

    La teoria delle superfici minime nacque come problema matematico nel 1792 con la pubblicazione del saggio di Lagrange “Essai d’une nouvelle méthode pour déterminer les maxima et les minima des formules intégrales indéfinies”, nel quale egli cerca le equazioni per descrivere la superficie minima tra due circonferenze. Nel 1850 circa, Joseph Plateau ripresegli studi sulle superfici minime utilizzando telai metallici di diverse forme immersi in acqua saponata per studiare le superfici minime tra curve complesse.

    Otto, dalla metà del Novecento in poi, fu il primo ad utilizzare questo procedimento per determinare la forma architettonica. Oltre al sapone egli utilizzò drappi, maglie reticolari appese e tessuti tesi per studiare le configurazioni delle minime tensioni ed ottimizzare le strutture dei telai. Egli quindi, modificando le curve “generatrici” poté utilizzare il processo, che definì insieme all’architetto Bodo Rasch ‘Form Finding’, per generare le forme sinuose che la propria architettura. Il primo passaggio era quello di determinare il limite entro cui la superficie non è più bilanciata, messo in atto attraverso lo studio delle superfici di sapone (variando la configurazione del telaio era possibile trovare la distanza massima tra i bordi, oltre la quale la superficie di sapone si disgrega); successivamente applicando al solito telaio un tessuto era possibile valutarne la forma assunta e lo spazio generato da quella particolare configurazione. Anche in questo caso la forma non viene determinata a priori, ma è il risultato di un procedimento che ha come parametro la disposizione reciproca dei punti e delle linee di ancoraggio che determinano la configurazione del materiale utilizzato, assicurando allo stesso tempo una distribuzione uniforme delle tensioni, secondo una logica che si può definire parametrica.

    Heinz Isler, ingegnere strutturista svizzero, allo stesso modo, divenne famoso per i suoi “gusci” in cemento armato. Quest’ultimo, mediante dei procedimenti simili a quelli di Otto, studiava la disposizione di catenarie e tessuti appesi, ma congelando letteralmente il materiale per poterlo ribaltare e successivamente studiarne il comportamento a compressione e lo spazio generato, creando delle vere e proprie strutture di ghiaccio compresso. Entrambi i personaggi quindi operarono lasciando alla forma finale dell’edificio il ruolo di risultato, spesso inatteso, generato da un processo algoritmico fisico ed analogico, simile a quello che al giorno d’oggi viene utilizzato grazie a complessi software di simulazione fisica che permettono di studiare gli stessi modelli anche se virtuali.

    5 LES ANNÉES 1960 : DIAGRAMMES ET PREMIERS ORDINATEURS

    En 1958, la première Exposition universelle après la Seconde Guerre mondiale se tient à Bruxelles, avec pour thème la reconstruction de la civilisation à travers l’utilisation des nouvelles technologies. C’est dans ce contexte que la Philips Electronic Company, alors leader dans le domaine technologique, charge Le Corbusier et Iannis Xenakis de concevoir son pavillon pour l’Expo.

    Ce projet est encore aujourd’hui considéré comme particulièrement novateur, tant par son approche conceptuelle que par son processus de conception et son résultat final. Au cœur du pavillon se trouve le “Poème électronique”, une œuvre artistique commandée au compositeur Edgard Varèse, qui combine huit minutes de musique électronique expérimentale, des projections visuelles et des jeux de lumière.

    L’architecture du pavillon, majoritairement conçue par Iannis Xenakis, lui-même compositeur et ingénieur, découle directement de cette œuvre musicale. L’espace a été conçu pour accompagner une progression sonore et immersive, où le spectateur est guidé dans une expérience presque organique, comme une sorte de “digestion” sensorielle menant à la salle principale.

    Le résultat est une spatialisation du son, obtenue en assemblant neuf paraboloïdes hyperboliques, suivant un algorithme mathématique simple prenant en compte la propagation des ondes sonores. Comme le déclarait Le Corbusier aux commanditaires :

    « Je ne ferai pas un pavillon pour vous, mais un Poème électronique et un écrin pour le contenir : lumière, couleur, images, rythme et son fusionnés dans une synthèse organique. »

    Ainsi, le pavillon n’est pas simplement une architecture, mais une œuvre où lumière, couleur, image, rythme et son sont intégrés dans un tout organique et indissociable.

    Un autre tournant des années 1960 est apporté par Peter Eisenman, qui défend une approche où l’architecture s’affranchit des contingences historiques. Souvent rapproché de figures comme Aldo Rossi ou Giuseppe Terragni, il s’en distingue pourtant par un outil clé dans sa méthodologie : le diagramme.

    Pour Eisenman, le diagramme ne se limite pas à un simple outil descriptif ou analytique, mais devient un moteur de conception (« generative device »). Il explique :

    « En tant que dispositif génératif dans un processus de conception, le diagramme est aussi une forme de représentation. Mais contrairement aux formes traditionnelles de représentation, le diagramme, en tant que générateur, est une médiation entre un objet palpable – un bâtiment réel – et ce que l’on peut appeler l’intériorité de l’architecture. […] Le diagramme suggère une relation alternative entre le sujet/auteur et l’œuvre. Une telle alternative marque un éloignement de la composition classique et de l’expressionnisme personnel vers un processus plus autonome. »

    Tout son travail repose sur ce concept fondamental, qui lui permet d’explorer des formes architecturales autonomes issues d’un processus algorithmique précis. Il distingue deux types de diagrammes : Diagrammes d’intériorité: qui concernent la forme architecturale elle-même.

    Diagrammes d’extériorité: qui s’appuient sur des données externes (géographiques, mathématiques, scientifiques, textuelles, etc.).

    Ces données sont ensuite transformées à l’aide de trente-neuf outils, dont 25 sont formels et 14 conceptuels. Ces outils ressemblent fortement aux fonctionnalités des logiciels de modélisation paramétrique modernes, comprenant des opérations comme : Extrusion, Intersection, Torsion, Distorsion, Transformation, Désassemblage et Décomposition

    Eisenman conçoit ainsi l’architecture comme un processus, où la forme finale n’est pas préétablie, mais émerge d’une série d’opérations prédéfinies, comme un algorithme.

    Toutefois, bien qu’il ait recours à des procédés aujourd’hui entièrement implémentables par ordinateur, Eisenman n’est pas considéré comme un architecte numérique. Son approche reste analogique, le processus algorithmique étant réalisé manuellement, l’ordinateur n’étant utilisé qu’à la dernière étape du dessin.

    5 GLI ANNI ’60: DIAGRAMMI E PRIMI COMPUTER

    Nel 1958 si tenne la prima esposizione universale dopo la seconda guerra mondiale a Bruxelles, il cui tema fu quello della ricostituzione della civiltà, in seguito alla distruzione portata dal conflitto, tramite l’utilizzo della tecnologia. Fu allora che la Philips Electronic Company, al tempo leader nel campo tecnologico, incaricò Le Corbusier e Iannis Xenakis di progettare il proprio padiglione per l’Expo.

    Il progetto è considerato estremamente attuale sia per l’approccio progettuale sia per il concetto che vi sta alla base, oltre che ovviamente per il risultato finale. Il fulcro del padiglione era il ‘Poème Electronique’, ossia la composizione artistica la cui creazione fu affidata ad Edgard Varése, che comprendeva otto minuti di musica elettronica sperimentale affiancata da proiezioni video e giochi di luce. L’edificio invece, progettato quasi esclusivamente da Xenakis, compositore oltre che ingegnere, venne plasmato a partire dalla sinfonia musicale, che doveva assumere caratteri differenti man mano che ci si addentrava all’interno, fino alla sala principale, come quasi in un processo di “digestione” dello spettatore.

    Il risultato è la spazializzazione del suono, ottenuta fondendo insieme un gruppo di nove paraboloidi iperboliche seguendo un semplice algoritmo matematico che tiene conto della propagazione delle onde sonore. Come lo stesso Le Corbusier dichiarò ai committenti << I will not make a pavilion for You but an Electronic Poem and a vessel containing the poem; light, color images, rhythm and sound joined together in an organic synthesis. >> il padiglione non fu pensato come mera architettura, ma come la fusione in un unico elemento organico di luce, colore, immagine, ritmo e suono.

    Un approccio completamente innovativo è rappresentato dall’opera di Peter Eisenman, il quale sostiene la necessità di un’autonomia delle forme architettoniche rispetto alle contingenze storiche; per questo motivo viene spesso affiancato alle figure di Aldo Rossi o Giuseppe Terragni. Eisenman tuttavia, prende le distanze dal processo di definizione della forma attraverso l’utilizzo di uno strumento che egli definisce << […] as old as architecture itself […] >>: il diagramma. Egli non lo considera un semplice strumento descrittivo o analitico ma piuttosto lo definisce “generativo”: «As a generative device in a process of design, the diagram is also a form of representation. But unlike traditional forms of representation, the diagram as a generator is a mediation between a palpable object, a real building, and what can be called architecture’s interiority. […] [the diagram] suggests an alternative relationship between the subject/author and the work. Suchan alternative suggests a movement away from classical composition and personal expressionism toward a more autonomous process.>>

    Egli basa l’interezza del proprio operato su questo semplice concetto, definendo due diverse tipologie di diagramma (“diagrams of interiority” e “diagrams of exteriority”), che fanno riferimento rispettivamente alla forma architettonica e ad alcune tipologie di dati (geografici, matematici, scientifici, testuali), modificandoli tramite trentanove “strumenti”(25 “formali” e 14 “concettuali”), del tutto simili agli strumenti disponibili all’interno dei moderni software, parametrici e non, come ad esempio l’estrusione, l’intersezione, la torsione, la distorsione, la trasformazione, il disassemblaggio o la decomposizione. Tramite l’utilizzo di questi componenti egli riesce a prendere le distanze dal progetto formale, che si genera a partire da una serie di operazione definite in precedenza, come un algoritmo. Eisenman, nonostante utilizzi dei procedimenti che al giorno d’oggi sono perfettamente implementabili in un computer, non è conosciuto in quanto architetto digitale, poiché il processo algoritmico da lui creato è di fatto analogico e solamente la stesura ultima del progetto passa, ovviamente, attraverso il pc, utilizzato come puro strumento di disegno.

    6 HISTOIRE DE L’ORDINATEUR

    L’arrivée de l’ordinateur a provoqué une transformation comparable à la révolution industrielle. Aujourd’hui, presque tout le monde possède un ordinateur, un smartphone ou une tablette, offrant un accès à une puissance de calcul considérable, bien supérieure à celle des premiers calculateurs, qui étaient extrêmement coûteux. 

    Dans le domaine de l’architecture, cette évolution a eu un impact majeur, bien que son influence ait commencé dès les années 1960, lorsque les premiers cabinets d’architecture ont commencé à expérimenter les outils informatiques. 

    Ivan Sutherland est considéré comme le pionnier des systèmes de conception assistée par ordinateur. En 1963, il développe Sketchpad, le premier logiciel doté d’une interface graphique permettant le dessin paramétrique, c’est-à-dire la possibilité de maintenir les relations entre les objets même après des modifications. 

    À partir de cette période, des bureaux comme Skidmore, Owings & Merrill commencent à explorer des approches numériques en architecture. Toutefois, la faible puissance de calcul et le coût élevé des ordinateurs empêchent leur adoption à grande échelle. 

    Bien qu’il existe déjà des modèles d’ordinateurs dits personnels, c’est IBM qui marque un tournant en 1981 avec le premier ordinateur personnel réellement accessible, grâce à un prix plus abordable et une large gamme d’accessoires. 

    En 1988, le premier logiciel de modélisation paramétrique, Pro/ENGINEER (aujourd’hui connu sous le nom de PTC Creo), voit le jour. Ce programme permet de définir les relations entre les différents éléments d’un modèle, de préserver les dimensions et les fonctions des objets et de créer des modèles virtuels dynamiques sans nécessiter de tests physiques. Dès lors, l’ordinateur ne se limite plus à un simple outil de dessin, mais devient un véritable accélérateur du processus de conception, capable de fournir aux architectes des informations essentielles sans passer par des maquettes physiques. 

    Dans les années 1990, Microsoft et Apple démocratisent l’usage des ordinateurs grâce à des systèmes d’exploitation dotés d’interfaces graphiques accessibles au grand public. À partir de ce moment, l’ordinateur devient un outil indispensable pour de nombreux professionnels, amorçant une véritable révolution numérique. 

    Des architectes comme Frank Gehry, Ben Van Berkel et Lars Spuybroek commencent alors à fonder l’ensemble de leur travail sur l’utilisation de l’informatique. Gehry adopte initialement le logiciel paramétrique CATIA, jusqu’alors réservé à l’industrie aérospatiale, avant de développer une version spécifique adaptée à l’architecture, Digital Projects, mise au point par son entreprise Gehry Technologies. 

    L’un des principaux obstacles à la diffusion du numérique en architecture, et en particulier à l’architecture paramétrique, demeure la nécessité de maîtriser des langages de programmation complexes pour créer des modèles fonctionnels et concevoir des algorithmes génératifs, sans être limité par des contraintes techniques. 

    Au cours des années 1990, plusieurs langages de programmation comme Python et Java apparaissent, facilitant l’écriture de code tout en restant puissants. Une avancée majeure dans les logiciels d’architecture se produit en 2003 avec le lancement de Generative Components, le premier programme de “Visual Scripting”. Il permet de travailler sur des opérations et algorithmes personnalisés sans nécessiter une connaissance approfondie de la programmation. Grâce à une interface graphique basée sur l’association visuelle d’éléments contenant des lignes de code basiques, il devient possible de développer un algorithme génératif sans écrire directement du code. 

    En 2007, le logiciel Explicit History, précurseur de Grasshopper, voit le jour. Il s’agit aujourd’hui de l’un des outils les plus utilisés dans le domaine du Visual Scripting. L’émancipation des contraintes liées à la programmation permet ainsi de gérer de grandes quantités de données, d’optimiser des processus paramétriques complexes et de réaliser des simulations sophistiquées pour générer des formes architecturales. 

    Cependant, l’accessibilité croissante de ces logiciels entraîne un phénomène de standardisation et de perte d’identité architecturale. L’usage massif de ces outils, bien qu’ils soient conçus pour être conviviaux, nécessite une véritable formation et une réflexion critique. Le logiciel, aussi puissant soit-il, ne peut remplacer l’architecte ou l’ingénieur dans la prise de décision. 

    Ce phénomène est particulièrement visible à travers ce que l’on appelle “l’effet Voronoi”, qui désigne la tendance à utiliser ces programmes uniquement pour créer des motifs décoratifs à l’apparence paramétrique, sans véritable qualité architecturale ou spatiale. Ce qui est réellement fondamental, c’est la capacité à comprendre et maîtriser les principes qui sous-tendent la forme architecturale, en établissant des relations complexes entre des éléments hétérogènes. Grasshopper, par exemple, n’est ni une boîte magique ni une extension des capacités humaines. Il ne permet pas de concevoir quelque chose que l’on ne pourrait pas déjà imaginer et dessiner sur une simple feuille de papier. Ainsi, les limites ne résident plus dans le logiciel lui-même, mais dans la manière dont l’utilisateur choisit d’aborder un problème.

    6 STORIA DEL COMPUTER

    L’avvento del computer ha determinato un fenomeno del tutto simile alla rivoluzione industriale. Al giorno d’oggi ognuno ha a disposizione almeno un computer, uno smartphone o un tablet, i quali danno accesso globale ad un’enorme potenza di calcolo, se paragonata alle prestazioni dei primi costosissimi calcolatori. In architettura questo stravolgimento sta avendo un grande impatto, ma iniziò a cambiare il modo con cui ci approcciamo alle costruzioni già dagli anni ’60, periodo in cui i maggiori studi di progettazione tentarono i primi esperimenti informatici.

    Ivan Sutherland è considerato il pioniere dei moderni sistemi CAD(Computer-Aided Design) grazie alla creazione, nel 1963, di Sketchpad, un programma per computer, il primo ad avere un’interfaccia grafica, che permetteva di disegnare parametricamente, cioè mantenendo integre le relazioni fra gli oggetti, anche dopo modifiche dell’ultimo momento.

    Da questi anni in poi, studi come Skidmore, Owings &Merrill iniziarono a sperimentare un approccio digitale all’architettura. Allora tuttavia, la scarsa potenza di calcolo e il costo proibitivo dei calcolatori non permise la larga diffusione di queste macchine. Nonostante vi fossero già esemplari di computer definibili “personal”, fu IBM nel 1981 a lanciare sul mercato il primo vero Personal Computer di successo, grazie ad un prezzo accessibile e molti accessori disponibili.

    Nel 1988 nasce il primo vero software di modellazione parametrica, Pro/ENGINEER, conosciuto ora come PTC Creo, il quale permetteva di modellare definendo le relazioni tra i vari elementi, la loro funzione e la loro dimensione, mantenendo integro il modello di studio virtuale; con questi software il computer non è più solo un tecnigrafo digitale, ma una macchina in grado effettivamente di accelerare il processo di progettazione e di fornire utili informazioni al designer senza la necessità di produrre modelli strutturali fisici o effettuare prove empiriche. Negli anni ’90 Microsoft ed Apple rilasciano i primi sistemi operativi con interfaccia grafica semplice ed accessibile a tutti. Da questo momento in poi il computer inizierà a diventare uno strumento essenziale per molti, dando inizio alla vera e propria rivoluzione informatica.

    Architetti come Frank Gehry, Ben Van Berkel e Lars Spuybroek iniziano a basare la totalità del proprio operato sull’utilizzo del computer; inizialmente Gehry adotta il software parametrico CATIA, utilizzato fino a quel momento solo dall’industria aerospaziale, fino a svilupparne una propria versione, ad hoc per la progettazione architettonica, creata dalla propria società Gehry Technologies che venne chiamato Digital Projects. L’unica barriera alla diffusione del pc in ambito architettonico e soprattutto nell’ambito dell’architettura parametrica, era ancora la necessità di conoscere e studiare complessi linguaggi di programmazione per creare modelli funzionanti e sviluppare algoritmi generativi (come quelli di Eisenman ma codificati in linguaggio di programmazione), senza dover scendere a compromessi con le difficoltà tecniche.

    Nel corso degli anni ’90 il mondo dei linguaggi di programmazione, che offrono libertà creativa teoricamente illimitata, vedono la nascita di molti linguaggi di programmazione come Python e Java che sono ritenuti più semplici da programmare ma non meno potenti. La grande novità nel campo dei software utilizzati in architettura è la comparsa nel 2003 del primo programma di “Visual Scripting” Generative Components. Esso permise per la prima volta di lavorare su operazioni e algoritmi personalizzati senza conoscere un linguaggio di programmazione. Tramite l’associazione Input-Output visuale di “blocchetti” contenenti righe di codice basilari, è possibile sviluppare un algoritmo generativo perfettamente funzionante senza conoscere a fondo i linguaggi di programmazione.

    Nel 2007 esce “Explicit History”, il predecessore dell’attuale “Grasshopper”, uno dei più apprezzati software di Visual Scripting. La liberazione dalla necessità di conoscere la programmazione permette con un piccolo sforzo di gestire enormi quantità di dati, complicati processi di ottimizzazione parametrici e simulazioni sofisticate per generare forme architettoniche.

    Tuttavia, grazie alla relativa facilità d’uso di questi nuovi software, si sta verificando un fenomeno di spersonalizzazione dell’architettura, oggetto di fortissime critiche, dovuto al massiccio uso di questi programmi, i quali, per quanto possano sembrare User-Friendly, necessitano comunque di una buona preparazione e della consapevolezza che il computer ed il software hanno solamente capacità di calcolo e non possono sostituire l’architetto o l’ingegnere nel processo decisionale. Molto spesso infatti si assiste ciò che viene definito “Effetto Voronoi”, ossia la tendenza riduttiva ad utilizzare questi software per creare mere decorazioni dall’aspetto “parametrico” ma senza alcuna qualità spaziale o architettonica. << Ciò che risulta realmente indispensabile è la capacità di indagare e controllare le logiche che stanno dietro la forma riuscendo a sviluppare relazioni complesse tra elementi eterogenei. Grasshopper non è una scatola magica o una protesi in grado di estendere le nostre capacità. Il suo utilizzo non ci consente di realizzare nulla che non siamo in grado di immaginare e definire su un foglio di carta. >>. I limiti non appartengono più al software quindi, ma appartengono all’utente ed al modo con cui egli sceglie di approcciare un determinato problema.

    7 LES ANNEES 90 : ARCHITECTES NUMERIQUES ET ARCHITECTURES VIRTUELLES

    En 1988, Philip Johnson inaugure à New York l’exposition Deconstructivist Architecture, présentant les travaux de Frank Gehry, Daniel Libeskind, Rem Koolhaas, Zaha Hadid, Coop Himmelb(l)au, Bernard Tschumi et Peter Eisenman. Cette exposition marque le début d’un nouveau mouvement architectural : le déconstructivisme.

    Issu de la philosophie radicale de Jacques Derrida, le déconstructivisme prône une remise en question des structures établies et la “dénaturalisation du naturel”. En architecture, il s’agit du dernier mouvement officiellement reconnu, né en réaction aux théories postmodernes. Il privilégie des formes plastiques guidées par le chaos, refusant la géométrie traditionnelle, les axes de symétrie et les plans ordonnés. Inspiré du constructivisme russe, il rejette la pureté formelle du modernisme et propose des structures qui semblent se tordre, défiant les matériaux et les conventions architecturales.

    De ce mouvement émergent de nouvelles tendances cherchant à moderniser l’architecture et à dépasser la tradition, notamment l’architecture paramétrique. Dans les années 1990, plusieurs studios d’avant-garde explorent les technologies numériques pour générer et optimiser leurs projets. Parmi eux, on retrouve dECOi de Marc Goulthorpe, le groupe NOX de Lars Spuybroek, Asymptote Architecture Studio de Hani Rashid et Lise Ann Couture, Objectile Group de Bernard Cache, UNStudio de Ben Van Berkel et le groupe FORM de Greg Lynn.

    Le groupe NOX vise à “libérer” l’architecture de ses propres contraintes en exploitant les technologies numériques au-delà de leur simple rôle d’outil. En témoigne la Son-o-House (2000) à Breugel, où une structure paramétrique est combinée à un système informatique de capteurs générant une symphonie en temps réel selon les mouvements des visiteurs, qui deviennent ainsi des éléments architecturaux actifs. En 2003, la D-Tower, à la fois tour et sculpture, pousse plus loin l’intégration de l’architecture et de l’informatique. Sa structure, constituée d’une membrane de verre et d’un éclairage LED intérieur, change de couleur en fonction des réponses à un questionnaire en ligne, reflétant ainsi l’émotion dominante des habitants. Ce projet soulève cependant des questions sur la durabilité des œuvres architecturales interactives, car le site web associé, fondé sur des technologies obsolètes, n’est plus accessible aujourd’hui.

    Un autre exemple marquant est la Embryological House (1997-2001) de Greg Lynn, qui explore la manière de préserver et de maintenir un projet entièrement numérique. Le Centre Canadien d’Architecture conserve actuellement les modèles physiques et fichiers du projet, cherchant à garantir leur pérennité en les convertissant dans des formats open-source moins susceptibles d’être rendus obsolètes. La maison, au design organique en “blob”, repose sur douze points de contrôle définissant des milliers de configurations possibles. Ces variations sont traduites en plus de 3 000 panneaux optimisés pour une fabrication assistée par des machines à commande numérique, introduisant ainsi le concept de “personnalisation de masse” en opposition à la production de masse traditionnelle.

    Fondé en 1991, dECOi Studio, dirigé par Marc Goulthorpe, joue également un rôle clé dans le développement de l’architecture paramétrique. Son approche expérimentale se reflète notamment dans l’Hyposurface (1999), une installation pour le Birmingham Hippodrome Theatre. Plutôt que de concevoir un design figé, Goulthorpe définit des contraintes à l’intérieur desquelles la forme se génère elle-même. Ce processus repose sur des “champs de forces” numériques interagissant avec les visiteurs, déformant une surface élastique modélisée mathématiquement pour produire des formes en perpétuelle mutation. Cette méthode allie à la fois rigueur algorithmique et flexibilité créative, générant ce que Goulthorpe appelle une “précise indétermination”.

    UNStudio (United Network Studio), fondé en 1988 par Ben Van Berkel et Caroline Bos, s’inspire des travaux de Peter Eisenman et développe un concept de diagramme comme outil de conception architecturale. Contrairement à Eisenman, UNStudio intègre pleinement l’outil numérique dans le processus de création, permettant d’explorer et d’analyser différentes alternatives de conception à travers des représentations dynamiques.

    D’autres artistes et architectes exploitent également l’informatique et les algorithmes pour développer des architectures expérimentales. Marcus Lutyens et Tania Lopez Winkler, par exemple, conçoivent Second Skin, un projet où un algorithme génétique projette des modèles architecturaux en réalité virtuelle à partir d’informations extraites du subconscient de volontaires sous hypnose.

    Enfin, Marcus Novak explore les “non-lieux” numériques en créant des architectures et des villes “liquides” dans le cyberspace. Ces structures en perpétuelle transformation passent de l’hyperespace au monde tridimensionnel, se manifestant sous forme d’isosurfaces ou de nuages de points. Ses expérimentations illustrent l’évolution des architectures numériques vers des formes dématérialisées et dynamiques, remettant en question les limites traditionnelles de la conception architecturale.

    7 ANNI ’90: ARCHITETTI DIGITALI ED ARCHITETTURE VIRTUALI

    Nel 1988 Philip Johnson inaugurò la mostra di New York intitolata ‘Deconstructivist Architecture’, in cui espose lavori di Frank Gehry, Daniel Libeskind, Rem Koolhaas, Zaha Hadid, Coop Himmelb(l)au, Bernard Tschumi e Peter Eisenman, gettando di fatto le basi per un nuovo movimento architettonico: il Decostruttivismo.

    La teoria da cui nasce il movimento è la moderna filosofia radicale di Jacques Derrida, il Decostruttivismo, secondo cui << la decostruzione è la denaturalizzazione del naturale >> che si traduce in un approccio che non è soggettivo rispetto alla materia di indagine, piuttosto si tratta di qualcosa che “è sempre già iniziato” nel momento in cui se ne può prendere atto8.In architettura il Decostruttivismo rappresenta l’ultimo movimento “ufficiale”, nato in risposta alle teorie post moderne, assumendo forme plastiche il cui elemento ordinatore è rappresentato dal caos. Si tratta di un’architettura senza geometria, nella quale sono assenti gli elementi fondamentali, i piani geometrici e gli assi di simmetria, generando forme che si avvolgono su loro stesse instabilmente, deviando dai canoni estetici tradizionali e torcendo fino al limite i materiali da costruzione. Ispirandosi al movimento russo del Costruttivismo, rifiuta la purezza delle forme della tradizione modernista9.È da questo movimento e dal desiderio di modernizzazione e superamento della tradizione che nascono le correnti contemporanee, frale quali si può citare l’architettura parametrica, o quella che pochi anni fa venne definita “parametricismo” da Patrick Schumacher. Negli anni novanta infatti vedono la luce molti studi di avanguardia digitale che si avvalgono di tecniche di generazione ed ottimizzazione virtuali come dECOi di Marc Goulthorpe, il Gruppo NOX di Lars Spuybroek, Asymptote Architecture Studio di Hani Rashid e Lise Ann Couture, Objectile Group di Bernard Cache, UNStudio di Ben Van Berkel ed il gruppo FORM di Greg Lynn.

    Il Gruppo NOX, la cui ”mission” è quella di “liberare” l’architettura dai confini che essa stessa si è creata, progetta utilizzando le più recenti tecnologie informatiche, ma senza segregarle al ruolo di semplice utensile. Nella Son-o-House del 2000 a Breugel, una struttura generata parametricamente è affiancata da un sistema di computer e sensori che creano una sinfonia in tempo reale rispondendo ai movimenti dei visitatori rendendoli elementi architettonici fondamentali. Nel2003 la progettazione della D-Tower, torre e scultura, porta al limite l’integrazione tra architettura, tecnologia ed informatica. L’installazione, composta da una membrana di vetro esterna e una serie di led all’interno, cambia colore a seconda delle risposte che i visitatori forniscono ad un questionario on line, mostrando l’emozione predominante tra i cittadini residenti e non. Il legame tra reale e virtuale è in questo caso fortissimo, ma pone anche il problema di come sia possibile mantenere sempre in funzione un tale sistema e come si debba affrontare la manutenzione di un progetto virtuale, dal momento che oggigiorno il sito internet non è più funzionante, poichè basato su tecnologie obsolete e non più supportate dai moderni browser.

    Il progetto della Embryological House (1997-2001) di Greg Lynn è un perfetto esempio di come si stiano effettuando studi su un metodo efficace per conservare e mantenere in funzione un progetto completamente virtuale. Il Canadian Centre for Architecture detiene attualmente i modelli fisici ed i file che nel complesso compongono l’interezza del progetto, indirizzando gli sforzi alla conversione ed alla manutenzione di documenti digitali che contengono file 3d e disegni cad parametrici, prediligendo formati open-source che sono meno soggetti a diventare obsoleti e quindi inutilizzabili. Il progetto è completamente parametrico e proprio grazie alla caratteristica di mantenere integre le relazioni geometriche tra gli elementi, modificabili secondo vari parametri, ha sostituito il concetto di produzione di massa in serie con quello di “personalizzazione di massa”. La casa, che presenta la tipica forma a “blob” usata da Lynn, è generata a partire da 12 punti di controllo, che possono essere spostati nello spazio a piacimento, entro certi limiti definiti, secondo un processo di morfongenesi computazionale; il loro spostamento determina migliaia di configurazioni possibili del blob, che viene di volta in volta discretizzato in più di tremila pannelli ottimizzati per la produzione tramite macchine a controllo numerico.

    dECOi Studio, fondato nel 1991 da Marc Goulthorpe, rappresenta un ulteriore punto di riferimento per l’architettura parametrica. L’approccio non convenzionale alla progettazione ed alla definizione delle forme architettoniche si può facilmente spiegare e comprendere analizzando il progetto per l’Hyposurface, un’installazione del 1999 realizzata per il Birmingham Hippodrome Theatre. Riprendendo le parole dello stesso Goulthorpe, il loro scopo non è nel trovare il design con un gesto artistico e deterministico, ma nel porre i limiti entro i quali la forma trova sé stessa; questo processo è reso possibile creando dei campi di forza immaginari (virtuali) variabili a seconda dei visitatori, e lasciare che queste forze distorcano una superficie elastica, della quale viene creato un modello matematico per darle sostanza. Si tratta di un processo che genera una “precisa indeterminazione”, dal momento che è guidato da una logica parametrica e matematica in cui vi è sia rigore sia “rilassamento”.

    UNStudio (United Network Studio), fondato nel 1988 da Ben Van Berkele Caroline Bos, lavora ancora sul concetto di diagramma derivato dalla pratica di Eisenman. Essi, per liberare l’architettura dal pericolo di ricadere nelle tipologie già esistenti, utilizzano il diagramma, il cui impiego è strettamente legato all’introduzione di concetti esterni all’architettura convenzionale, in modo da guidare il processo di progettazione attraverso multiple dimensioni, oltre le tre dello spazio, come il tempo o l’azione o l’utilizzazione.13 A differenza di Eisenman, UNStudio ha un profondo legame con l’utilizzo del computer, che viene utilizzato per generare, esplorare e infine confrontare le varie possibilità offerte dai digrammi.

    Altri esempi di artisti ed architetti che fanno uso di computer, algoritmi e processi parametrici sono ad esempio Marcus Lutyens e Tania Lopez Winkler, creatori di “Second Skin”, un progetto sperimentale che utilizza un algoritmo genetico per proiettare dei modelli architettonici tridimensionali all’interno di una realtà virtuale, estrapolando informazioni dal subconscio di soggetti volontari trattati con sedute di ipnosi. Degni di nota nell’ambito della sperimentazione architettonica generativa sono gli esperimenti di Marcus Novak, che crea in un cyberspazio dei non-luoghi digitali che, mutando continuamente forma, generano architetture e città “liquide”, senza forma, e che balzano dall’iperspazio al mondo tridimensionale, risultando sia in isosuperfici sia in nuvole di punti.

    8 LES ANNEES 2000 : PARAMETRICISME

    Dans les années 2000, la recherche informatique continue de se développer au sein des études d’avant-garde déjà mentionnées, et un sentiment d’appartenance à un style totalement nouveau commence à émerger, un style qui va au-delà du déconstructivisme, du postmodernisme et du minimalisme. Parmi ces nouveaux acteurs, l’un des plus célèbres est Zaha Hadid Architects (ZHA), un des plus grands studios d’architecture avant-gardiste et paramétrique. Cependant, ce n’est pas la fondatrice de l’agence, Zaha Hadid, mais son collaborateur de longue date Patrick Schumacher, qui a inventé le terme “Parametricisme”, lors de la Smart Geometry Conference à Göteborg en 2007. En 2010, il publie l’essai The Autopoiesis of Architecture, qu’il considère comme le manifeste du mouvement paramétrique, définissant les “lois” devant être respectées pour revendiquer ce label.

    Le parametricisme est, selon Schumacher, le style du nouveau millénaire, né au cours des quinze dernières années. Il englobe l’architecture, du design d’intérieur à l’échelle urbaine, et répond aux défis de la société en utilisant des outils paramétriques, tout en ne se limitant pas aux nouvelles techniques numériques telles que l’animation, la simulation, les outils de Form-Finding, la modélisation paramétrique et la programmation. Selon Schumacher, au-delà de toute reconnaissance esthétique, c’est la large diffusion et la forte cohérence des ambitions et problèmes de conception partagés à l’échelle mondiale qui justifient l’apparition d’un nouveau style, un phénomène épocal. Il propose de nommer ce style “Parametricisme”.

    Avec ces mots, Schumacher propose un style caractérisé par la “différenciation continue”, l’”itération” et la “personnalisation de masse”, définissant des tabous et des dogmes pour ce style. Les heuristiques négatives suggèrent d’éviter les formes rigides et régulières, les juxtapositions d’éléments non corrélés et les répétitions simples. En revanche, les heuristiques positives encouragent à considérer chaque forme comme paramétriquement malléable, à différencier progressivement et à corréler systématiquement les éléments avec une complexité ordonnée. Les propositions de Schumacher ont été largement accueillies, mais également fortement critiquées pour la rigidité formelle des heuristiques, ce qui semble contradictoire avec le concept de liberté esthétique et le caractère avant-gardiste du parametricisme.

    8 ANNI 2000: PARAMETRICISMO

    Negli anni 2000 continua la ricerca in ambito informatico nei già citati studi avanguardisti, ed inizia a nascere un senso di appartenenza, fra molti di questi, ad uno stile del tutto differente e che va oltre al Decostruttivismo, al Postmodernismo ed al Minimalismo. Una firma tra queste, non ancora citata, è ZHA (Zaha Hadid Architects), uno dei più famosi studi di architettura avanguardista e parametrica. Tuttavia non fu la fondatrice della società a coniare il termine “Parametricismo”, bensì il suo noto collaboratore Patrick Schumacher durante la Smart Geometry Conference a Gothemburg del 2007. Nel 2010 egli pubblicò il saggio “The Autopoiesis of Architecture”, quello che egli suggerisce come manifesto del movimento parametricista e all’interno del quale sono definite le “leggi” che devono essere rispettate per potersi etichettare sotto quel nome.

    Il Parametricismo è, secondo Schumacher, lo stile del nuovo millennio, sviluppato negli ultimi quindici anni, e che abbraccia l’architettura dall’Interior Design fino alla scala urbana, rispondendo alle domande della società con strumenti parametrici ma senza limitarsi alle nuove tecniche digitali introdotte (animazione, simulazione, strumenti di Form-Finding, modellazione parametrica e programmazione).

    <<Oltre ed al di sopra di ogni riconoscibilità estetica, è la larga diffusione e la forte consistenza delle ambizioni/problematiche progettuali condivise globalmente a giustificare l’enunciazione di un nuovo stile, nel senso di fenomeno epocale. Noi proponiamo di chiamare questo stile: Parametricismo. >>

    Con queste parole Schumacher propone il nuovo stile in chiave di “continua differenziazione”, “iterazione” e “personalizzazione di massa” definendone i taboos ed i dogmas, ossia le euristiche negative e positive. Le prime, suggeriscono di evitare forme rigide e regolari, le giustapposizioni di elementi non correlati e le ripetizioni semplici; le euristiche positive al contrario incitano a considerare ogni forma come parametricamente malleabile, differenziare gradualmente e correlare sistematicamente gli elementi con complessità ordinata. Le proposte di Schumacher sono state accolte da molti ma anche fortemente criticate per la rigidezza formale delle euristiche, in contraddizione con il concetto di libertà dai canoni estetici e con il carattere avanguardistico e di ricerca del parametricismo.