Você está na página 1de 20

As tecnologias digitais estão cada vez mais presentes em nossa realidade,

desempenhando um papel fundamental em diversas áreas, incluindo a arquitetura. Os


avanços tecnológicos permitem que arquitetos realizem seus projetos de maneira mais
rápida e eficiente, utilizando cálculos eletrônicos para diversas tarefas. No entanto, para
um arquiteto, um design, o aspecto quantitativo do uso dessas tecnologias é irrelevante.
O que realmente importa é compreender o salto criativo que as ferramentas digitais
proporcionaram à arquitetura, ou seja, o que não poderíamos fazer sem elas. A
investigação desse processo de inovação é fundamental para compreender como as
ferramentas digitais transformaram a concepção, construção e apresentação da
arquitetura. Após décadas de inovação técnica impulsionada por computadores, a teoria
do design digital e o design digitalmente inteligente se tornaram um capítulo
significativo na história da arquitetura contemporânea.
No entanto, mesmo que o papel das ferramentas digitais no design tenha
crescido consideravelmente ao longo do tempo, sua ascensão à proeminência não foi
constante, pois períodos de exuberância tecnológica foram seguidos por períodos de
retração tecnológica (expansões e recessões), e as ferramentas e teorias digitais surgiram
e desapareceram de acordo com as flutuações da economia e da cultura do design,
seguindo as reviravoltas e, ocasionalmente, as modas da inovação técnica.
Os primeiros computadores no sentido moderno do termo (como imaginados por
Alan Turing em 1936) foram construídos durante a Segunda Guerra Mundial. O famoso
ENIAC começou a operar em 1946: pesava vinte e seis toneladas e ocupava uma área
de 127 metros quadrados no prédio da Escola de Engenharia Elétrica da Universidade
da Pensilvânia, em Filadélfia. Ele realizava adições, subtrações, multiplicações e
divisões, mas essa foi uma inovação revolucionária, em sequências programáveis.
Os computadores ficaram menores e mais baratos, mas nem sempre mais
poderosos, após a introdução dos transistores durante a década de 1950. Computadores
de grande porte com preços acessíveis para empresas de médio porte e escritórios
profissionais começaram a estar disponíveis a partir do final dos anos cinquenta, mas a
grande expansão para o mercado em massa só ocorreu com o IBM System/360, lançado
com grande pompa em 1964. Mais tarde, na década de 1960, seus modelos mais
avançados tinham uma memória RAM equivalente a cerca de um quinhentésimo do que
encontramos na maioria dos celulares hoje em dia.
Como um serviço profissional de baixo valor agregado lidando com problemas
complexos e imagens e desenhos pesados em dados, a arquitetura não participou
diretamente da primeira era da computação eletrônica. Ao longo dos anos 1960 e 1970,
havia muito pouco que arquitetos e designers poderiam realmente fazer com
computadores na prática diária de sua profissão, e isso se eles tivessem condições de
comprar um, o que eles não podiam. Imagens, quando traduzidas em números, tornam-
se arquivos grandes. Isso ainda ocasionalmente é um problema hoje em dia; há sessenta
anos, era insuperável. Os primeiros a usar computadores para fins de design não foram
arquitetos nem designers, mas engenheiros mecânicos; a expressão "Design Auxiliado
por Computador" ou DAC, foi adotada pela primeira vez em 1959 por um novo
programa de pesquisa no Departamento de Engenharia Mecânica do MIT dedicado ao
desenvolvimento de máquinas fresadoras controladas numericamente. O Sketchpad
futurístico de Ivan Sutherland, desenvolvido no MIT por volta de 1963, permitia apenas
a manipulação laboriosa de diagramas geométricos elementares, mas seus desenhos
eram inseridos com o toque de uma "caneta de luz" em uma tela interativa CRT (tela de
TV), e a aparente magia da operação causou sensação. Nesse contexto e dada a
exuberância tecnológica generalizada e o otimismo tecno-utópico dos anos 1960, uma
série de ideias derivadas da ciência da computação foram adotadas e abraçadas por
algumas vanguardas arquitetônicas da época - ideias e teorias, mas não as próprias
máquinas, que os arquitetos da época não saberiam como utilizar ou o que fazer com
elas.

Neander

Os processos de projetação e construção de arquiteturas curvilíneas são ainda


desafiadores. O uso de múltiplos aplicativos baseados em paradigmas distintos
provavelmente não irá desaparecer. A interoperabilidade utilizada aqui foi não apenas a
convencional. Foi também ‘ao vivo’, em tempo real, com os aplicativos abertos e
rodando simultaneamente. Um fluxo de projeto baseado no uso aplicativos orientados
para a criação da forma conectados via programação paramétrica e BIM foi proposto. O
principal objetivo foi facilitar a projetação e construção de arquiteturas curvilíneas e
suas estruturas de suporte utilizando simultaneamente dois diferentes paradigmas de
projeto.
As ferramentas ou operações necessárias nesta pesquisa foram essencialmente as
seguintes: NURBS Lofting para a criação da superfície, contouring para o fatiamento
modular da superfície e definição dos eixos geradores da estrutura em grelha, varredura
ao longo de eixo para a criação de vigas perfil I curvas e panelização para a subdivisão
das superfícies curvas em frações planares para viabilizar a fabricação e construção. No
melhor do nosso conhecimento, a principal contribuição desta pesquisa reside na
definição e desenvolvimento de um fluxo de trabalho e no desenvolvimento de novos
algoritmos para facilitar a projetação de superfícies NURBS e suas estruturas de suporte
correspondentes por meio de interoperabilidade em tempo real entre diferentes
aplicativos.
Os conceitos de modelos paramétricos e programação paramétrica nem sempre
são claramente definidos em muitas discussões, levando frequentemente a mal-
entendidos e informações equivocadas. Por esse motivo, é essencial fornecer uma
compreensão clara do significado atribuído a esses termos neste artigo.
É importante notar que o conceito paramétrico é bastante antigo e precede em
vários séculos o surgimento da computação moderna. Remonta pelo menos à Grécia
Antiga. Os estudos renascentistas das ordens gregas, particularmente aqueles
envolvendo as proporções de colunas e seus componentes menores, são exemplos
notáveis de representações paramétricas iniciais. Frequentemente, mostram desenhos de
elementos arquitetônicos clássicos nos quais as dimensões não têm valores fixos. Em
vez disso, mostram expressões que definem esses valores como funções de outras
variáveis, como o diâmetro da coluna (TZONIS; LEFAIVRE, 1986, p. 48-51).
A noção de modelos paramétricos é melhor compreendida ao contrastar suas
propriedades representacionais com aquelas que estão fora dessa categoria. Kolarevic
descreve algumas dessas características distintivas:
A parametrização pode fornecer uma concepção poderosa da forma
arquitetônica, descrevendo uma variedade de possibilidades, substituindo, no processo,
o estável pelo variável, a singularidade pela multiplicidade... No design paramétrico, são
declarados os parâmetros de um determinado design, não sua forma. Atribuindo valores
diferentes aos parâmetros, podem ser criados objetos ou configurações diferentes
(KOLAREVIC, 2003, p. 17).
Uma maneira simples de entender as afirmações de Kolarevic e o que é um
modelo paramétrico e suas implicações é considerar que um objeto não paramétrico é
representado com propriedades fixas. Por exemplo, as dimensões desse objeto seriam
definidas por números fixos. Esse objeto pode ser um retângulo medindo 2 x 4 metros.
Não há variáveis em sua representação. Além disso, essas dimensões são tudo o que se
sabe ou está registrado sobre esse objeto. Suas dimensões são apresentadas de forma
não relacionada, ou seja, em nenhum lugar há um registro informando que o lado mais
longo do retângulo é o dobro do tamanho do mais curto.
Por outro lado, se um retângulo for representado por variáveis relacionadas,
como H para altura e L para comprimento, então uma proporção pode ser atribuída por
meio das fórmulas L=Hx2 ou H=L/2. No entanto, por mais simplista ou ingênuo que
esse exemplo possa parecer, as consequências desse tipo de representação são enormes:
pode-se derivar disso um número infinito de retângulos, todos seguindo os mesmos
parâmetros de proporções.
As representações paramétricas não se restringem apenas às relações entre as
dimensões de um objeto. Uma ampla gama de coisas e propriedades pode ser
parametrizada. Um exemplo de parametrização que pode parecer estranho para um
arquiteto, mas que é onipresente nos dias de hoje, é a planilha eletrônica. Se a
contrastarmos com uma simples tabela de valores, esta última é estática. Nenhuma
variação pode ser produzida a partir dela. No entanto, a partir de uma planilha
eletrônica, com cada célula programada, um número infinito de instâncias pode ser
produzido (WOODBURRY, 2010, p. 11).
As relações entre objetos e suas partes também podem ser parametrizadas, como
distâncias, ângulos e várias regras como anexadas, paralelas ou distantes (EASTMAN et
al., 2008, p. 29).

Paramétrico não deve ser confundido com o conceito de modelagem de


informações de construção (EASTMAN et al., 2008), BIM. Embora todos os sistemas
BIM devam ser paramétricos, nem todos os sistemas paramétricos se encaixam em uma
descrição BIM. Existem diferentes tipos de parametrização na arquitetura.

Argumentamos que os sistemas BIM parametrizam objetos de acordo com um


paradigma orientado para a construção e função. Isso leva à representação de objetos
como lajes, colunas, vigas, paredes, portas, janelas, etc.

Por outro lado, a maioria dos sistemas paramétricos que não se encaixam em
uma descrição BIM é baseada em um paradigma de form-forming and printing. Esse
paradigma usa processos de criação de forma, como extrusion, revolving, twisting,
tapering, bulging, morphing, rounding, sweeping, NURBS lofting, subdivision,
triangulating, etc.

Também argumentamos que nenhum desses dois paradigmas é melhor que o


outro. Não é o caso de um fornecer menos informações do que o outro. Às vezes,
assume-se que os sistemas de formação de forma carecem de algo, enquanto os sistemas
orientados para a construção e função têm tudo, o que não é verdade. Eles contêm
informações diferentes.
Ambos os paradigmas são essenciais para projetar e construir as formas que
descreveremos posteriormente neste artigo. De fato, nenhuma das principais aplicações
de design arquitetônico é baseada exclusivamente em um desses dois paradigmas. Os
sistemas que originalmente eram baseados predominantemente em um paradigma
gradualmente incorporaram recursos baseados no outro.

A programação paramétrica (TERZIDIS, 2009, p. 19-22) pode ser entendida


como o processo de design que ocorre usando representações paramétricas e o controle
de suas propriedades como nós em sistemas baseados em propagação (AISH;
WOODBURY, 2005; WOODBURY, 2010, p. 12-22). Alguns autores usam programação
paramétrica como sinônimo de modelagem paramétrica ou design paramétrico
(WOODBURY, 2011, p. 12-15). No entanto, para maior clareza, usaremos apenas
programação paramétrica neste artigo.

A programação visual é uma implementação muito importante da programação


paramétrica, com interfaces diretamente derivadas da teoria dos grafos. O ambiente de
programação Rhinoceros-Grasshopper é um deles, e descreveremos como ele foi usado
no experimento relatado neste artigo.

Queremos enfatizar que modelos paramétricos e programação paramétrica não


devem ser confundidos com o parametricismo. Essa expressão foi cunhada por Patrik
Schumacher e significava um novo estilo arquitetônico sucessor do pós-modernismo, do
modernismo, do art nouveau, do historicismo, do barroco, etc. (SCHUMACHER, 2011,
p. 35).

Isso pode sugerir que o uso da programação paramétrica leva necessariamente a


um estilo. No entanto, isso soa restritivo, já que as técnicas paramétricas podem levar a
uma maior diversidade, não à conversão. Além disso, qualquer linguagem arquitetônica
pode ser modelada em um sistema paramétrico, não apenas as contemporâneas. No
entanto, não aprofundaremos essa discussão, apenas enfatizamos que não usamos a
programação paramétrica como sinônimo de parametricismo.

Outro conceito importante usado neste artigo é o algoritmo. Berlinski usa uma
maneira simples de definir o que é um algoritmo:

Um algoritmo é um procedimento finito, escrito em um vocabulário simbólico


fixo, governado por instruções precisas, avançando em etapas discretas, 1,2,3,..., cuja
execução não requer visão, inteligência, intuição, inteligência ou perspicácia, e que,
mais cedo ou mais tarde, chega ao fim (BERLINSKI, página 9, 2000).

Um algoritmo é independente de linguagem de computador. Embora um


algoritmo seja o produto de algum tipo de programação, não se deve confundi-lo com
programação de computador. A programação é entendida aqui como a instanciação de
um ou mais algoritmos em uma linguagem de computador específica, seja uma linha de
comando, como Java, Python, C++, etc., ou uma linguagem visual, como o Grasshopper
da McNeel ou o Dynamo da Autodesk.

Gille Retsin

Por que a arquitetura digital precisa de uma nova abordagem, como sugere o
título da questão? A resposta curta é que não deveria precisar. Todas as outras indústrias
investem enormes esforços em digitalização e automação - como questão de vida ou
morte no século 21. No entanto, a última década, após a crise financeira de 2008, viu na
verdade uma rejeição ao digital na arquitetura. Após cerca de duas décadas de
experimentação otimista e celebrada, o digital na arquitetura foi repentinamente
associado ao problemático neoliberalismo que causou a crise.
Após 2008, arquitetos, instituições e curadores se afastaram do digital,
encontrando refúgio em uma variedade de novas tendências e obsessões, desde
austeridade-chique até neo-pós-modernismo, desde ontologia orientada a objetos até o
chamado pós-digital.
O grupo de arquitetos, educadores e pensadores reunidos neste número são
igualmente críticos em relação ao paradigma da continuidade e às últimas duas décadas
de trabalho digital. Para eles, o foco restrito dos primeiros arquitetos digitais em
continuidade formal, personalização em massa, estilo e artesanato é problemático e
desconectado das pressões do nosso mundo atual. No entanto, em vez de simplesmente
rejeitar o digital, esse novo discurso entende que a arquitetura não pode apenas
permanecer analógica em um mundo cada vez mais digital. A cultura arquitetônica pós-
digital, impulsionada por imagens, objetos ou afetos, parece de fato igualmente, se não
mais, despreparada para enfrentar os desafios iminentes. Na verdade, a profissão de
arquiteto como um todo parece envolta em práticas neoliberais. No livro "Four Walls
and a Roof" (2017), o arquiteto holandês Reinier de Graaf expõe com sucesso a dura
realidade, precariedade e total falta de poder dos arquitetos no capitalismo tardio.
Como aponta Peggy Deamer, o trabalho não remunerado, uma cultura abusiva
de estágios e uma preocupante lacuna de gênero parecem definir a realidade econômica
do século 21 de trabalhar na profissão de arquitetura. Lutando contra seu modelo
econômico orientado para serviços, indefesa contra desenvolvedores mais poderosos e
forças de mercado, muitos arquitetos veem melhores perspectivas em outras indústrias,
como tecnologia, jogos, cinema ou moda.
Partes Computacionais
Definido dentro desse contexto pós-2008, caracterizado por uma crise do
capitalismo tardio, o Discrete é um conjunto emergente de trabalhos que busca redefinir
toda a cadeia de produção da arquitetura, acelerando a noção de discreção tanto na
computação quanto na montagem física de edifícios. Ele afirma que uma forma digital
de montagem, baseada em partes tão acessíveis e versáteis quanto os dados digitais,
oferece a maior promessa para uma arquitetura complexa, escalável, aberta e
distribuída. Além disso, ele se situa no real pragmático e imediato, percebendo que o
digital já é ubíquo e faz parte do cotidiano. Como parece ser tradição na maioria das
tendências ou movimentos arquitetônicos, o termo "Discrete" talvez não seja a
denominação mais apropriada para abranger o conteúdo. "Discretude" é uma noção que
vem das ciências, referindo-se ao que é individual e separado. É o oposto do contínuo,
aquilo que é ininterrupto e sem emendas. Na arquitetura, tradicionalmente, é por meio
da noção de relações "parte-todo", o que o colaborador Daniel Koehler se refere como
"mereologia", que uma discussão sobre continuidade e discreção entra na disciplina.
Essas relações "parte-todo" podem ser contínuas, como é o caso de uma estrutura de
concreto, ou podem ser discretas, como em uma cabana de madeira. Outra analogia
simples é que a argamassa é contínua, enquanto os tijolos são discretos. No entanto, o
termo ganhou destaque na arquitetura por meio da computação. A computação opera
essencialmente com dados discretos, enquanto o analógico opera com dados contínuos.
Como Mario Carpo aponta, as últimas duas décadas de explorações de design baseadas
em spline, focadas na continuidade, essencialmente não estavam usando computadores
de maneira computacional. A noção de um discreto computacional, no entanto, não é
nova, mas na verdade antecede as últimas duas décadas de continuidade. "Codificando o
Mundo", uma exposição de 2018 no Centre Pompidou em Paris, mostrou uma grande
história de trabalho computacional - e portanto discreto - na arquitetura, arte e design
desde a década de 1950. Mais recentemente, técnicas e algoritmos de design discretos
também têm sido usados por arquitetos que trabalham intensivamente com computação,
o que Carpo se refere como a "segunda virada digital". E é provavelmente aqui que a
mudança em direção à agenda defendida neste número fica mais claramente observada.
Os colaboradores deste número não estão interessados na discreção apenas como outro
processo computacional, mas a veem como crucial em termos de uma cadeia de
produção e suas implicações sociais. Para essa geração emergente, a discreção não pode
ser meramente representacional; para ser eficaz, ela precisa ter propriedades físicas,
materiais e econômicas também.
Isso representa, portanto, uma mudança em relação à virada digital de Carpo,
que está focada em explorar a heterogeneidade e a resolução extrema, para uma
centrada na economia da realidade. O Discrete está disposto a abrir mão de alguns graus
de resolução, diferenciação formal e "excitação" em troca de escalabilidade, impacto e
agência, por exemplo, repensando a produção de habitação. Ele também está disposto a
trocar otimização de materiais elegante, mas acadêmica, por grandes quantidades de
materiais baratos, se isso aumentar o acesso e a eficiência. Não tem medo de
serialidade, linhas retas longas, elementos volumosos, formas inacabadas, materiais
brutos - ou até mesmo caixas, o antigo inimigo tanto do Pós-Modernismo quanto do
digital. Se trata das relações entre as partes (a estrutura profunda ou a qualidade), então
a quantidade de partes (a mera quantidade) não importa necessariamente. O Discrete
Digital não é a única tendência atual que está experimentando com os blocos de
construção básicos ou regras da arquitetura. Uma vez que o projeto de continuidade
perdeu força, parece haver um interesse mais geral nos fundamentos. Rem Koolhaas
propôs uma discretização extrema da arquitetura na Bienal de Arquitetura de Veneza em
2014, com portas, janelas e escadas rolantes como partículas elementares, mas práticas
como o Ensamble Studio, Christian Kerez ou Sou Fujimoto também demonstram um
interesse aguçado em pesquisar os blocos fundamentais da arquitetura. Com a
onipresença e ubiquidade das mídias digitais, o Discrete está interessado na economia
da realidade. De fato, semelhante ao pós-digital, ele entende que o digital é um dado,
uma parte normal da textura do cotidiano que precisa ser mobilizada urgentemente na
arquitetura se quiser escapar de sua precariedade atual como uma força cultural
relevante na sociedade. Operando sob o regime de continuidade e variabilidade, as
últimas duas décadas de pesquisa em fabricação digital nunca se posicionaram em
relação à escalabilidade. A fabricação digital entrou no discurso sob a moldura de uma
"arte digital" neomedieval - a arte de criar coisas bonitas e únicas, perdidas na produção
em massa industrial, mas agora acessíveis por meio de máquinas digitais. A implicação
imediata da arte digital é a cultura do artesão, uma prática inocente e em pequena
escala. Não diferente do início do digital, o movimento das Artes e Ofícios do século
XIX também defendia um retorno à arte. Figuras como William Morris e John Ruskin
lamentavam a perda de ornamentos, pátina e textura, ao mesmo tempo em que falhavam
radicalmente em compreender a capacidade da produção em massa industrial e da
padronização de trazer habitações de qualidade e uma arquitetura radicalmente nova
para as massas, como o Modernismo fez. Nesse sentido, pode-se fazer uma comparação
com o Modernismo - que, na verdade, muitos dos autores deste número não hesitam em
fazer, alguns se referindo ao Discrete como "uma partida positiva" do Modernismo, ou
o que Emmanuelle Chiaponne-Piriou chama de "estruturalismo acelerado". Não
diferente do Modernismo em relação à mecanização, o Discrete questiona se podemos
encontrar um projeto social e artístico na realidade fria e eficiente da automação,
produção em massa e produção digital que define nossa sociedade. No entanto, como
argumenta Philippe Morel, a ciência subjacente ao Discrete não é modernista, mas
computacional. A noção da parte no Discrete Digital é, portanto, radicalmente diferente
da dos elementos pré-fabricados do Modernismo - as categorias de tipos universais,
otimizadas para um uso específico. Em vez disso, a parte arquitetônica se torna uma
partícula genérica, um bloco de construção versátil e semelhante a dados. Em resumo, o
Discrete busca ambiciosamente usar o digital para redefinir toda a cadeia de produção
da arquitetura, não em um futuro hiperbólico, mas no agora imediato e pragmático. Essa
ambição requer mais do que um envolvimento com a mera superfície e imagem da
arquitetura; exige um esforço aprofundado com os fundamentos da arquitetura, suas
partículas elementares.
Um Paradigma Discreto para Design e Produção Nos primórdios do Discrete
Digital, Morel e sua prática EZCT estão repensando a produção digital além da
personalização em massa e da variabilidade, como um sistema de produção discreta
intrinsecamente ligado à computação. O exemplo mais notável dessa abordagem é sua
proposta Universal House (2012), baseada em elementos de construção genéricos
semelhantes a pixels. Jose Sanchez conecta essa noção de bloco de construção discreto a
uma dimensão social explícita e a uma posição sobre a democratização tanto do design
quanto da produção, estabelecendo a base para a mudança geracional mencionada
anteriormente na atitude em relação ao digital. Criticando o quebra-cabeça paramétrico,
Sanchez defende a parte discreta como uma tecnologia escalável e acessível. Em um
nível talvez mais arquitetônico, Daniel Koehler trabalha em um quadro mereológico.
Em seu trabalho, a computação passa de um processo externo à arquitetura para a
própria arquitetura. Sua pesquisa reforça ainda mais a compreensão das condições de
parte no Discrete - aquelas partes que existem independentemente do todo.
Assim como o pensador pós-capitalista Paul Mason, o Discrete considera o
digital como uma tecnologia pós-capitalista que tem a capacidade fundamental de
democratizar e descentralizar a produção. Essa posição é articulada em meu próprio
trabalho, que se concentra na necessidade de uma sintaxe discreta, tanto como chave
para a automação quanto como uma qualidade arquitetônica radical. Mollie Claypool
também articula uma posição política sobre automação e discreteness, fazendo
referência explícita a pensadores aceleracionistas e xenofeministas ao descrever um
framework digital para habitação em massa e domesticidade. Vários pesquisadores e
práticas são mencionados no texto, cada um contribuindo para o desenvolvimento do
paradigma discreto. Eles exploram a aplicação da tecnologia digital na arquitetura,
desde o uso de robôs distribuídos e a análise de comportamento de materiais até o
desafio da concepção estrutural tradicional. A noção de parte é redefinida nesse
contexto, com ênfase na discretização e na relação entre partes independentes do todo.
No geral, o objetivo é estabelecer uma nova plataforma para o digital na arquitetura,
levando em consideração sua acessibilidade, distribuição, eficiência e escalabilidade. A
reapreciação do digital na arquitetura implica, portanto, a reapreciação da própria
arquitetura como uma força cultural impulsionadora no século XXI.

A Discrete oferece um caminho para uma arquitetura mais equitativa? José


Sanchez, diretor da iniciativa de pesquisa e aprendizado The Plethora Project e
professor assistente na Escola de Arquitetura da University of Southern California
(USC) em Los Angeles, lamenta a exclusividade do design paramétrico e argumenta por
que o Discrete pode ser a resposta. Dois projetos de montagem combinatória e uma
plataforma de jogos em que ele esteve envolvido servem como ilustrações práticas das
possibilidades de engajamento social que esse novo paradigma apresenta.
A arquitetura discreta surge de uma crítica às ideologias associadas à prática da
arquitetura paramétrica não padronizada. A convergência de tecnologia e maquinario
necessária para alcançar tais paradigmas arquitetônicos contribui para uma narrativa de
práticas e instituições com acesso privilegiado. Ao enfatizar o progresso tecnológico
alheio a sua contra partida social, a agenda paramétrica contribui para elevar a barreira
de entrada na profissão arquitetônica e, em última instância, para reforçar assimetrias
em um campo dominado por uma concentração de poder e capital em apenas algumas
empresas.
Nesse sentido, a arquitetura discreta está inevitavelmente ligada ao aspecto
social e à possibilidade de um maior número de pequenas empresas coexistirem. O
paradigma tectônico discreto privilegia unidades autônomas, partes que não são
membros subsidiários de um todo. Essas partes podem ser recombinadas em múltiplas
permutações, identificando uma condição tectônica aberta. A escala dessas partes é
relevante e novamente está ligada a uma estrutura social capaz de fabricá-las, manipulá-
las, recombiná-las e implantá-las. Sem essa base social, o discreto pode ser mal
compreendido como uma resposta ao cansaço da continuidade suave do design
paramétrico e cair na dialética estilística estabelecida por seus defensores.
Dissolução da Tectônica
Desde sua adoção popular na década de 1990, o design assistido por computador
evoluiu para se tornar um paradigma de design com um conjunto claro de princípios.
Pode-se argumentar que a denominação de 'não padronizado', apresentada por Frédéric
Migayrou na primeira exposição dedicada à arquitetura, computação e fabricação no
Centre Pompidou, em Paris, em 2003, estabeleceu uma massa crítica de interesse e
inovação que ao longo dos anos se tornou conhecida como design paramétrico. A base
desse movimento está ligada aos avanços na fabricação digital e no software de design,
desafiando a tradição da produção seriada que é legado da Revolução Industrial. Sob a
lógica da parametrização, é possível diferenciar e personalizar projetos em massa, pois a
tecnologia de fabricação não depende da repetição de unidades idênticas para alcançar
economias de escala. Roteadores controlados por computador, cortadoras a laser e
impressoras 3D estabelecem protocolos de "arquivo para fábrica" e, como argumenta
Mario Carpo, podem executar projetos personalizados sem custo adicional. Patrik
Schumacher afirmou que a arquitetura entrou na nova era estilística do Parametricismo
com um grau inédito de liberdade para a forma arquitetônica. Ao mesmo tempo,
arquitetos como Neri Oxman e Greg Lynn celebram a "dissolução da tectônica", à
medida que a estrutura do edifício se torna mais fluida e contínua, eliminando a
necessidade de partes, onde a matéria pode ser controlada com um grau infinitesimal de
precisão por meio de acúmulos e intensificações das propriedades materiais em uma
escala microscópica.
Em oposição à continuidade da agenda do design paramétrico, a noção do
Discreto rompe com a tradição da personalização em massa de um único edifício,
tentando reconstruir o comum por meio do conhecimento distribuído e da produção de
design. O Discreto reconhece uma falha fundamental na economia da parametrização: a
fabricação paramétrica escala linearmente, o que significa que a taxa de produção e os
custos sempre operarão em uma taxa constante. Tradicionalmente, a tecnologia seriada
trabalhou dentro da economia de custo marginal zero, em que os investimentos iniciais
são recuperados com o custo decrescente de cada unidade produzida e tendem a zero.
Esse modelo econômico entende que as unidades precisam atender a uma economia de
escala e, portanto, usam a padronização. Por meio de sua adoção cultural, o design
paramétrico provou ser um estilo que quebra a padronização da fabricação legada e
atende às crescentes necessidades de uma elite global que conseguiu acumular grandes
porções de capital. Ao mesmo tempo, a parametrização não está preparada para
dimensionar e atender às crescentes necessidades do campo da arquitetura em geral,
tornando-se incapaz de permitir a adoção em massa ou representar seções diversas da
população. Esse problema é deixado de lado enquanto os defensores da parametrização
enaltecem a "liberdade arquitetônica" sem precedentes que esse paradigma
proporcionou. A parametrização inevitavelmente dependeu de um modelo econômico
de "trickle-down" para propagar lentamente qualquer inovação de design. Nesse
sentido, a parametrização tornou-se um símbolo das práticas neoliberais que ocorrem
em todo o mundo, uma forma de progresso tecnológico que perde de vista seu
componente social e evidencia as desigualdades e assimetrias atuais, sustentadas apenas
por grandes acumulações de capital.
A Proposta Discreta
A agenda Discreta tem sido uma tentativa consciente de subverter essa tendência
e oferecer uma alternativa; esse novo paradigma tenta reconsiderar a repetição seriada
como uma economia de escala que pode fornecer princípios de fabricação,
personalização e adaptabilidade escaláveis. O projeto não pretende retornar à produção
seriada de unidades idênticas ou soluções padronizadas, mas sim confiar na combinação
e permutação de partes projetadas intencionalmente para alcançar personalização e
adaptação. O projeto defende a "defesa das partes", compreendendo as implicações
sociais e econômicas de sua potencial extinção sob o regime paramétrico. Reconsiderar
as relações de parte para todo é um retorno ao interesse na mereologia, como
argumentado por Daniel Koehler. Em um modelo paramétrico tradicional, um projeto
(um todo) é pós-racionalizado em partes por meio de uma série de etapas que vão da
abstração aos documentos de fabricação. Isso segue o modelo de um quebra-cabeça,
onde as partes, frequentemente diferentes, foram otimizadas para desempenhar apenas
um papel específico. Em um modelo Discreto, por outro lado, as partes adquirem
autonomia e definem um sistema ou condição de campo que pode se manter
independentemente do todo. Os "todo", a partir da perspectiva Discreta, precisam ser
entendidos como padrões - "conjuntos não holísticos" ou "todo aberto" - capazes de
crescer ou encolher em adaptação ao contexto. Eles definem uma condição de campo de
fim aberto que pode ter múltiplos estados de equilíbrio. As partes, por outro lado,
precisam ser concebidas para desempenhar não apenas um único papel, mas sim uma
multiplicidade de encontros possíveis com outras partes. As partes se tornam mais
genéricas, mas capazes de encapsular a lógica de fabricação e estrutura.
Os fundamentos desse abordagem podem ser relacionados à noção de
"operações unitárias" de Ian Bogost. Para Bogost, o significado emerge do acoplamento
de unidades sem pertencer a um sistema holístico maior. Na visão de Bogost, as
unidades não perdem sua autonomia ao participar de relações sistêmicas. Sua distinção
entre "todo" e "multidões" permite a existência de unidades sem nenhuma estrutura
abrangente. Como ele explica: "Um mundo de operações unitárias de forma alguma
significa o fim dos sistemas. Os sistemas parecem desempenhar um papel ainda mais
crucial agora, mas são um novo tipo de sistema: o resultado espontâneo e complexo de
multidões, e não holismos singulares e absolutos".
O resultado desses princípios são "montagens granulares" que evidenciam sua
capacidade de crescer e encolher. Embora a granularidade possa ser entendida como
uma condição tectônica, ela encapsula a autonomia e as interações espontâneas das
unidades. A ideia de montagens aborda as propriedades de reconfigurabilidade das
partes e potencialmente sua reversibilidade. Ela descreve uma condição temporal, uma
configuração contingente.
Essas "configurações contingentes" ou padrões, como descrito acima, são
arranjos especiais de partes que adquirem significado cultural e valor. Aqui é onde a
arquitetura Discreta pode fornecer uma inovação fundamental para a arquitetura e
melhorar o paradigma paramétrico; os padrões definem uma estrutura de dados
imaterial para a arquitetura, que pode ser compartilhada digitalmente e propagada
socialmente. Essa estrutura de dados emerge da lógica geométrica das unidades. Os
padrões se tornam um formato altamente adaptável e flexível para o design surgir como
um empreendimento participativo, pois oferecem um amplo espaço de busca para
montagens arquitetônicas surgirem a partir de permutações sociais. Isso está alinhado
com uma agenda mais ampla para a arquitetura recuperar uma maior alfabetização e
adoção social, expandindo a gama de produção arquitetônica. A agenda Discreta se
afasta de uma tradição do século XX de projetar um edifício singular e promove o
projeto de sistemas de construção combinatórios que podem ser implantados em uma
multiplicidade de casos.
Muitas dessas ideias foram testadas no projeto Bloom, uma colaboração com
Alisa Andrasek em 2012, onde uma unidade idêntica foi fabricada em massa para
posterior montagem combinatória aberta nas mãos de um sistema social. O Bloom
utilizou moldagem por injeção para produzir em série, a um custo acessível, milhares de
unidades idênticas que foram projetadas para permitir uma ampla gama de padrões de
design a partir de suas combinações. Embora a equipe do projeto tenha sido capaz de
antecipar algumas das permutações de design que teriam um forte impacto arquitetônico
no desenvolvimento de um pavilhão, a multidão, por meio do ato de brincar com as
peças, foi capaz de gerar uma infinidade de novos padrões e evoluir as estratégias para
instalar a estrutura. Cada vez que ela foi montada em um novo local, a disposição era
diferente, adaptando-se às condições locais e utilizando a criatividade e o interesse da
multidão envolvida. O paradigma Discreto, nessa perspectiva, está fundamentalmente
ligado à sua capacidade de adoção social e para um design inicial assumir uma
multiplicidade de configurações definidas como padrões. Ao deslocar o foco da
multiplicidade virtual oferecida pelos projetos paramétricos (que muitas vezes são
materializados apenas como um resultado singular), o design Discreto pode conceber
sistemas tectônicos que são pré-planejados para uma arquitetura de fim aberto, onde a
evolução do design é possibilitada pela criatividade e participação da multidão.
Frank Gehry, renowned architect, expressed his preference for the freedom of
sketching in his designs and his aversion to computers and their potential to sterilize the
designer's vision in the documentary "Sketches of Frank Gehry" (2005), directed by his
friend Sidney Pollack. Gehry's stance was not driven by an ideological defense of a new
digital architecture, unlike his contemporaries Peter Eisenman and William Mitchell.
However, it was Gehry's own work that benefited the most from this tool, and his
adopted methodology influenced other architects to explore the bold solutions that
computers and CAD software could offer.
Gehry was dissatisfied with the lack of clarity in his office's professionals who
insisted on conventional modes of representing his projects, which failed to capture his
intentions and the freedom of his curves. In 1989, he hired Jim Glymph, an expert in
executive projects, and together they started using computers as a tool to construct
complex geometries.
The first opportunity to test these new tools, computers, and CAD software,
came with Gehry's involvement in the 1992 Barcelona Olympic Village. Gehry
proposed a sculpture in the shape of a fish for the entrance of the shopping center in the
central square of the village. The challenge was significant: developing complex forms
within a tight timeframe and limited budget. The project, based on Gehry's sketches,
was reproduced as a metal and wood model with the assistance of William Mitchell, a
professor at Harvard, and Jim Glymph. They developed a 3D digital model using a
software called ALIAS, achieving an approximation of Gehry's desired form and his
satisfaction.
Despite the success of the representation, the tool was not capable of
establishing a connection with a Computer-Aided Manufacturing (CAM) system, which
was essential for facilitating the execution drawings and the final construction of the
model. This step was crucial for the project's success.
In 1981, Dassault Systèmes SE, a French aerospace company, launched the first
version of CATIA, a 3D CAD (Computer-Aided Design), CAM (Computer-Aided
Manufacturing), and CAE (Computer-Aided Engineering) software initially employed
in the manufacturing of the Boeing 777. However, CATIA gained notoriety within the
architectural field as well.
Glymph decided to switch to CATIA, abandoning Alias, as it did not provide the
necessary tools to continue their work. Furthermore, CATIA facilitated the flattening of
curved surfaces, allowing for an approximation of the required mesh profiles to cover
the surface with precision.
Gehry and Partners won the competition for the Guggenheim Museum Bilbao in
1991, presenting a model and conventional drawings such as floor plans, sections, and
hand-colored elevations. At that time, they only had three workstations with CATIA
software in operation, which had been used in the development of the previous project,
the fish sculpture in the Barcelona Olympic Village.
Between the project's development from 1991 to 1994 and its inauguration in
1997, new paradigms emerged in the methodology of designing and executing
buildings, combining digital tools with Gehry's existing methods, which were based on
drawings and physical models.
To comply with the legal protocols of the Bilbao City Council, floor plans,
sections, and elevations were directly extracted from the digital model. Splines and
NURBS were integrated into the Building Information Modeling (BIM) model,
incorporating parametric techniques and performance analysis. Prefabricated
components were adapted for CNC fabrication, and each structure component received
a bar code from CATIA, determining the intersection nodes with subsequent layer
structures. Laser inspection equipment was used to ensure precision during assembly,
procedures previously employed only in the automotive and aerospace industries.
The Guggenheim Museum Bilbao, a construction of approximately 24,000
square meters, demonstrated that despite adopting double-curved forms as the closure
for all facades, it did not require more material than a rectangular and orthogonal
building of the same size following Euclidean geometry. Fifty thousand drawings were
produced in 60,000 work hours using 18 graphic stations equipped with computers
running CATIA. Although these drawings could have been created by hand with pencils
and paper, it would have taken decades to complete. Since then, the "Bilbao effect" has
spread worldwide, with the proliferation of computer use in architecture firms. The
adoption of this new tool came with analytical and differential geometry to numerically
represent construction components, replacing descriptive geometry and orthographic
projections after five centuries of hegemony.

Frank Gehry declarou ao seu amigo cineasta Sidney Pollack no documentário


sobre sua vida e obras já consagradas, "Sketches of Frank Gehry" (2005), que sempre
teve nos seus croquis a liberdade com que gostaria de realizar as formas em seus
projetos e declarou sua ojeriza aos computadores e os perigos para o designer da frieza
de suas imagens na tela.
Sua postura nunca foi ideológica em defesa de uma nova arquitetura digital
como seus contemporâneos Peter Eisenman ou William Mitchell, mas foi a sua obra que
primeiro mais se beneficiou dessa ferramenta e sua metodologia de trabalho adotada
influenciou outros arquitetos a buscar as soluções ousadas que os computadores e
softwares CAD poderiam oferecer.
Insatisfeito com a falta de clareza dos profissionais de seu escritório que
insistiam em modos convencionais de representação de seus projetos, que não
reproduziam suas intenções e sua liberdade com as curvas, ele contratou um especialista
em projetos executivos, Jim Glymph, em 1989, e juntos passaram a usar o computador
como ferramenta para construir formas de geometria complexa.
A primeira oportunidade para testar as novas ferramentas, computadores e
softwares CAD, veio com a participação na Vila Olímpica de Barcelona em 1992, onde
Frank Gehry propôs uma escultura na forma de um peixe para a entrada do Centro
Comercial na praça central da vila. O desafio foi grande, desenvolver formas complexas
em pouco tempo e com um orçamento curto, mas o projeto, desenvolvido a partir de
croquis de Gehry, foi reproduzido em uma maquete de metal e madeira com a ajuda de
William Mitchell, professor em Harvard, que, juntamente com Jim Glymph,
desenvolveu o modelo digital em 3D usando um software chamado ALIAS, alcançando
uma representação aproximada da forma desejada e a satisfação de Gehry.
Apesar do sucesso da representação, a ferramenta não era capaz de suportar uma
conexão com um sistema CAM (Computer-Aided Manufacturing) para facilitar nos
desenhos de execução e na construção final do modelo, um passo fundamental para o
sucesso do projeto.
Em 1981, a Dassault Systémes SE, empresa da indústria aeroespacial francesa,
lançou a primeira versão do CATIA, um software 3D CAD (Computer-Aided Design),
CAM (Computer-Aided Manufacturing) e CAE (Computer-Aided Engineering) que foi
inicialmente empregado na fabricação do Boeing 777, mas ganhou notoriedade no meio
arquitetônico também.
Glymph decidiu então pelo CATIA e abandonou o Alias, pois este não oferecia
as ferramentas necessárias para dar continuidade aos trabalhos. Além disso, o CATIA
facilitou o processo de planificação de superfícies curvas, permitindo uma aproximação
dos perfis da malha necessários para cobrir a superfície com precisão.
Gehry and Partners venceu o concurso para o Museu Guggenheim de Bilbao
realizado em 1991, apresentando uma maquete e desenhos convencionais como plantas
baixas, cortes e fachadas coloridas à mão. Naquela época, apenas três estações com o
software CATIA estavam em funcionamento no escritório, usadas no desenvolvimento
do trabalho anterior, a escultura em forma de peixe para a Vila Olímpica de Barcelona.
Entre o desenvolvimento do projeto de 1991 a 1994 e a inauguração em 1997,
surgiram novos paradigmas na metodologia de projetar e executar edifícios, utilizando
ferramentas digitais associadas aos métodos já usados por Gehry, baseados em desenhos
e maquetes físicas.
Para cumprir os protocolos legais junto à prefeitura de Bilbao, foram extraídas
plantas baixas, cortes e fachadas diretamente do modelo digital. As splines e NURBS
foram integradas ao modelo BIM (Building Information Modeling), adicionando
técnicas de parametrização e análise de desempenho. Componentes pré-fabricados
foram adaptados para fabricação com CNC, e cada componente da estrutura recebeu um
código de barras do CATIA, que determinava os nós de intersecção com a estrutura das
camadas subsequentes. Foram utilizados equipamentos de inspeção a laser para garantir
a precisão na montagem, procedimentos até então usados apenas nas indústrias
automobilística e aeronáutica.
O Guggenheim de Bilbao, uma construção de aproximadamente 24.000 metros
quadrados, mesmo adotando formas com duplas curvaturas como fechamento em todas
as fachadas do edifício, não exigiu mais material em sua execução do que seria gasto em
um edifício do mesmo tamanho com formas retangulares e ortogonais seguindo uma
geometria euclidiana. Foram produzidos 50.000 desenhos em 60.000 horas de trabalho,
distribuídos em 18 estações gráficas equipadas com computadores com o software
CATIA instalado. Embora esses desenhos pudessem ter sido feitos à mão com lápis e
papel, levaria décadas para serem concluídos. Desde então, o "efeito Bilbao" espalhou-
se pelo mundo, com a proliferação do uso de computadores nos escritórios de
arquitetura. A adoção dessa nova ferramenta veio com a geometria analítica e
diferencial para representar numericamente os componentes da construção, substituindo
a geometria descritiva e as projeções ortogonais após cinco séculos de hegemonia.

As tecnologias digitais têm um papel fundamental na arquitetura, permitindo que


os arquitetos realizem projetos de maneira mais rápida e eficiente. O aspecto
quantitativo do uso dessas tecnologias é irrelevante para os arquitetos, o que importa é o
salto criativo que elas proporcionaram. A investigação desse processo de inovação é
fundamental para compreender a transformação da concepção, construção e
apresentação da arquitetura e do design. Houve períodos de exuberância e retração
tecnológica, e as ferramentas digitais surgiram e desapareceram de acordo com as
flutuações da economia e da cultura do design. Os primeiros computadores modernos
surgiram durante a Segunda Guerra Mundial e, ao longo do tempo, tornaram-se menores
e mais acessíveis. Na década de 1960, engenheiros mecânicos foram os primeiros a
utilizar computadores para design, enquanto os arquitetos tinham pouco acesso a essas
ferramentas. Nos anos 1990, os arquitetos começaram a utilizar computadores para
fazer desenhos, mudando a arquitetura de forma definitiva. Além de economizar custos
e facilitar a organização de projetos, os computadores permitiram a criação de novos
tipos de desenhos que seriam difíceis ou impossíveis de se fazer manualmente.
O texto discute a otimização digital e a personalização em massa como
elementos fundamentais na arquitetura e no design. Desde a década de 1990, a
otimização digital tem sido vista como uma virada na arquitetura, possibilitando a
criação de formas e curvas digitais que antes eram consideradas impossíveis sem o uso
de técnicas digitais. A parametrização e a personalização em massa digital permitem a
variação individual dos produtos em um fluxo de trabalho digital, desafiando os
princípios da produção industrial padronizada. Essas ideias são consideradas
revolucionárias e desafiam a concepção tradicional de autoria na arquitetura.
Além disso, o texto aborda a relação entre a otimização digital e a fabricação
digital, destacando a importância dos softwares paramétricos, como o Building
Information Modeling (BIM), na colaboração entre arquitetos e empreiteiros. Também
menciona o surgimento da impressão 3D como uma tecnologia de fabricação que
permite a criação de objetos com exuberância formal e uma estética pós-humana. No
entanto, a montagem desses objetos complexos ainda representa um desafio, e alguns
criadores digitais estão desenvolvendo robôs inteligentes para realizar tarefas de
construção de forma automatizada.
Menciona-se o Movimento FabLab, originado no MIT, que explora princípios
semelhantes à personalização em massa digital. No entanto, ressalta que profissionais de
arquitetura e design podem ter mostrado um interesse limitado nesse tipo de
desenvolvimento e fabricação de produtos devido a preocupações com o campo autoral
e processos criativos.
Discute-se a importância da otimização digital, da personalização em massa e da
fabricação digital na arquitetura e no design, desafiando concepções tradicionais e
abrindo novas possibilidades criativas e técnicas. Também destaca-se o papel dos
softwares paramétricos e da impressão 3D, bem como o desenvolvimento de robôs
inteligentes na construção.
Discute-se a arquitetura discreta como uma crítica à arquitetura paramétrica não
padronizada, que favorece práticas e instituições com acesso privilegiado. A arquitetura
discreta busca reconstruir o senso comum por meio do conhecimento distribuído e da
produção de design, questionando a exclusividade e as desigualdades geradas pelo
progresso tecnológico desvinculado de uma abordagem socialmente responsável.
Enquanto a parametrização é vista como uma expressão da liberdade
arquitetônica, a arquitetura discreta destaca a importância da inclusão social e de
representação da diversidade da população. Na arquitetura discreta busca-se a
coexistência de um maior número de pequenas empresas e privilegia unidades
autônomas e partes que podem ser recombinadas em várias permutações.
A arquitetura discreta apresenta-se como uma crítica à arquitetura paramétrica
por sua exclusividade e falta de inclusão social, enfatizando a necessidade de um
progresso tecnológico que seja socialmente responsável e beneficie um maior número
de pessoas e empresas.

Resumo

Neste artigo discute-se a importância das tecnologias digitais na arquitetura,


permitindo maior eficiência e criatividade nos projetos. Aborda a evolução dessas
tecnologias ao longo do tempo e como elas influenciaram a concepção, construção e
apresentação da arquitetura. Destaca-se a otimização digital e a personalização em
massa como elementos revolucionários, desafiando concepções tradicionais e abrindo
novas possibilidades criativas. Também se menciona a relação entre a otimização digital
e a fabricação digital, ressaltando o papel dos softwares paramétricos e da impressão
3D. Além disso, no artigo discute-se a arquitetura discreta como uma crítica à
arquitetura paramétrica não padronizada. Destaca-se a importância da inclusão social e
da representação da diversidade na arquitetura, questionando a exclusividade e as
desigualdades geradas pelo progresso tecnológico sem uma abordagem socialmente
responsável. Enfatiza-se a transformação da arquitetura pelo uso das tecnologias
digitais, aborda as vantagens da otimização digital e personalização em massa; destaca-
se a importância da inclusão social na arquitetura e apresenta a arquitetura discreta
como uma crítica à exclusividade e a falta de inclusão social da arquitetura digital
aplicada no início do uso dessas mesmas tecnologias digitais.

LELÉ
Entrevista com o arquiteto João da Gama Filgueiras Lima, o Lelé, gravada no
Canteiro Experimental Antonio Domingos Battaglia, na FAUUSP, em 16 de agosto de
2006. Esse depoimento foi possivel por ocasião da vinda do arquiteto Lelé à FAUUSP,
para um evento inteiramente dedicado a ele, Lelé, na FAU, organizado pelos
professores Hugo Segawa, Claudia Terezinha de Oliveira e Helena Ayoub, e pelas
alunas da pósgraduação Gabriela Lima e Cristina Trigo
RR: O senhor fez duas comparações com RR: tecnologias de manejo da
informação: um e-mail evidentemente não revela um gesto, um olhar que você pode
perceber pelo monitor, e o túnel de vento que tem sido substituído por simulações em
computador, da mesma forma não considerando uma intuição sua durante a observação
do ensaio. Isso nos leva a refletir sobre o quanto de preconceito carrega a visão
contemporânea do que é técnica, menosprezando um fator muito importante: a
sensibilidade que anda ali, passo a passo, com todo o desenvolvimento tecnológico do
homem.
: Essa questão para mim é fundamental, cada vez estou mais convencido disso;
esse instrumento sensacional, o computador, a gente não pode negar o prodígio que ele
realiza, mas sem uma dose de intuição, quer dizer, a destruição de toda nossa bagagem
atávica, vinda desde o homem das cavernas, usando as mãos para fazer seu registro
cotidiano nas paredes das cavernas, então creio que isso é uma perda terrível. Uma das
coisas que imagino fundamental, assim para o desenvolvimento na formação do
arquiteto, é você estimular a percepção para que eles consigam ler uma estrutura, e essa
percepção está baseada na intuição, não há nenhum computador que possa fazer isso.
Para se desenvolver essa percepção é preciso que a atividade não seja, primeiro,
estritamente acadêmica, que seja como essa aqui feita no canteiro. Então, como o
Ronconi estava dizendo: esse é um arco de 10 m x 4 m4 , mas o aluno, com o uso do
computador, está perdendo essa noção de escala. Antigamente lembro-me que a gente
era obrigado a fazer exercícios de escala, tinha de saber o que era 1 cm, 2 cm e o que
isso significava na prática. Os alunos se surpreendem por causa dessa dissociação, o
monitor não tem escala, o monitor de computador, gradualmente, produz esse efeito
nocivo – a perda da noção de escala, isso sem falar em outras coisas. Então, a perda da
intuição para o ser humano é a destruição de uma bagagem incrível construída com
tanta dificuldade por tantas gerações, e uma coisa predominante e mais importante para
o ensino de arquitetura deveria ser estimular essa questão da percepção, e esse
laboratório faz isso, quer dizer, se amanhã o estudante cria uma catenária, uma abóbada
de tijolo, como aquela que eu estou vendo ali, ele cria essa percepção, quer dizer, a
relação entre a matéria-prima, como isso pode se organizar, vencer um vão, o porquê do
arco, e o monitor destrói isso; existem meninos, agora, que apertam o interruptor com o
polegar de tanto mexer com jogos e vão acabar não sabendo mais como se usa o
indicador; é lógico, estou fazendo um gracejo, mas dentro desse contexto as coisas
podem ocorrer dessa maneira, seria a última distorção de nossos sentimentos, de nossa
sensibilidade, de nossa emoção, então é fundamental essa questão que você colocou. É o
desenvolvimento da percepção, é não perder a intuição. O ato primordial em qualquer
trabalho de criatividade é deixar as informações chegarem à gente, mas não deixar que
alguém resolva, não interferir em nossa intuição. Ela tem de ter liberdade total para criar
os caminhos mais inteligentes. Imagine uma abelha precisando carregar aquela
quantidade de mel para fazer uma colméia tão inteligente, não se perde nada dos
hexágonos justapostos, isso ela faz sem ninguém ensinar, porque muitas abelhas antes
fizeram e imagino que muitas pessoas fizeram tantas coisas que a gente vê aqui, por que
destruir essa consciência, afinal de contas atávica, por meio de um instrumento que,
apesar de ser uma arma tecnológica incrível, até por seu poder tecnológico, seu
glamour, por tudo que encerra, ela tem essa capacidade destruidora também, terrível?
Não estou aqui desenvolvendo um tema contra o computador; ao contrário, ele é nosso
aliado, mas tem de ser usado sem desprezar uma das coisas mais fundamentais de
sobrevivência, sempre a intuição.

No entanto, vemos poucos pré-fabricados à altura. Somente a obra de Jean


Prouvé (1901- 1984), e, de Buckminster Fuller, a Dymaxion House, versão Wichita
(1945), apresentam tal sofisticação formal, tamanha elegância, a partir da fábrica.
. Ainda mais que pré-fabricação ganhou novo impulso no Ocidente por meio do
CNC – comando numérico computadorizado (SMITH, 2010), diminuindo a antes
necessária vantagem dos ganhos de escala e padronização das peças.

João da Gama Filgueiras Lima nasceu em 10 de janeiro de 1932, no Rio de


Janeiro. Formou-se em 1955 pela Escola de Belas Artes (RJ). O apelido Lelé foi
adotado na juventude, por jogar futebol na posição de meia direita, a mesma posição de
Lelé, então um conhecido jogador do Vasco da Gama.
Teve a carreira iniciada ao lado de Oscar Niemeyer e Darcy Ribeiro nos
canteiros de obras de Brasília, João Filgueiras Lima foi um dos que mais longe levou as
propostas do Movimento Moderno. Ele promoveu a melhoria das condições de vida em
nossas cidades através de uma arquitetura produzida em série e eticamente
comprometida com a construção de uma espacialidade adequada ao homem e ao
ambiente em que está inserida.
A obra de João Filgueiras Lima, o Lelé (1932-2014), pode ser vista sob vários
prismas. Um deles, que nos parece imprescindível, é a partir da situação geral da pré-
fabricação fundamental para a ocorrência de inovações, onde certas configurações
propiciariam, ou tornariam mais fáceis, certas realizações, enquanto outras as inibiriam.
O arquiteto João Filgueiras Lima, o Lelé, é amplamente reconhecido pelo seu
trabalho ligado à industrialização da construção com destacada atenção para o conforto
ambiental e a eficiência energética. Lelé tem sido apontado como um dos principais
expoentes da arquitetura brasileira da segunda metade do século vinte, sublinhando-se o
caráter moderno, a funcionalidade e os aspectos de economia e racionalidade de seus
projetos.
O processo criativo do arquiteto demonstrava-se através do desenvolvimento de
uma linguagem arquitetônica calcada na coerência entre a técnica e o programa a partir
das seguintes premissas: reprodutibilidade – em função da alta demanda e das
possibilidades de pré-fabricação; eficiência – por conta das restrições orçamentárias e
do contexto de crise da administração municipal naquele momento, além do alto grau de
resistência das peças e otimização de material pela técnica e pelas formas adotadas;
contemporaneidade – ajuste do material, do desenho e da produção às possibilidades
daquela época; adequação na instalação – compreensão e domínio não apenas da
produção dos componentes, mas também da maneira com que as peças são inseridas no
local em que a obra será erigida, sua montagem e os impactos no meio durante sua
implantação, resultando em simplicidade na interface das peças, tempo e grau de
mecanização da montagem, adaptação às diversas situações locais etc.; sensibilidade
social – no uso extensivo da mão de obra devidamente instruída para as atividades a
serem executadas na fabricação e montagem dos sistemas projetados; entre outros
O prefeito, independente do discurso e de alguns instrumentos de participação
popular previstos, procurava organizar o núcleo de seus principais assessores próximo
ao seu gabinete e à sua rotina administrativa, ao mesmo tempo que visava proporcionar
agilidade e dinamismo à equipe responsável pelo desenvolvimento dos projetos. Com
essas premissas, Lelé foi designado inicialmente chefe da Coordenação para
Implantação do Transcol (CIT), que logo viria a ser substituído, em suas funções
estratégicas e de maneira ampliada, pela RENURB. A RENURB havia sido criada em
25 de outubro de 1976 pela Lei 2.8606 , mas teve suas atribuições específicas definidas
na primeira gestão de Mário Kertész, quando foi efetivamente constituída e foram
definidos dois setores distintos de atuação, já de acordo com a estrutura idealizada por
Lelé: o Escritório de Projetos e a Usina de Pré-moldados leves, conforme a lógica
projetual e construtiva do arquiteto. O primeiro tinha a função de desenvolver em nível
executivo praticamente todos os projetos da Prefeitura para a cidade, e mesmo algumas
iniciativas do Estado, a exemplo da Igreja de Alagados (construída por ocasião da visita
do Papa João Paulo II), da Central de Delegacias, Quartel Militar e dos postos policiais,
entre outros. Seu principal objetivo era “promover intervenções no espaço urbano com o
grau de qualidade e unidade necessários à reordenação da imagem ambiental de
Salvador” (Salvador, 1981). Então, eu fui nesse ínterim convocado por Mário para
assumir aqui uma função de coordenação de todas as ações da Prefeitura. Eu aceitei
porque havia a intenção de criar um escritório, ter uma unidade de pensamento, de ação,
com um tratamento da cidade de forma mais sistêmica, não aleatória e pulverizada
como se vinha fazendo. Aceitei e montamos então a RENURB. A minha aceitação foi
mediante congregar todas as ações na cidade, minha função foi de coordenar essas ações
todas, que incluíam saneamento básico, a área de saúde... tudo. Tudo era centralizado
pelo escritório RENURB (Lima, 2013). (grifo do autor) Um colaborador de Lelé desde
aquela época confirma o caráter ambicioso da proposta, na medida em que se propunha
atuar sobre a materialização de propostas de infraestrutura e desenvolvimento de
projetos relacionados ao planejamento urbano – no atendimento de determinações de
intervenção urbana baseadas em um conjunto de diagnósticos préestabelecidos por
estudos e relatórios existentes, devidamente ajustados pela leitura da cidade realizada
pela equipe de Lelé, principalmente pelos ‘núcleo duro’ do governo municipal: Lelé,
Roberto Pinho, João Santana e o próprio Kertész (Minho, 2014). Formado por grande
equipe multidisciplinar (cerca de duzentos profissionais, entre arquitetos, engenheiros,
sociólogos e outros) e coordenado por Lelé, o Escritório7 deveria propiciar à Prefeitura
agilidade e eficiência na captação de recursos em âmbito federal e no exterior (em vista
da dificuldade apontada pelo prefeito em seu diagnóstico referente ao financiamento das
ações da Prefeitura); viria a ser ainda autossustentado, uma vez que a maioria dos
projetos fora remunerada pelos órgãos financiadores: EBTU, BNH, BNDE, Banco
Mundial e outros – condições ótimas para se dispor de equipe diversificada e numerosa,
necessária para o atendimento da demanda numerosa e complexa. ...era na verdade um
grande escritório onde você tinha todas as disciplinas ali necessárias para o
desenvolvimento de um trabalho voltado para uma cidade como Salvador. Nós tínhamos
desde pessoal da área de apoio, da área social, engenheiros, arquitetos, paisagistas,
sociólogos, era uma equipe que trabalhava no mesmo espaço, conversando o tempo
todo, integrada, e era assim que Lelé entendia o trabalho, o trabalho de arquitetura, o
trabalho pra cidade tinha que ser integrado com essas pessoas sempre em contato direto
e se possível no mesmo espaço, trocando as experiências, e o trabalho chegava às
últimas consequências. Era você entrar num bairro desses com a equipe de sociólogos,
essas pessoas iam captar junto a população as necessidades daquele bairro, daquela
comunidade, e isso seria traduzido em estudos, projetos, que seriam detalhados e que
seriam acompanhados durante a execução. Era um trabalho que começava e terminava
com uma mesma história, com os mesmos profissionais ali se integrando, enfim, para
que o resultado tivesse a unidade e correspondesse aquilo que foi pensado no início.
Essa metodologia, essa mecânica, essa forma de ver projeto, foi a coisa que Lelé deixou
como legado mesmo, muito mais porque ele entendia o projeto como uma experiência
que tinha que ser repassada.
O outro setor da RENURB, a Usina de Pré-moldados leves, deveria contribuir
para uma retomada da unidade plástica do conjunto urbanístico da cidade (Salvador,
1981). A usina consistia em uma indústria de elementos em argamassa armada ou
concreto leve, com capacidade para produção em larga escala, necessária em função da
grande demanda de equipamentos urbanos e da intenção de unidade visual almejada.
Eram destaques a flexibilidade e diversidade de usos dos produtos em argamassa
armada saídos da usina, elementos de mobiliário urbano a serem utilizados nas mais
diversas situações – e nas três áreas distintas identificadas pela gestão como prioritárias
para intervenção e recuperação da qualidade espacial – “assegurando, porém, uma forte
unidade conceitual a partir do emprego, em todos os casos, da mesma tecnologia e da
mesma matéria-prima” (Salvador, 1981). Passamos a ter um escritório central realmente
da RENURB. E, como muitas dessas ações, elas requeriam um tipo de atuação
diferenciada já que o relevo de Salvador sugeria ações diferentes, como para drenagem:
não podia ser uma drenagem usual, convencional como se fazia, por causa da própria
topografia. Nós decidimos criar um sistema específico para drenagem com argamassa
armada que eu já havia estudado junto com o professor Schiel, que trabalhou com Nervi
na Itália, e ele tinha assumido na Faculdade de Engenharia de São Carlos, tinha
assumido o desenvolvimento dessa tecnologia que ele já fazia, mas de uma forma
bastante convencional. Então nós o convocamos para trabalhar na nossa equipe e
passamos a fazer isso de uma forma industrializada, com moldes de aço. Houve uma
mudança no sistema, que o sistema do próprio Nervi era muito artesanal, então era um
material que não era, vamos dizer, utilizado de uma forma industrial. Essa foi a
novidade: usar o material de forma industrial. E fizemos (Lima, 2013). (grifo do autor)
A RENURB (Companhia de Renovação Urbana de Salvador) foi criada em 1979
com o objetivo de implantar o projeto de Transportes Urbanos de Salvador
(TRANSCOL), financiado pelo BIRD. O desenvolvimento desse plano exigia a
integração de todos os setores técnicos de arquitetura e urbanismo e determinou a
criação de um grande escritório de projetos. Para acelerar a execução das obras, foram
adotados projetos padronizados utilizando componentes pré-fabricados de concreto
armado. Inicialmente, o projeto foi desenvolvido para abrigos de ônibus, mas os
componentes também foram utilizados em outros equipamentos urbanos, tais como
estações de transbordo, postos de polícia, postos de pedágio para os estacionamentos,
bancos com ou sem encosto, arrimos escalonados e componentes diversos necessários à
implantação dos projetos de urbanização dos logradouros e praças onde se localizavam
os terminais de bairro. No entanto, os assentamentos de baixa renda exigiam
intervenções específicas, especialmente em serviços de drenagem e saneamento básico,
para os quais as tecnologias convencionais disponíveis revelaram-se inadequadas.
Quando então foi convocado o engenheiro Frederico Schieel, que desenvolvia pesquisas
com argamassa armada na USP São Carlos) e que já havia colaborado com Lelé na
execução de peças pré-fabricadas, dos sheds da concessionária Planalto de Automóveis,
em Brasília, para assessorar o escritório de projetos nessa tarefa. A criação de moldes
metálicos mais complexos foi necessária para a execução dessas obras, a realização do
saneamento básico do vale do Camarugipe.
A implementação do saneamento básico no vale do Camarugipe resultou na
criação de diversos componentes em argamassa armada destinados à execução da
macrodrenagem, canais principais que percorrem ao longo dos vales; microdrenagem,
calçadas e escadarias drenantes que formam as vias de acesso às habitações e contenção
de encostas. Esses elementos foram de grande importância não apenas pelos benefícios
que proporcionaram aos moradores dos assentamentos de baixa renda onde foram
implementados, mas também por terem criado a oportunidade de experimentar uma
tecnologia pioneira na industrialização da construção civil, abrindo caminho para sua
aplicação na construção de edifícios, alguns anos depois. Infelizmente, a experiência foi
interrompida com a demissão do Prefeito Mário Kertész em 1981, resultando em uma
perda de qualidade na realização das obras após a transferência do projeto para a
iniciativa privada pela administração seguinte.
A partir daí, toda iniciativa do arquiteto, com exceção dos projetos de
residências para amigos, se daria com a constituição inicial de fábricas, como a fábrica
em Abadiânia (1982-84), a Fábrica de Escolas e Equipamentos Urbanos do Rio de
Janeiro (1984-86); a Fábrica de Equipamentos Comunitários – FAEC (1985- 89) e a
fábrica dos Centros Integrados de Ensino – CIACs (1990), e, por fim, o CTRS, a partir
de 1992. Nisso se dá a total absorção da produção do edifício, nos mínimos detalhes, na
fábrica. Nesse percurso, não houve sempre uma continuidade tecnológica local: tratava-
se de importar tecnologia em muitos casos para, em sucessivos ensaios, aprimorá-la. A
tecnologia do concreto já havia sido assimilada, em maior ou menor grau, quando da
obra de Brasília, mas não ainda a das estruturas metálicas. Os saltos tecnológicos na
obra de João Filgueiras Lima – do concreto armado à pré-fabricação pesada, desta à pré-
fabricação leve em argamassa armada, à metalurgia pesada, com o uso do aço em chapa
dobrada - requerem alguma atenção.

Você também pode gostar