Posts com a Tag ‘Scientiæ Studia (SS)’
Elas dizem não! Mulheres camponesas e a resistência aos cultivos transgênicos no Brasil e Argentina – LIMA (SS)
LIMA, Márcia Maria Tait. Elas dizem não! Mulheres camponesas e a resistência aos cultivos transgênicos no Brasil e Argentina. Campinas: Editora Librum, 2015. E-book. Resenha de: SANCHEZ, Beatriz Rodrigues. As mulheres camponesas e as epistemologias feministas. Scientiæ Studia, São Paulo, v.15, n. 1, p. 187-95, 2017.
O livro Elas dizem não! Mulheres camponesas e resistências aos cultivos transgênicos no Brasil e Argentina é resultado da tese de doutorado de Márcia Tait Lima, defendida na Universidade Estadual de Campinas (Unicamp), em 2014. Essa pesquisa pode ser vista como uma continuação das investigações anteriores da autora sobre as relações entre tecnociência e sociedade, tal como em sua dissertação de mestrado, publicada em 2011 com o título Tecnociência e cientistas: cientificismo e controvérsias na política de biossegurança brasileira. Naquele momento, já era possível verificar a existência de uma postura crítica e engajada da autora em relação a concepções mais tradicionais de ciência, aspecto que se tornou central no livro que será analisado a seguir.
Em seu livro mais recente, Márcia Tait Lima traz contribuições fundamentais não somente para a teoria política feminista, mas para todas as áreas do conhecimento que dialogam com o pensamento feminista. Ao apresentar as epistemologias feministas e do sul, a autora aponta para os limites da perspectiva científica racionalista e argumenta em prol de outras formas de olhar para o mundo. Essa oposição entre feminismo e positivismo é expressa em termos empíricos a partir da distinção entre os modos de produção das camponesas, que têm na metáfora da semente a sua base, e o agronegócio, que tem a mercantilização da vida como eixo central.
O livro recupera e homenageia a trajetória de luta das mulheres camponesas do Brasil e da Argentina que historicamente têm combatido o agronegócio e a mercantilização da vida. Márcia Tait faz com que seja possível ouvirmos as vozes dessas mulheres tantas vezes silenciadas não somente pela academia, mas também pela “história oficial” do feminismo, entendida aqui como a narrativa consagrada das feministas “veteranas”, “históricas” ou “fundadoras”, como elas próprias se autodenominam (cf. Alvarez, 2014). Considerando isso, desenvolver toda a riqueza do trabalho de Márcia Tait em algumas poucas páginas é uma tarefa árdua. Entretanto, será feito um esforço de sistematização das principais questões abordadas pela autora. Em primeiro lugar, cada capítulo do livro e os seus principais temas serão apresentados. Em seguida, as contribuições do trabalho para a teoria política feminista serão discutidas. Por fi m, algumas sugestões relacionadas à possibilidade de interlocução com determinadas perspectivas teóricas serão desenvolvidas.
No primeiro capítulo, a autora apresenta seu problema de pesquisa e a perspectiva teórica que será utilizada para analisá-lo. A abordagem situada e a parcialidade como pressupostos epistemológicos são os caminhos escolhidos para a realização da análise. A interdisciplinaridade é uma das características principais do trabalho, que trafega por áreas como os estudos sociais da ciência e da tecnologia, a sociologia e algumas vertentes do pensamento feminista. As epistemologias engajadas ou socialmente comprometidas e, mais especificamente, as epistemologias feministas e do sul fornecem os recursos teórico-conceituais necessários para a análise que virá a seguir.
No segundo capítulo, a metodologia utilizada nas pesquisas de campo realizadas na Argentina e no Brasil é apresentada. As mulheres que atuavam nos movimentos camponeses ou participavam de coletivos voltados à produção agrícola foram entrevistadas pela autora que também utilizou o método da observação participante. A escolha metodológica reflete a coerência da autora com relação aos pressupostos das epistemologias feministas, uma vez que a separação entre a pesquisadora e o “objeto” de estudo nem sempre é evidente. Toda pesquisa, inclusive aquelas que são exclusivamente empíricas, possuem pressupostos ontológicos e epistemológicos e cabe ao autor explicitá-los. Nesse caso, é justamente essa parcialidade da autora explicitada desde o início que confere maior riqueza e profundidade ao trabalho.
No capítulo três, o modelo de desenvolvimento agrícola industrial e seus impactos sobre a agricultura familiar são caracterizados. O crescimento dos oligopólios agrícolas, das áreas ocupadas por cultivos transgênicos e a privatização dos sistemas agroalimentares são apresentados criticamente pela autora. Em oposição a esse modo de produção, a autora demonstra como as lutas camponesas historicamente têm apontado para outras formas de cultivo como, por exemplo, a agroecologia. No entanto, em um contexto em que o agronegócio é o modo de produção hegemônico, essas formas de resistência encontram diversas barreiras para que possam continuar existindo.
No quarto capítulo, a discussão teórico-conceitual sobre os movimentos sociais e as diversas formas de ação coletiva são apresentadas. A partir de interpretações tanto sociológicas quanto da ciência política, a autora centra a análise na vertente da teoria dos novos movimentos sociais, que surgiu no início da década de 1970, deixando de fora da análise teorias contemporâneas sobre os movimentos sociais. A invisibilidade do trabalho das mulheres e a divisão sexual do trabalho na produção familiar camponesas são apresentadas como elementos constitutivos da identidade da mulher do campo, que é composta por diversos marcadores sociais de diferença.
No capítulo cinco, são estabelecidas algumas distinções entre os movimentos de mulheres e os movimentos feministas. Para isso, uma breve trajetória das mobilizações camponesas é traçada a partir da defesa da necessidade de formação de movimentos exclusivos de mulheres. De acordo com a autora, o feminismo camponês é distinto de outros tipos de feminismo, pois ele entende que elementos como a maternidade e a religião podem trazer benefícios para o cultivo da terra. Tendo esse fato em mente, a autora critica posições colonizadoras e tendentes à universalização de alguns feminismos que consideram as mulheres brancas das zonas urbanas como parâmetro para todas as outras mulheres.
No sexto capítulo, a resistência das mulheres camponesas é inserida em um contexto mais amplo de crítica à agricultura industrial. Do ponto de vista de Marcia Tait, a preservação das sementes crioulas em detrimento das sementes transgênicas é uma forma de crítica radical ao reducionismo biológico,1 ao antropocentrismo, ao androcentrismo e à mercantilização da vida. Dessa forma, as sementes são elevadas ao status de metáfora sobre os diversos modos de produção, já que cada uma delas representa posições políticas distintas. Em defesa da cultura camponesa, a autora apresenta argumentos convincentes contra o modelo do agronegócio.
No sétimo capítulo, uma ética baseada em uma ontologia feminista constituída a partir do ecofeminismo e das epistemologias das mulheres camponesas está no centro de uma abordagem não reducionista da vida e do meio ambiente. Após ter apresentado as epistemologias feministas no primeiro capítulo, a autora defende a possibilidade de definição de uma epistemologia feminista e camponesa que traz uma nova visão de mundo. Da perspectiva da autora, a ética contida nessa epistemologia é a alternativa necessária para o enfrentamento das crises ambiental, social e alimentar contemporâneas.
No último capítulo, a autora afirma que as ações protagonizadas por mulheres camponesas são capazes de ampliar as formas de resistência ao poder do agronegócio. Os estudos de caso do Brasil e da Argentina apresentam alternativas à matriz de pensamento hegemônica nas ciências, que é patriarcal, androcêntrica e antropocêntrica. Os oligopólios empresariais que lucram com a mercantilização dos alimentos são desafiados pelas mulheres do campo. O protagonismo das mulheres camponesas é uma das principais causas da mudança no paradigma de produção rural: suas vivências fazem com que a forma como cuidam da terra seja diferente tanto das formas “masculinas” do campo quanto das formas do agronegócio.
Partindo para uma apreciação crítica do livro, à primeira vista pode parecer que a maneira “feminina” de cuidar da terra contribui para a naturalização do papel das mulheres no campo, como se o fato biológico de ser mulher, por si só, fosse a explicação para essa visão diferenciada. No entanto, uma leitura aprofundada do trabalho revela que o modo feminino de cuidar da terra representa o contrário disso. Os movimentos de mulheres camponesas negam o essencialismo, mas de uma forma muito particular. Isso porque não rompem totalmente com algumas aproximações entre a natureza e alguns comportamentos reconhecidos como femininos. Alguns grupos, por exemplo, ressaltam o significado da maternidade para a mulher e defendem uma maior capacidade de empatia e solidariedade das mulheres em relação aos outros seres, sejam eles humanos ou não humanos. Mas isso não quer dizer que as mulheres camponesas reforcem estereótipos de gênero calcados na desigualdade entre homens e mulheres. O que elas fazem, na verdade, é, a partir de suas vivências, recuperar um modo de produção que se opõe ao agronegócio, já que envolve dimensões que não são racionais. As camponesas apresentam uma nova forma de olhar para o mundo, ou seja, uma nova epistemologia que desafia concepções positivistas de ciência, uma vez que incluem aspectos do âmbito privado na maneira de lidar com a produção de sementes. Ao trazer para o espaço público aspectos que antes eram considerados restritos ao espaço doméstico, as camponesas questionam a tradicional divisão entre público e privado, característica de visões positivistas da ciência que historicamente têm produzido diversas formas de exclusão de grupos marginalizados.
Teóricas feministas têm enfatizado a importância da desnaturalização das categorias sociais identitárias. Donna Haraway, por exemplo, afirma que,
com o reconhecimento, tão arduamente conquistado, da sua constituição histórica e social, o gênero, a raça e a classe não podem constituir a base para a crença na unidade “essencial”. Não existe nada no fato de ser “fêmea” que vincule naturalmente as mulheres. Não existe sequer o estado de “ser” fêmea, uma categoria em si mesma altamente complexa, construída em contestados discursos científico-sexuais e outras práticas sociais (Haraway, 1991 [1985], p. 232).
Dessa forma, não é a natureza feminina que fornece um olhar diferenciado para as mulheres camponesas, mas a sua localização na estrutura social. Por ocuparem uma posição específica, essas mulheres compartilham perspectivas sociais que se opõem àquelas pregadas pelo racionalismo científico. A teórica feminista que pela primeira vez formulou com maior profundidade o conceito de perspectiva social foi Iris Marion Young. Ela afirma que o posicionamento social e as relações sociais condicionam as “oportunidades e expectativas para a vida” (Young, 2000, p. 97) dos indivíduos. Isso quer dizer que entre aquelas que compartilham uma mesma perspectiva social, nesse caso entre as mulheres camponesas, emerge uma visão de mundo semelhante.
Nesse sentido, a ideia de conhecimentos situados é a chave fundamental para entendermos a dimensão epistemológica do trabalho manual das camponesas. De acordo com as epistemologias feministas, o olhar é sempre contextualizado, o que contraria os falsos universalismos da ciência positiva. Além disso, a parcialidade do próprio sujeito que conhece, e não a separação entre sujeito e objeto, é a característica fundamental do processo de produção do conhecimento. Isso quer dizer que a objetividade, desse ponto de vista, reside na própria contextualização do conhecimento. Nas palavras de Haraway,
a objetividade feminista trata da localização limitada e do conhecimento localizado, não da transcendência e da divisão entre sujeito e objeto. Desse modo, podemos tornar-nos responsáveis pelo que aprendemos a ver (Haraway, 1995, p. 21).
Outra contribuição fundamental que o livro de Márcia Tait traz para as ciências de modo geral e para o pensamento feminista especificamente é a conexão entre teoria e prática. O pensamento feminista, como demonstra a autora, é caracterizado por uma dualidade fundamental. É constituído, ao mesmo tempo, pela teoria e pela prática política. Militância e reflexão aliam-se em uma discussão teórica-acadêmica articulada à ação dos movimentos sociais. Assim, mais uma vez, a separação positivista entre sujeito e objeto é posta em xeque.
A divisão sexual do trabalho é outro conceito chave do livro que traz novos elementos para a teoria política feminista. Para entendermos as experiências compartilhadas pelas mulheres camponesas, é preciso recorrer ao fato de que historicamente as mulheres têm sido destinadas ao âmbito privado e os homens ao espaço público. Mesmo com todas as transformações ocorridas nas últimas décadas, as mulheres continuam a dedicar mais tempo às tarefas domésticas e, por outro lado, a ter rendimentos médios menores do que os homens pelo trabalho desempenhado fora de casa (cf. Biroli, 2015). O trabalho familiar é realizado pelas mulheres de forma gratuita, mesmo sendo uma parte essencial do funcionamento da estrutura produtiva do capitalismo. No caso das mulheres camponesas, o trabalho realizado por elas está relacionado também à produção para subsistência e ao cultivo de hortas, pomares e criação de pequenos animais (cf. Jalil, 2009). Como o objetivo primordial dessas atividades não é o comércio, elas não aparecem como trabalho, mas como uma mera “ajuda”, mesmo sendo condição fundamental para a existência da agricultura familiar. A divisão sexual do trabalho no campo possui, portanto, características específicas que precisam ser levadas
Outra contribuição fundamental do livro de Marcia Tait é a discussão que ela apresenta sobre a construção das identidades sociais. É interessante notar que as mulheres camponesas compartilham alguns marcadores sociais da diferença, entre eles gênero, classe e localidade. Na constituição de uma identidade coletiva “mulher camponesa”, essas diversas formas de opressão atuam conjuntamente. Para melhor compreender como esses marcadores operam na produção de exclusões, o conceito de interseccionalidade fornece um quadro analítico extremamente útil. Apesar de afirmar, no capítulo 4, que dialogar com as diferentes dimensões que constituem a identidade coletiva “mulher camponesa” é mais importante para pensar as possibilidades de transformação e emancipação social, do que chegar a definições sobre essa identidade, Marcia Tait não aponta como promover esse diálogo. Isso poderia ter sido feito a partir da perspectiva do feminismo interseccional.
A noção de interseccionalidade é fundamental porque, assim como as epistemologias feministas, desafia concepções tradicionais ou positivistas de ciência que defendem a neutralidade, a objetividade, a racionalidade e a universalidade do conhecimento. A ideia de um ponto de vista próprio à experiência dos indivíduos, fruto da conjunção das relações de poder de gênero, de classe e de raça é poderosa. Ela revela que a visão de mundo dos responsáveis por grande parte da produção de conhecimento ocidental tem origem em um espaço determinado: aquele ocupado por homens, brancos, ocidentais, membros das classes dominantes.
A definição de interseccionalidade postulada por Crenshaw (1994) lançou as bases para a teorização da noção de que diversas formas de opressão operam sobre o mesmo indivíduo. A interseccionalidade, de acordo com ela, é uma proposta para “levar em conta as múltiplas fontes de identidade”, embora não tenha a pretensão de “propor uma nova teoria globalizante da identidade” (Crenshaw, 1994, p. 54). O ponto central nesse conceito é o entendimento de que as formas de opressão não atingem os sujeitos isoladamente, mas de forma inter-relacionada. A “subordinação interseccional estrutural” representa “uma gama complexa de circunstâncias em que as políticas se intersectam com as estruturas básicas de desigualdade” (Crenshaw, 2002, p. 179).
As teóricas do feminismo negro entendem que nenhum marcador social da diferença sobrepõe-se a outros e que todos eles estão interligados. Hooks (1981) apresenta sua contribuição acerca da problemática da estabilidade homogeneizante da categoria “mulher” e a necessidade de atentar-se igualmente às formas combinadas de diferenciações e desigualdades como raça e classe social, entrecortando as experiências de mulheres. A partir da crítica às exclusões produzidas pela afirmação da existência de um sujeito coletivo e indiferenciado expresso na ideia “nós, mulheres”, elas produziram reflexões que hoje são incontornáveis tanto para as lutas quanto para as teorias feministas. O movimento do final dos anos 1970 conhecido como “black feminism” voltou sua crítica de maneira radical contra o feminismo branco, de classe média e heteronormativo. Para essas autoras, a complexidade das hierarquias que não se esgotam no gênero expõe limites e contradições do feminismo como projeto transformador. De acordo com Hooks (1984), para a maior parte das mulheres, a possibilidade de superar as condições atuais de exploração, dominação e opressão não está em igualar-se aos homens, mas em transformar as estruturas políticas e sociais.
Collins (2015) também traz contribuições importantes ao debate ao defender que o amplo conjunto de estudos sobre interseccionalidade seja analisado como mais do que uma proposta metodológica. Esses estudos deveriam ser vistos como um projeto de conhecimento que se organiza como um guarda-chuva teórico em que estão presentes três preocupações centrais: (1) a interseccionalidade como campo de estudos, com foco nos conteúdos e temas que caracterizam esse campo; (2) a interseccionalidade como estratégia analítica, com maior atenção aos “enquadramentos interseccionais” e a sua capacidade de produzir novas formas de conhecimento sobre o mundo social; (3) a interseccionalidade como uma forma de práxis social, com ênfase nas conexões entre conhecimento e justiça social.
Dessa forma, o horizonte de transformação projetado pelas teóricas feministas negras é ampliado, pois elas propõem que haja mudanças epistemológicas nas formas tradicionais de produção do conhecimento e, ao mesmo tempo, transformação das estruturas de dominação racial, patriarcal e de classe. Um ponto de convergência entre as teóricas políticas negras é a proposta de não hierarquização entre as diversas formas de opressão, o que tem implicações teóricas e políticas significativas. Nesse sentido, as formulações teóricas sobre o conceito de interseccionalidade aqui apresentadas oferecem dispositivos analíticos úteis para analisar a exclusão das mulheres camponesas, uma vez que elas, assim como as mulheres negras, questionam o feminismo branco de classe média a partir da especificidade de suas vivências.
Marcia Tait opta por dialogar com as teorias dos novos movimentos sociais que tiveram origem na década de 1970. Entretanto, teorias feministas dos movimentos sociais mais contemporâneas poderiam fornecer distinções analíticas capazes de incluir o movimento de mulheres camponesas em um contexto mais amplo de pluralização do “campo feminista” (Alvarez, 2014, p. 4). Atualmente, novas formas de mobilização feminista têm surgido como, por exemplo, as jovens que protagonizaram as ocupações das escolas públicas e as blogueiras feministas que enxergam na internet um dos espaços possíveis de militância. Essas novas formas de atuação convivem com movimentos feministas mais tradicionais, ou seja, diversas gerações do movimento passam a coexistir. Isso faz com que repertórios de ação de natureza distinta convivam no mesmo espaço, nem sempre de maneira pacífica. A noção de “campo feminista” formulada por Sonia Alvarez (2014) surge para dar conta dessa pluralidade.
Um fator gerador de conflitos recentes dentro do campo feminista está relacionado à constituição de identidades sociais. Influenciadas pelo pensamento de Butler (2010), parte das feministas contemporâneas criticam a defesa de identidades fixas e defendem que a mobilização política deve ocorrer em torno de pautas específicas e não de categorias identitárias. Por outro lado, outras correntes mais próximas ao pensamento marxista e ao feminismo negro afirmam que a luta feminista deve levar em conta as condições estruturais de exclusão que se relacionam não somente ao gênero, mas também às discriminações raciais e de classe. Outra questão recente que é fonte de embates entre feministas diz respeito ao lugar das mulheres transexuais dentro do movimento. Feministas autodenominadas radicais entendem que o fato de ter órgãos sexuais femininos é determinante para a participação no movimento e, por isso, recebem críticas que as caracterizam como essencialistas. Outras feministas acreditam que o que determina o “ser mulher” não é a biologia, mas sim a sociabilização dos indivíduos e sua identidade de gênero, legitimando a participação de mulheres trans no movimento.
Como é possível perceber, o campo feminista contemporâneo é permeado de conflitos e disputas e, portanto, não pode ser representado de forma homogênea, o que traz desafios para as pesquisas que pretendem analisar os movimentos feministas contemporâneos. Como foi possível perceber a partir desta breve análise, o livro Elas dizem não! Mulheres camponesas e a resistência aos cultivos transgênicos traz contribuições fundamentais para as teóricas e militantes feministas preocupadas em entender o protagonismo das mulheres no campo. É também uma obra importante para as epistemologias feministas, uma vez que apresenta uma nova forma específica de olhar para o mundo e de produzir conhecimento, originada das vivências das mulheres camponesas. O grito, Elas dizem não!, faz jus à trajetória dos movimentos de mulheres camponesas que historicamente têm resistido aos transgênicos e ao agronegócio e apresentado uma alternativa produtiva como forma de emancipação social.
Notas
1 De acordo com o site do Ministério do Desenvolvimento Agrário (MDA), as sementes crioulas são variedades desenvolvidas, adaptadas ou produzidas por agricultores familiares, assentados da reforma agrária, quilombolas ou indígenas, com características bem determinadas e reconhecidas pelas respectivas comunidades. Disponível em: <http://www.mda.gov.br/sitemda/noticias/voc%C3%AA-sabe-qual-import%C3%A2ncia-das-sementes-crioulas>. Acesso em: 14 jan. 2016.
Referências
ALVAREZ, S. Para além da sociedade civil: reflexões sobre o campo feminista. Cadernos Pagu, 43, p. 13-56, 2014.
BUTLER, J. Problemas de gênero: feminismo e subversão da identidade. Tradução R. Aguiar. 3. ed. Rio de Janeiro: Civilização Brasileira, 2010.
BIROLI, F. Divisão sexual do trabalho e democracia. Trabalho apresentado no 39o Encontro Anual da Anpocs, 2015.
COLLINS, P. Intersectionality’s defi nitional dilemas. Annual Review of Sociology, 41, p. 1-20, 2015.
CRENSHAW, K. Mapping the margins: intersectionality, identity politics and violence against women of color. In: Fineman, M. & Mykitiuk, R. (Ed.). The public nature of private violence. New York: Routledge, 1994. p. 93-118.
_____. Documento para o Encontro de especialistas em aspectos da discriminação racial relativos ao gênero. Revista Estudos Feministas, Rio de Janeiro, 10, 1, p. 171-87, 2002.
FINEMAN, M. & Mykitiuk, R. (Ed.). The public nature of private violence. New York: Routledge, 1994.
HARAWAY, D. A cyborg manifesto: science, technology and social feminism in the late twentieth century. In: Haraway, D. (Ed.). Symians, cyborgs and women: the reinvention of nature. New York: Routledge, 1991 [1985]. p. 149-82.
_____. Saberes localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial. Cadernos Pagu, 5, p. 7-42, 1995.
HOOKS, B. Ain’t I a woman? Black women and feminism. Cambridge: South End, 1981.
_____. Feminist theory: from margin to center. Boston: South End Press, 1984.
JALIL, L. Mulheres e soberania alimentar: a luta para a transformação do meio rural brasileiro. Rio de Janeiro, 2009. Dissertação (Mestrado em Ciências Sociais). Programa de Pós-Graduação de Ciências Sociais em Desenvolvimento, Agricultura e Sociedade, Universidade Federal Rural do Rio de Janeiro.
LIMA, M. M. T. Tecnociência e cientistas: cientificismo e controvérsias na política de biossegurança brasileira. São Paulo: Annablume/Fapesp, 2011.
_____. Elas dizem não! Mulheres camponesas e a resistência aos cultivos transgênicos. Campinas, SP: Librum, 2015. E-book. Disponível em: <http://www.librum.com.br/elasdizemnao/info/> Acesso em: 10 jan. 2017.
YOUNG, I. Inclusion and democracy. Oxford: Oxford University Press, 2000.
Beatriz Rodrigues Sanchez – Programa de Pós-Graduação em Ciência Política. Faculdade de Filosofia, Letras e Ciências Humanas, Universidade de São Paulo, Brasil. E-mail: beatriz.rodrigues.sanchez@gmail.com
[DR]
Objectivity & diversity: another logic of scientific research – HARDING (SS)
HARDING, Sandra. Objectivity & diversity: another logic of scientific research. Chicago/London: The University of Chicago Press, 2015. Resenha de: AYMORÉ, Débora. Objetividade forte como alternativa à ciência livre de valores. Scientiæ Studia, São Paulo, v.15, n. 1, p. 175-86, 2017.
A obra Objectivity & diversity: another logic of scientific research (2015), de Sandra Harding, aponta para um modo alternativo de fazer ciência, baseando-se na premissa de que os compromissos sociopolíticos favoráveis à diversidade e os compromissos epistêmico-científicos com a objetividade não precisam ser necessariamente conflitantes. Colocados em uma gradação, os capítulos culminam no último, que resume os seis principais argumentos acerca da objetividade desenvolvidos pela autora, tornando-se um ponto de partida possível para o contato com o conteúdo da obra. Os argumentos desenvolvidos na sequência dos capítulos são:
Capítulo 1. Argumento de que as consequências das pesquisas do ocidente desbordam seus limites territoriais: as consequências distribuem-se globalmente, como no caso das políticas de modernização realizadas a partir do final da Segunda Guerra Mundial e início da Guerra Fria.
Capítulo 2. Argumento da homogeneidade valorativa dos pesquisadores como desvantajosa para a pesquisa: pesquisadores com características homogêneas tendem a apresentar menor capacidade de reconhecimento dos valores e dos interesses que estruturam suas próprias pressuposições, políticas e práticas.
Capítulo 3. Argumento da objetividade forte: a crítica de pressupostos sexistas e androcêntricos resultou na proposta de pesquisa exercida a partir de baixo e, consequentemente, da objetividade forte, pois nela a diversidade das situações sociais é levada em consideração.
Capítulo 4. Argumento de confiabilidade do conhecimento tradicional: derivado dos estudos pós-coloniais da ciência e da tecnologia, parte do reconhecimento da influência recíproca entre a ciência e a sociedade em que ela está situada e na qual ela é produzida.
Capítulo 5. Argumento da escolha política e historicamente situada da perspectiva da ciência livre de valores: as políticas de desenvolvimento e a pesquisa científica nos moldes ocidentais impuseram-se de modo quase exclusivo, sugerindo a ideia de unidade. No entanto, tal imposição é concebida por posturas críticas como corroborando a formação do caráter triunfal e excepcional da ciência do ocidente. Embora a ideia da unidade da ciência esteja relacionada aos primórdos do Círculo de Viena, houve um esvaziamento do significado político de tal proposta.
Capítulo 6. Argumento do secularismo ocidental: o secularismo moderno ocidental, cristão e protestante em alguns aspectos, impacta na produção de conhecimento. Ademais, o conhecimento tradicional avança, mesmo que imerso em crenças religiosas.
Além disso, o argumento de que a ciência e as sociedades são coproduzidas e constituem-se mutuamente é trabalhado especialmente no capítulo 7 e também nos capítulos 1, 2, 3 e 6. Derivado dos estudos sociais da ciência e da tecnologia e desenvolvido a partir dos movimentos feministas e de contestação da discriminação racial e de classe; este é o argumento principal da autora, já que prepara a defesa mais direta da objetividade forte e da proposta de uma ciência com consequências intelectuais e políticas em consonância com a diversidade (cf. p. 18-22, 24, 27, 53, 71, 148).
1 A QUESTÃO DA OBJETIVIDADE
Harding afirma que a objetividade trata do papel dos valores e dos interesses envolvidos na atividade científica, que pode variar desde o não reconhecimento desse papel até o seu pleno reconhecimento, que é a proposta que defende (cf. p. 35-6). O tema da objetividade torna-se relevante desde Galileu Galilei (1564-1642), perpassando o movimento iluminista (séc. XVIII) e, em nossos dias, estaria especialmente associado à produção científica. Atualmente, no entanto, apresenta-se como dominante a perspectiva da ciência livre de valores e, desse modo, nega-se a influência dos valores e dos interesses na atividade científica.
A partir do final da Segunda Guerra Mundial os países vencedores multiplicaram as políticas de desenvolvimento em relação aos países menos desenvolvidos (ou do sul global) (cf. p. 1-2). O propósito era o de expandir a ciência e a tecnologia, para impedir o avanço da ideologia comunista. Acreditava-se que, supridas as necessidades humanas, não haveria lugar para o desenvolvimento do ímpeto revolucionário.
As ciências sociais demostraram a manutenção e mesmo o agravamento da situação dos grupos vulneráveis em termos econômicos, políticos e sociais, ao explicitarem o baixo benefício social obtido por essas políticas. Elas revelaram-se especialmente nocivas às mulheres e às crianças do sul global, ou dos países em desenvolvimento, que passaram por processo de gradativa pauperização concomitantemente aos investimentos em desenvolvimento econômico, cujos benefícios foram, por sua vez, absorvidos em grande parte por elites locais. Além disso, a crise financeira dos anos 1980 mudou as exigências do Banco Mundial, que impôs a suspensão dos investimentos em serviços sociais, forçando os países devedores a pagarem os empréstimos.
Especificamente o debate relativo à mulher, ao gênero e ao desenvolvimento iniciou-se com a publicação do livro Woman’s role in economic development, de Ester Boserup (1970). Ela atribui o empobrecimento das mulheres ao fato de elas não terem recebido a mesma educação técnica dos homens. Segundo Harding, com exceção do trabalho de Amartya Sen (1990), ainda existe pouca influência das críticas levantadas por Boserup no contexto das investigações sobre desenvolvimento (cf. p. 56).
Contemporaneamente, em virtude da baixa distribuição dos benefícios sociais, os movimentos de justiça social defendem a transformação da produção de conhecimento, pois isso permitiria a visualização das injustiças provocadas pelas políticas de desenvolvimento. Harding questiona, assim, se não seria mais benéfico socialmente, ao invés de negarmos a presença dos valores e dos interesses na produção de conhecimento (perspectiva da ciência livre de valores), escolhermos conscientemente os valores e os interesses que derivem das necessidades locais dos grupos em situação de vulnerabilidade.
A partir desse questionamento tornam-se claras as opções quanto à objetividade científica: por um lado, a objetividade fraca, aquela já praticada predominantemente pela ciência, contribuindo para a invisibilidade de populações histórica e socialmente oprimidas, devido ao não reconhecimento dos valores e interesses envolvidos; por outro lado, a proposta de Harding de objetividade forte requer dar visibilidade aos grupos oprimidos, tomando-os como participantes da pesquisa e não apenas como objetos de investigação ou como consumidores dos seus resultados. Doravante, então, o benefício social ganharia o seu real significado, dada a atenção às necessidades apontadas por tais sujeitos, especialmente naquelas pesquisas que impactam diretamente em suas vidas.
É justamente nesse ponto que a diversidade ganha importância central e corrobora o sentido da promoção da objetividade forte, devido à necessidade de inclusão dos grupos social, política e economicamente excluídos no processo de decisão. Assim, incluir a diversidade exige o reconhecimento de valores e de interesses além dos dominantes, promovendo uma “ciência participativa” (p. xi). Para o cientista, social ou natural, o reconhecimento de interesses e valores diversos aos seus requer não apenas uma sensibilização quanto à opressão a que são submetidas parcelas significativas do contingente populacional, mas também o reconhecimento dos sujeitos como efetivamente participantes da pesquisa. As populações vulneráveis teriam algo a dizer, por exemplo, sobre suas próprias necessidades e ainda sobre o modo de supri-las.
Desse modo, Harding concentra sua análise na objetividade da pesquisa em termos dos métodos e das metodologias empregadas, embora reconheça, assim como Alan Megill (1991), que existem outras três dimensões da objetividade, a saber: a que considera determinados grupos como presumivelmente mais objetivos (centrada recorrentemente no homem branco ocidental), a que se concentra nos resultados da pesquisa e, finalmente, a centrada nos ideais, padrões e práticas necessárias ao reconhecimento de determinadas comunidades como científicas.
Através da abordagem que privilegia os métodos e metodologias utilizadas na produção do conhecimento, Harding visa promover a objetividade forte que, segundo a autora, decorre dos movimentos de justiça social e, ao mesmo tempo, proclama a necessidade de desenvolvimento da “ciência a partir de baixo” (cf. p. 36, 119). Mesmo sensível aos valores e interesses de grupos vulneráveis, a objetividade forte não requer o descarte dos padrões de conhecimento confiável apresentados pela filosofia da ciência contemporânea, dado que eles permanecem como requisitos epistemológicos.
2 A OBJETIVIDADE FORTE
A partir das discussões desenvolvidas pelas feministas nas décadas de 1970 e 1980 emergiu uma nova forma de maximização da objetividade, exigindo critérios mais fortes que os anteriores, pois estes permitiram a instalação de pressupostos e práticas sexistas e androcêntricas nas pesquisas, por exemplo, da biologia e das ciências sociais.
A etnografia é exemplar desses esforços críticos, tendo, na década de 1970, procurado demonstrar a confiabilidade das pesquisas qualitativas, em um contexto que considerava a pesquisa quantitativa como promotora da ciência livre de valores e, portanto, da objetividade fraca.
Além disso, os pressupostos androcêntricos prejudicaram o desenvolvimento da objetividade forte. Na biologia, na pesquisa médica e na saúde, por exemplo, o corpo feminino foi concebido como distinto do masculino devido aos sistemas hormonal e reprodutivo, bem como pelo tamanho menor do cérebro e aparente limitação das funções cerebrais femininas. A menstruação, a gravidez, o parto e a menopausa foram tratados como problemas cuja solução é provida pelas indústrias médica e farmacêutica. Outro caso advém das ciências sociais, em que a atividade e os comportamentos femininos sequer foram tratados, ou foram mal representados, insinuando que apenas as relações de gênero importavam na representação da condição das mulheres.
Finalmente, na epistemologia, na filosofia da ciência, na sociologia do conhecimento e na teoria política, começaram a emergir as teorias do ponto de vista (standpoint theories). Precedidas pela análise do proletariado realizada pelo marxismo, as feministas procuraram demostrar que as sociedades baseadas em estruturas desiguais tendem a expressar o conhecimento e as crenças dos grupos dominantes.
Resumidamente, o que se considerava maximizar a objetividade nas investigações sociais e naturais eram, na verdade, estereótipos sexistas e androcêntricos, que, segundo as feministas, restringiam o processo de pesquisa. Assim, a teoria do ponto de vista propôs iniciar a pesquisa fora do quadro conceitual dominante, tal como no caso da vida cotidiana dos grupos oprimidos, entre os quais se situam as mulheres. O reconhecimento da multiplicidade de valores e de interesses envolvidos, bem como a abordagem localmente específica dos mesmos, reforça a objetividade forte, visibilizando grupos vulneráveis.
A objetividade forte derivada das teorias do ponto de vista promove o reconhecimento de que a ciência é praticada em um mundo real, descartando a abstração de uma ciência totalmente controlada pela razão. Desse modo, considera prejudicial à pesquisa a homogeneidade dos pesquisadores, que muitas vezes refletem práticas convencionais da ciência livre de valores. Harding explicita, assim, que as críticas feministas e a promoção da objetividade forte estão alinhadas aos pressupostos dos estudos sociais da ciência e da tecnologia (social studies of science and technology).
Embora a objetividade esteja sujeita a diferentes abordagens (a metodológica, as que presumem certos grupos como mais objetivos, a concentrada nos resultados da pesquisa, e a centrada em ideais, padrões e práticas necessárias ao reconhecimento das comunidades científicas), ela é utilizada em certos contextos para caracterizar a capacidade ou a incapacidade de determinados indivíduos e grupos para realizá-la. O que, não por acaso, exclui mulheres, afro-americanos e o conhecimento tradicional não ocidental, por afirmá-los como condicionados pelo autointeresse e pela subjetividade (cf. p. 32).
Diversamente, o método apropriado de produção de conhecimento é aquele capaz de dar visibilidade aos valores sociais, aos interesses e aos pressupostos que os pesquisadores agregam à pesquisa. Porém, nas situações em que esses mesmos valores, interesses e pressupostos parecem ser compartilhados por praticamente todos os pesquisadores, como é o caso da supremacia masculina e do eurocentrismo, a tendência é a formação da objetividade fraca, por promoverem, aparentemente, o que a filosofia tradicional chamou de “visão a partir de lugar nenhum” (p. 34, 36).
3 A FUNÇÃO DA DIVERSIDADE NA NOVA LÓGICA DA PESQUISA
A nova lógica da pesquisa proposta por Harding requer, então, uma inversão de prioridades. Ao invés de as pesquisas reforçarem valores (ocidentais, brancos e masculinos) e interesses (políticos e econômicos relacionados ao desenvolvimento), priorizam-se nos métodos empregados os valores e interesses daqueles para os quais a pesquisa em ciência e tecnologia é dirigida. Segundo Harding, um modo de realização da objetividade forte é, justamente, a reintrodução da diversidade valorativa nas comunidades de pesquisa.
Porém, é preciso deixar claro que nem toda perspectiva diversa interessa. Não existe interesse, por exemplo, na perspectiva neonazista ou da supremacia branca. Promove-se, assim, de modo especial a perspectiva
(…) das pessoas pobres, de “minorias” étnicas e raciais, de pessoas de outras culturas, de mulheres, de minorias sexuais e de pessoas com deficiências (…), perspectivas de diversidade mais amplamente utilizadas a partir das quais as reivindicações de conhecimento dominantes em todas as disciplinas começaram a ser reavaliadas (p. 36).
Além da identificação dos pressupostos dominantes na pesquisa, é preciso fazê-la avançar no conhecimento do que as comunidades particulares desejam e do que muitas vezes necessitam. A partir dessa perspectiva, Harding apresenta uma nova lógica da investigação, apoiada na epistemologia e na metodologia do ponto de vista. Embora a expressão “lógica da investigação” esteja especialmente associada aos positivistas lógicos, a autora a utiliza em sentido comum, entendendo-a como procedimento razoável de aquisição de conhecimento, capaz de incluir, por exemplo, o conhecimento tradicional no rol das pesquisas científicas.
Torna-se elucidativo retomar a questão do empobrecimento das mulheres e de seus dependentes que, segundo Harding, ocorre também nos países do norte industrializado. A teoria do ponto de vista permite o reconhecimento da atribuição dos encargos domésticos às mulheres, levando em conta as políticas de modernização desenvolvidas depois da Segunda Guerra Mundial e mantidas por quase quatro décadas depois, o que cria obstáculos para que elas invistam seu tempo em trabalhos assalariados realizados fora do ambiente doméstico.
Outro exemplo advém da demografia, que durante décadas correlacionou a pobreza a altos índices de natalidade, atribuindo a culpa do aumento da população à ignorância e à irresponsabilidade reprodutiva feminina. Além disso, dado que o trabalhador modelo das teorias de desenvolvimento são homens adultos empregados na indústria –, portanto, fora do ambiente doméstico – e sem filhos, torna-se invisível o trabalho doméstico feminino, bem como seu trabalho de meio-período ou sazonal, realizado fora do ambiente familiar. É o que levou Alison Jaggar (2009) a afirmar que a vulnerabilidade do trabalho assalariado feminino produz o recrudescimento de sua vulnerabilidade doméstica (cf. p. 66).
Nesse sentido, a perspectiva do ponto de vista aplicada ao contexto do trabalho permite o reconhecimento dos pressupostos androcêntricos de desvalorização do trabalho doméstico, bem como a identificação do modelo de trabalhador-padrão (homem, empregado na indústria e sem filhos), que é claramente excludente das mulheres. Dessa forma, critica-se a forma tradicional de compreender a economia doméstica a partir da adoção de ponto de vista oposto, sendo preciso incorporar à abordagem os outros agentes sociais (mulher, esfera doméstica e filhos), ausentes na visão promovida pelo predomínio da perspectiva androcêntrica.
4 O CONHECIMENTO TRADICIONAL É CONfiÁVEL
Além das questões de gênero, outro embate da perspectiva do ponto de vista é com o eurocentrismo. Embora não reconhecido como ciência pelos cientistas e pela maioria dos filósofos, o conhecimento tradicional de povos nativos, tal como as observações que fazem do meio ambiente, são utilizados pela ciência ocidental ao menos desde 1492 até o presente.
O baixo reconhecimento reforça a visão excepcional e triunfalista da ciência moderna ocidental, ainda mais se consideramos sua afirmação de que o conhecimento tradicional é apenas mito, magia ou superstição. Contudo, antes do contato com os colonizadores, as sociedades primitivas já existiam e produziam conhecimento, mesmo que posteriormente tenham angariado benefícios científicos e a expertise técnica pelo contato com os colonizadores.
De modo a reconhecer o caráter epistemologicamente confiável do conhecimento tradicional, Harding trata do exemplo de navegação dos Micronésios, que é trabalhado por Ward Goodenough (1996), e do exemplo dos caçadores de gansos canadenses, analisado por Colin Scott (1996).
Quanto aos navegadores das ilhas Micronésias do Pacífico, é notório que conseguem não apenas navegar em canoas abertas, como também efetivamente retornar para casa, o que demonstra conhecimento de navegação relacionado à astronomia, à climatologia, à oceanografia e à cartografia.
Já os caçadores de gansos Cree, procedentes da Bahia de James, Canadá, desenvolveram técnicas de caça não predatórias, mantendo o abastecimento com base em uma compreensão igualitária entre gansos e humanos, segundo a qual a caça só se entrega aos caçadores quando neles identifica o respeito de suas necessidades, por exemplo, ambientais.
Assim, o reconhecimento do modo como os caçadores Cree se relacionam com a caça e com o mundo como uma prática científica depende de se identificamos a ciência como universal ou culturalmente específica. Caso seja sufi ciente como critério de cientificidade a realização de atividade que extrai inferências dedutivas de premissas e que as verifica deliberada e sistematicamente na experiência, levando a ajustes dos modelos de mundo conforme as regularidades observadas, então, sim, eles realizariam ciência.
Mesmo o ponto de vista religioso, sobre o qual muitas vezes o conhecimento tradicional se assenta, não é considerado impeditivo para o avanço da ciência ocidental. Pois, ainda que buscando diferenciar as duas formas de produção de conhecimento, “(…) resulta que esses dois legados culturais, incluindo, por exemplo, os compromissos especificamente cristãos e mesmo protestantes do ocidente, são frequentemente produtores do avanço do conhecimento científico” (p. 89), o que pode ser exemplificado pela física, pela química e pela genética.
Em suma, o conhecimento tradicional representa o mundo natural, que é administrado pela cultura tradicional, de modo correspondente aos anseios e necessidades locais. Inclui elementos de antropomorfismo, religiosos e espirituais, sem que se tornem radicalmente distintos do conhecimento científico ocidental, conclusão essa reforçada pela ideia de que a ciência ocidental moderna desenvolve um secularismo resultante da hibridização do cristianismo e do protestantismo.
5 O SECULARISMO E A FALTA DE UNIDADE DA CIÊNCIA
A tese do secularismo está associada à proposta de unidade da ciência do Círculo de Viena, devido à busca de critério de demarcação entre ciência e não ciência. Reforçouse também um posicionamento desencantado da ciência ocidental moderna, admitindo o homem como responsável pela melhoria das suas condições de vida e a ciência como instrumento central nesse processo.
Desse modo, o secularismo levou à rejeição de sistemas de conhecimento não ocidentais. Mas críticas posteriores de intelectuais do sul global explicitaram que, na verdade, o secularismo do norte global deriva da influência cristã e protestante, que secularizou práticas cristãs ao tornar individuais os compromissos e as práticas religiosas, ao desfazer a relação entre os compromissos religiosos e as cerimônias coletivas, bem como ao transferir as experiências religiosas ao âmbito privado.
Além disso, o secularismo híbrido da ciência ocidental provoca duas consequências políticas indesejáveis: o racismo e a violência colonial. Por exemplo, Sullivan (2010) afirma que questões relevantes para a filosofia da religião não são signifi cativas para populações negras que associaram a religião ocidental à supremacia branca, o que acaba por criar um clima hostil para essas populações não brancas (cf. p. 135). Quanto à violência colonial, Jakobsen e Pellegrini (2008) afirmam que os que resistem ao secularismo dominante (híbrido cristão e protestante) são vistos como ameaça à moralidade cristã, o que transforma os não resistentes em agentes reforçadores da proposta civilizatória ocidental. Nesse sentido, a falta de unidade da ciência pode ser reconhecida, inclusive, como benéfica à objetividade forte, já que implica, em termos políticos, a inclusão de diferentes grupos sociais, tais como os judeus, os homossexuais, os ciganos e os socialistas, grupos estes diretamente perseguidos ou mesmo gradualmente silenciados na Segunda Guerra Mundial e na Guerra Fria (cf. p. 118).
Ecos da discussão sobre a falta de unidade da ciência estiveram presentes na “guerra das ciências” no final da década de 1990. Nela os posicionamentos das feministas e dos pós-modernos foram considerados como encorajamento ao irracionalismo e desrespeitosos em relação ao benefício público obtido a partir da pesquisa científica, o que poderia levar à diminuição dos investimentos.
Na filosofia, Paul Feyerabend (1975) apresenta a primeira crítica antiautoritária na filosofia da ciência, paralelamente às considerações de Thomas Kuhn (1970) que reconhecem as várias linguagens e representações de mundo disponibilizadas pelas mudanças de paradigma. Porém, Harding considera com especial atenção a obra de Georg Reisch (2005), por sua elucidação das conexões políticas do argumento da unidade da ciência.
A concepção da unidade da ciência prevalescente nos anos de 1950 não era a pretendida pelo Círculo de Viena. Formado originalmente por participantes alinhados ao socialismo e por judeus, sua discussão sobre a unidade da ciência apresentava implicações políticas claras, que foram posteriormente esvaziadas, contribuindo para o estabelecimento da tese da ciência livre de valores (cf. p. 114). Disso resulta a aproximação da discussão sobre a falta de unidade da ciência e das críticas pós-coloniais à ciência (cf. p. 115), já que tais críticas admitem a multiplicidade política inclusive nos contextos de produção de conhecimento.
Por esses e outros motivos o caráter excepcional e triunfalista da postura secular ocidental precisa ser repensado, tendo em vista a promoção de uma filosofia da ciência com consequências intelectuais e políticas melhores, tal como prefigurado pelos defensores da falta de unidade da ciência. Desse modo, a falta de unidade da ciência alinha-se também aos objetivos democráticos do multiculturalismo.
QUESTÃO FINAL
O leitor encontra na obra Objectivity and diversity a defesa e a visibilidade de situações de gênero ricamente exemplificadas por pesquisas científicas, como no caso da situação do trabalho feminino frente às políticas de modernização; e também a defesa racional da objetividade forte, distanciando-se, assim, de um ativismo feminista passional. A obra é crítica e propositiva, dirigindo-se para uma nova concepção de ciência, o que requer, evidentemente, tanto o escrutínio dos pares (filósofos, cientistas sociais, sociólogos etc.) quanto dos cientistas que busquem aplicar em suas pesquisas a epistemologia e a metodologia do ponto de vista.
Cabe ressaltar que Harding pressupõe que a ciência e as sociedades se coproduzem-se e constituem-se mutuamente, fazendo com que a produção do conhecimento torne-se cada vez menos baseada em uma estrutura hierarquizada, afastando-se de pretensões universalistas nos seus resultados. Para atingir esse resultado é preciso adotar a nova lógica da pesquisa: a perspectiva do ponto de vista, pois nela o investigador e o investigado são colocados em condição de igualdade, apontando para graus de participação na pesquisa, que se volta aos valores e interesses dos grupos vulneráveis e localmente considerados.
Desse modo, a proposta de Harding apresenta-se como alternativa às pesquisas centradas na universalidade abstrata, que é imposta aos contextos investigados, tornando invisíveis o gênero, a raça e outros fatores socialmente relevantes. Ela requer pesquisas alternativas que considerem particularidades concretas e, assim, atribui função para populações vulneráveis na produção do conhecimento, integrando suas necessidades como relevantes ao método de investigação e promovendo uma ciência participativa a partir de baixo.
No entanto, mesmo as pesquisas que aplicam a epistemologia e a metodologia do ponto de vista, visibilizando grupos vulneráveis, dirigem-se à realização de objetivos tão particulares quanto as pesquisas com pressupostos androcêntricos. Assim, estaríamos diante da situação em que tanto uma quanto outra pesquisa são relevantes? E, nesse sentido, seria possível substituir a objetividade fraca pela forte, ou a objetividade forte, para ser identificada como tal, precisa estar sob o pano de fundo de sua adversária?
Tais perguntas apontam para um aspecto pouco explorado pela obra, a saber, o da diversidade da pesquisa que não é atingida por uma pesquisa em particular, mas por várias pesquisas científicas, por vezes imersas em compromissos epistêmicos, políticos e valorativos conflitantes entre si. Talvez a ideia que melhor expresse a proposta de Harding quanto à inclusão da diversidade seja, então, a de estratégia de pesquisa, defendida por Hugh Lacey (cf. 1999, 2005, 2008, 2010) e os desenvolvimentos do modelo da interação entre a atividade científi ca e os valores explicitados por Lacey e Mariconda (2014).
Tal como Lacey, Harding peleja diretamente contra a perspectiva da ciência “livre de valores”, defendendo o reconhecimento da influência dos valores na atividade científica; contudo a autora não explicita, como Lacey o faz, que tipo de valores (cognitivos e não cognitivos) influenciam e devem influenciar a pesquisa e em qual etapa da investigação tal influência é legítima para a produção de conhecimento científico confiável.
Reforce-se ainda a ideia de que a estratégia de pesquisa – na expressão de Lacey – identificada por Harding é a da diversidade, adotada a partir das teorias do ponto de vista. Desse modo, ela privilegia em sua proposta valores concernentes a populações histórica e politicamente vulneráveis, tais como as mulheres, os negros, as populações tradicionas, bem como as pertencentes ao sul global. Estas expressam, cada uma a sua maneira, valores e necessidades próprios, que apresentam dificuldades para serem todos incluídos em uma única pesquisa.
Portanto, a homogeneidade dos pesquisadores não seria nociva apenas ao reconhecimento da tendenciosidade a que tais pesquisas estão sujeitas, mas igualmente para o alcance de um conhecimento mais abrangente produzido a partir de várias pesquisas científicas engajadas na mesma estratégia que, para Harding, é a de sensibilização do pesquisador em relação à diversidade valorativa e política das populações vulneráveis.
Referências
BOSERUP, E. Women’s role in economic development. London: Earthscan, 1970.
FEYERABEND, P. Against method. London: New Left Press, 1975.
GOODENOUGH, W. H. Navigation in the Western Carolines: a traditional science. In: Nader, L. (Ed.). Naked science: anthropological inquiry into boundaries, power, and knowledge. New York: Routledge, 1996. p. 29-42.
HARDING, S. Objectivity & diversity: another logic of scientific research. Chicago/London: The University of Chicago Press, 2015.
JAGGAR, A. Transnational cycles of gendered vulnerability: a prologue to a theory of global gender justice. Philosophical Topics, 37, 2, p. 33-52, 2009.
JAKOBSEN, J. R. & Pellegrini, A. (Ed.). Secularisms. Durham, NC: Duke University Press, 2008.
KUHN, T. S. The structure of scientific revolutions. 2 ed. Chicago: University of Chicago Press, 1970.
LACEY, H. Is science value free? Values and scientific understanding. London: Routledge, 1999.
_____. Values and objectivity in science. The current controversy about transgenic crops. Oxford: Lexington Books, 2005.
_____. Valores e atividade científica 1. 2. ed. São Paulo: Associação Filosófica Scientiae Studia/ Editora 34, 2008.
_____. Valores e atividade científica 2. São Paulo: Associação Filosófica Scientiae Studia/ Editora 34, 2010.
LACEY, H. & Mariconda, P. R. O modelo das interações entre as atividades científicas e os valores. Scientiae Studia, 12, 4, p. 643-68, 2014.
MEGILL, A. Rethinking objectivity. Annals of Scholarship, 8, 3, 1991. p. 301-28.
NADER, L. (Ed.). Naked science: anthropological inquiry into boundaries, power, and knowledge. New York: Routledge, 1996.
REISCH, G. A. How the cold war transformed science: to the icy slopes of logic. Cambridge: Cambridge University Press, 2005.
SCOTT, C. Science for the west, myth for the rest? In: Nader, L. (Ed.). Naked science: anthropological inquiry into boundaries, power, and knowledge. New York: Routledge, 1996. p. 69-86.
SEN, A. More than 100 million women are missing. New York Review of Books, 20, p. 61-66, 1990.
SULLIVAN, S. The secularity of philosophy: race, religion, and the silence of exclusion. In: Yancey, G. (Ed.). The center must not hold: white women philosophers on the whiteness of philosophy. Lanham: Lexington Books, 2010. p. 153-66.
YANCEY, G. (Ed.). The center must not hold: white women philosophers on the whiteness of philosophy. Lanham: Lexington Books, 2010.
Débora Aymoré – Núcleo de Estudos da Cultura Técnica e Científica, Departamento de Filosofia. Universidade Federal do Paraná, Curitiba, Brasil. E-mail: deboraaymore@gmail.com
[DR]
Philosophy of experimental Biology – WEBER (SS)
WEBER, Marcel. Philosophy of experimental Biology. Cambridge: University Press Cambridge, 2005. Resenha de: ESPOSITO, Maurizio. Marcel Weber y la filosofía de la biología experimental: la cultura material de las ciencias entre pasado y futuro. Scientiæ Studia, São Paulo, v.15, n. 2, p. 489-498, 2017.
En principio no era la palabra, sino la acción, sostenía el Fausto en la famosa obra de Goethe. No hay mejor referencia para introducir este nuevo enfoque que, a partir de los años 1980, caracteriza la historia y filosofía de las ciencias (cf. Knorr-Cetina, 1981; Pickering, 1992). Es decir, la idea que la actividad experimental no se sigue simplemente de la necesidad de poner a prueba hipótesis bien formuladas, sino tiene una vida autónoma e independiente de la especulación teórica. Hacer experimentos no significa solo acertar teorías, sino también aprender a contener errores en la intervención sobre artefactos y entidades naturales y, al mismo tiempo, generar protocolos aptos a producir y controlar nuevos fenómenos. Además, la introducción de nuevas tecnologías, nuevas técnicas experimentales y nuevas herramientas, hacen posible el desarrollo de nuevos conceptos, teorías e hipótesis. En este sentido, la actividad experimental toma una importancia primordial en la generación y modificación del conocimiento científico. Si la acción puede ser anterior a la palabra, a la teoría o al razonamiento formal, la reflexión filosófica sobre la actividad experimental debe desprenderse de muchos de los análisis clásicos en filosofía de la ciencia, los cuales se han concentrado en los aspectos lógicos o conceptuales de la empresa científica.
El libro de Weber se debe situar en esta tradición que, durante más de tres décadas, produce trabajos que analizan las relaciones entre manos y mentes, técnicas e ideas, materias y formas. El autor decide juntar dos temas raramente relacionados por los filósofos de la ciencia: el experimentalismo y la filosofía de la biología. Si la última, como sub-disciplina de la filosofía de la ciencia, ha sido ampliamente dominada por temas conceptuales (principalmente ligados a la teoría evolutiva), el autor extiende considerablemente su alcance. En lugar de enfocarse en discusiones sobre niveles de selección, leyes evolutivas, genes egoístas o cooperativos, el autor se mueve entre el análisis del descubrimiento del ciclo de Krebs a la teoría de la fosforilación oxidativa y otros casos relativos a la genética molecular, neurobiología y biología del desarrollo. El análisis detallado de casos específicos, sostiene Weber, consiste en explorar diferentes dimensiones pragmáticas de la formulación de conceptos y teorías y, al mismo tiempo, permite mostrar cómo enfocarse en la cultura experimental puede tener un impacto relevante sobre algunos temas tradicionales de la filosofía de la ciencia (desde el reduccionismo a la naturaleza de la explicación).
Ahora, más que una reseña crítica del libro, el presente texto tiene también otra ambición; al reflexionar sobre algunos temas que Weber introduce en el libro, se pretende presentar algunas tareas pendientes, que, en mi opinión, son importante para el desarrollo de una nueva filosofía de la cultura experimental. De hecho, para entender una ciencia como la biología, cada vez más dependiente de las tecnologías, y estrechamente relacionada con artefactos de laboratorio, es necesario revisar detenidamente muchos de los asuntos inherentes a la filosofía de la ciencia tradicional. Más allá de la crítica convencional, ahora rutinaria y en mi opinión largamente descarriada, del empirismo lógico y racionalismo crítico, se requiere una reflexión seria sobre qué significa generar y justificar conocimiento derivado directamente de la actividad experimental y el trabajo de Weber nos lleva en esta dirección. En general, podemos dividir el libro en dos partes. Una parte más tradicional y una parte que enfrenta temas que solo recientemente han generado un cierto interés en la comunidad de los filósofos de la ciencia. Por un tema de espacio e interés me concentraré principalmente en la segunda parte, aunque mencionaré brevemente, por razones de claridad, el contenido de la primera.
Weber empieza su discusión analizando algunos temas clásicos en filosofía de la ciencia: reduccionismo, la naturaleza de la explicación, y la relación entre teoría y evidencia. La discusión toma sus primeros cinco capítulos, los cuales mezclan descripciones de casos históricos en las ciencias biológicas con sofisticados análisis filosóficos. Me parece que hay por lo menos tres conclusiones muy relevantes que mencionar: primero que en las ciencias experimentales en biología, el enfoque reduccionista es preponderante. Sin embargo, el reduccionismo de los experimentalistas no tiene mucho que ver con la teoría nageliana de la reducción inter-teórica, sino con la aplicación de teorías y leyes físico-químicas a sistemas muy específicos y bien delimitados. La tarea del científico experimental no es, por lo tanto, reducir una teoría de nivel superior a una teoría de un nivel más básico, sino entender las relaciones causales en un sistema a través de un análisis manipulativo de sus elementos básicos (p. 49). Otra conclusión que me parece notable es la idea que la justificación de una hipótesis en el contexto de la biología experimental no toma la forma inductiva clásica de añadir evidencia relevante a través de modelos bayesianos (o no bayesianos), sino de controlar posibles errores adentro de un mismo sistema experimental, a saber, eliminar ambigüedades y posibles artefactos, así como reducir las explicaciones posibles respecto a un fenómeno dado (p. 122-3). Finalmente, la tercera conclusión que quiero señalar es la idea que no existe una lógica única para la generación de nuevas teorías en biología experimental. No hay un algoritmo racional que pueda guiar al investigador en la formulación de hipótesis fundamentadas, sino que cada disciplina provee sus propias reglas y sus propios procedimientos experimentales y conceptuales de validación. Esto, por supuesto, reduce las ambiciones racionalistas de ciertas filosofías, sin embargo, no excluye la posibilidad que haya racionalidades intrínsecas a cada disciplina que busquen obtener resultados rigurosamente probados. No hay racionalidad universal pero tampoco arbitrariedad general. La primera y segunda conclusiones me parecen originales y heurísticamente abiertas a nuevas discusiones. La tercera conclusión concuerda perfectamente con lo que han mostrado los historiadores de la ciencia en las últimas décadas.
A partir del capítulo 5 del libro, Weber introduce algunos de los temas principales del llamado “nuevo experimentalismo”. Aquí entramos en el terreno de los estudios más recientes en historia y filosofía de las ciencias. Aunque algunos lectores pueden encontrar ciertas dificultades para conectar la primera parte con la segunda, la idea general del autor, me parece, es que la nueva filosofía de la ciencia, más historicista y menos interesada a los procesos lógicos de justificación teórica, se pueda complementar con la visión anterior, más tradicional. En otras palabras, no hay una contradicción necesaria entre un enfoque analítico e historicista, sino una relación virtuosa. Los mayores interlocutores que Weber elige en su discusión son Ian Hacking, Robert Kohler y Hans-Jorg Rheinberger. La crítica que Weber instaura en contra de estos autores me parece muy instructiva y útil para entender algunos de las implicancias de una nueva filosofía experimental de las ciencias naturales. Es decir, el estatus de las entidades teóricas involucradas en la actividad experimental (Hacking), las metáforas empleadas para describir la misma actividad experimental y sus objetos de investigación (Kohler) y la contingencia, presumida o real, de los sistemas experimentales y, por lo tanto, de los conocimientos teóricos ligados a esos últimos (Rheinberger). Por un motivo de orden argumentativo, empezaré con Kohler y terminaré con Hacking, aun cuando este no sea el orden de Weber.
En su libro clásico, Lord of the fly, Drosophila genetics and the experimental life (1994), Kohler propone una interpretación sociológica de la actividad experimental en biología. Si hay un paradigma ideal de la biología experimental moderna, ese es el laboratorio de Thomas Hunt Morgan y su organismo modelo: la Drosophila. Kohler usa conceptos económicos y tecnológicos no solo para describir las acciones experimentales, sino para definir la misma Drosophila, la cual se ve como una herramienta ideal capaz de producir miles de secuencias genéticas. El “organismo-herramienta”, para cumplir su función de manera eficiente, es meticulosamente moldeado y producido a través de múltiples cruces. Ahora, precisamente porque la Drosophila de Morgan no se encuentra en su estado natural, sino que es un producto artificial de laboratorio (un artefacto), el organismo puede ser definido como una tecnología productiva de conocimiento. Sin embargo, Weber encuentra que las metáforas económicas y tecnológicas kohlerianas tienen límites importantes. Los organismos no se pueden ver o definir como herramientas porque, (a) no son construcciones propiamente humanas, sino el resultado de su intervención y, (b) a diferencia de un instrumento de medición, son ellos mismo los objetos de investigación (p. 170). Por lo tanto, las metáforas de Kohler no nos pueden iluminar realmente sobre el papel epistémico de los organismos experimentales. Mejor hablar, Weber sugiere, de “experimentación preparativa”; es decir, la preparación del material de investigación (lo cual puede incluir células, organismos, proteínas) y los conocimientos para manipular estos objetos (p. 174). En otras palabras, el conjunto de técnicas, entidades y herramientas, las cuales prevén un tiempo de aprendizaje y elaboración, se puede definir como “experimentación preparativa”. Estos recursos o acciones son la condición para que la investigación propiamente tal (producción de teorías y justificación de nuevas hipótesis) pueda desplegarse. En este sentido, la generación de Drosophilas aptas a exigencias experimentales específicas no se debe ver en términos de producción de herramientas de investigación, sino como un momento dentro de un proceso de “experimentación preparativa”.
Lo que encuentro problemático en la propuesta de Weber es, primero, su a-historicidad y, segundo, su definición muy estricta de “herramienta”, vista simplemente como un objeto inorgánico creado por los seres humanos con funciones muy específicas (sextantes, detectores de ondas gravitacionales, microscopios o computadores). Sin embargo, ¿Por qué no considerar que la Drosophila es, al mismo tiempo, un objeto y una herramienta de investigación? Es un objeto que, como organismo, conserva un cierto grado de autonomía. Pero también una herramienta, visto el alto grado de intervención humana que esta entidad contiene y su lugar estratégico y pragmático adentro de un sistema productivo de conocimiento. Esta no es simplemente una discusión escolástica sobre el estatus ontológico de un objeto de laboratorio. La discusión cruza un tema tremendamente relevante para la cultura experimental moderna; a saber, la relación co-productiva entre artefacto y objeto natural y, más en general, entre naturaleza y artificio. Si Abraham Trembley o Lazzaro Spallanzani hacían experimentos sobre organismos que no eran seleccionados previamente, los organismos modelos del siglo xx son entidades altamente intervenidas. Debido a lo anterior, pienso que las metáforas de Kohler son heurísticamente interesantes, dado que evidencian una novedad histórica sustancial. Es decir, el objeto de experimentación en el siglo xx es, él mismo, un artificio (o casi). De aquí se origina una tarea de investigación novedosa y relevante: ¿Cuál es y cómo cambia la frontera entre artefacto y hecho natural en el contexto del experimentalismo? ¿Cómo y en qué medida los científicos establecen y negocian estos límites? ¿En qué sentido un lugar extremadamente artificial como un laboratorio, puede producir hechos naturales? En relación a esto, creo que hay una pregunta filosófica más difícil y profunda: ¿Cómo podemos creer en la independencia de los hechos naturales cuando estos últimos solo emergen a partir del uso interactivo y continuado de herramientas artificiales? En suma, me parece que mientras la solución de Weber es una descripción a-histórica de la actividad experimental que no permite apreciar las novedades de las prácticas experimentales del siglo xx, la propuesta de Kohler abre una serie de preguntas relevantes sobre la unicidad del experimentalismo contemporáneo.
Muchas de estas preguntas atraviesan directamente el trabajo de Rheinberger sobre los sistemas experimentales del siglo xx. Sin embargo, el foco de interés de Rheinberger no es el famoso laboratorio de Morgan, sino el laboratorio de Paul Zamecnik al Massachusetts General Hospital en Boston (ver Toward a history of epistemic things de 1997). El análisis detenido de la investigación sobre la síntesis in vitro de las proteínas lleva a Rheinberger a considerar la distinción entre teoría y práctica como una abstracción innecesaria. En realidad, cuando observamos el trabajo de uno o más científicos en un laboratorio, la práctica y teoría se compenetran y confunden constantemente en un movimiento dialéctico constante. La actividad experimental no está necesariamente guiada por hipótesis formuladas de antemano, sino de un conjunto de ideas y acciones que, en interacción con las tecnologías disponibles, producen resultados inesperados. La investigación científica, en este sentido, no se ve simplemente como un conjunto de preguntas bien formuladas que un sistema experimental permitiría contestar. Investigar científicamente significa explorar un espacio abierto de manipulaciones posibles dentro de un sistema experimental dado. En otras palabras, resultados, ideas, y teorías están directamente relacionadas con las posibilidades abiertas por los sistemas experimentales. Estos últimos, por lo tanto, permiten el surgir de determinados conocimientos. Nuevas prácticas, nuevas tecnologías, herramientas e incluso nuevos organismos modelos, producen las condiciones históricas y cognitivas para que se puedan formular nuevas preguntas, representaciones y modelos. Una de las consecuencias poco digerible para muchos epistemólogos en búsqueda de fundamentaciones más sólidas, es la relación directa entre la contingencia de los sistemas experimentales y los conocimientos que derivan de aquellos. Si miramos o interactuamos con el mundo solo a través de un sistema experimental, lo cual es el producto de un conjunto de contingencias históricas ¿Cómo podemos saber que estamos interactuando con las mismas entidades al cambiar sistemas experimentales? Después de todo, se podría sostener que por cada sistema experimental haya diferentes entidades detectadas o producidas. Entonces ¿Cómo podemos salvaguardar la objetividad científica? Antes de explorar esta última pregunta, revisaré algunos otros problemas que Weber encuentra en la propuesta de Rheinberger.
Weber identifica 4 defectos generales: (1) el análisis de Rheinberger no nos permite entender cómo las controversias se cierran; (2) no nos indica en qué sentido podemos decir que un sistema experimental es un buen sistema (eficiente y fiable); (3) no especifica cómo se establece la existencia de las entidades teóricas y (4) y no aclara cómo se originan realmente los conceptos y teorías (p. 148). Para obviar estas dificultades, Weber propone integrar la propuesta de Rheinberger apelando a una discusión metodológica que revise las normas epistémicas que están detrás de muchas decisiones prácticas y conceptuales de los científicos. Sin embargo, el origen de las normas epistémicas – las cuales deberían guiar y establecer cuándo y cómo un sistema experimental sea fiable, cuándo y cómo un resultado sea válido y definitivo, y bajo cuáles criterios se puede atribuir existencia a una entidad teórica – no es algo que los filósofos puedan decidir de antemano (a priori), sino que requiere de un trabajo empírico parecido a la misma metodología científica. Es decir, en línea con una tradición filosófica consolidada que va desde Neurath y Quine hasta nuestros días, Weber propone naturalizar las normas epistémicas. La pregunta que surge a partir de la propuesta de Weber es si un trabajo de “naturalización” de las diversas normas epistémicas permitiría realmente solucionar los 4 problemas mencionados anteriormente. De hecho, creo que aquí surge una tensión relevante entre un enfoque (o ambición) historicista-descriptivo y un enfoque normativo-analítico (aunque con tendencias naturalistas). Una tensión que a mi parecer no encuentra una solución en el texto de Weber.
Ahora, para Rheinberger no existe ciencia sin lugar y el conjunto de elementos (históricos, materiales, sociales etc.) que constituyen este lugar están directamente conectados con el tipo de conocimiento que se produce. Esta perspectiva historicista tiene sus consecuencias: no hay leyes sobre el origen de las teorías científicas, así como no hay leyes sobre el origen de los estados-nación o sobre la producción de novelas biográficas. No hay manera de saber, de antemano, cómo una controversia se cierra, así como no hay reglas a priori que nos hubieran permitido saber, de antemano, si Federico el grande iba a ganar la batalla de Leuthen en contra del más poderoso ejército austriaco. No hay meta-reglas que nos puedan indicar, de manera inequívoca, cuando un sistema experimental es fiable o eficiente porque esto depende de las expectativas contextuales de lo que se debe entender con fiabilidad, eficiencia y precisión (el reloj marítimo H4 de John Harrison, alguna vez considerado muy eficiente y preciso, sería considerado poco fiable en los tiempos del GPS). No hay reglas generales para establecer, de manera incontrovertible, cuándo tenemos buenas razones para creer que una entidad teórica realmente existe, porque esto depende de las técnicas y tecnologías disponibles para detectar esas entidades. Empero, si los científicos no poseen meta-reglas incontrovertibles, sí poseen un conjunto de heurísticas falibles y revisables que los guíen en la producción de conocimiento fundamentado. Sin embargo, estas heurísticas, son históricamente determinadas y formuladas (explícita o implícitamente) para solucionar los desafíos experimentales contingentes, y considerados relevantes en un dado momento. Ahora, aunque no podamos formular meta-reglas generales, esto tampoco implica la convicción que todo vale, según una abusada máxima relativista. Los sistemas experimentales, así como los instrumentos tecnológicos, son “máquinas” tremendamente sofisticadas que nos permiten interactuar de manera muy exitosa con el mundo. Y estas “máquinas” funcionan solo en circunstancias dadas y según los objetivos (logrados en mayor o menor medida) de una determinada comunidad científica. No todo vale para construir un interferómetro, así como no todo vale para desarrollar las herramientas y capacidades para sintetizar proteínas en vitro. La contingencia histórica, entonces, no es ni sinónimo de irracionalidad ni de relativismo. La contingencia se debe relacionar al conjunto de circunstancias no necesarias (pero suficientes) que hacen posible la emergencia de determinados tipos de conocimientos. El trabajo filosófico e histórico consiste entonces en señalar cómo y cuándo estas circunstancias se generan y sus conexiones con las creencias y prácticas científicas de una época. Esta no es una novedad ni un límite de las propuestas historicistas. Es el punto central de la tradición francesa de la epistemología histórica así como varias de las versiones de sociologías del conocimiento, las cuales, en cierto sentido, tienen mucha afinidad con una perspectiva naturalista: es decir, observar cómo los seres humanos producen y justifican conocimiento (aunque, por supuesto, con un enfoque más cercano a las ciencias humanas que a las ciencias naturales).
Si los problemas o límites que Weber examina en la propuesta de Rheinberger son, en realidad, consecuencias de la misma epistemología histórica, el problema filosófico del realismo científico es de un orden diferente. Quiero abordar el problema a través de la pregunta anteriormente mencionada: ¿cómo salvaguardar la objetividad en la investigación científica? Después de todo, detrás de los sistemas experimentales, de las actividades prácticas y teóricas, detrás de las herramientas y de las creencias, detrás de las normas epistémicas hay algo que se resiste a nuestras solicitudes. Algo que emerge a través de nuestras pruebas y manipulaciones. En otras palabras, hay cosas. Objetos con características específicas (genes, moléculas, electrones etc.) que dejan huellas, señales, datos. Este es el tema que se relaciona directamente con la propuesta de Hacking. En los años 80, en un texto ahora clásico titulado Representar e intervenir (1983), Hacking observó que la cultura experimental tiene vida autónoma de la actividad teórica. Sin embargo, las entidades teóricas que los experimentalistas emplean adquieren realidad en virtud de su uso exitoso dentro de un sistema experimental: “si puedes rociar electrones, entonces ellos son reales” es el refrán condensado que expresa bien la idea de Hacking, quien defiende una postura anti-realista hacia las teorías, aunque se profese realista en relación a las entidades teóricas (como un electrón). La propuesta de Hacking ha sido ampliamente criticada y Weber se sitúa exitosamente en esta corriente escéptica. Como justamente él hace notar, si analizamos bien el argumento de Hacking, es difícil no llegar a la conclusión que el argumento experimentalista es una nueva versión del bien conocido argumento realista del “no-milagro”. Es decir, sería un milagro si teorías exitosas que proveen predicciones extremadamente precisas no tuvieron alguna correspondencia efectiva con la realidad. Entonces, reformulando el argumento de Hacking, se puede sostener que sería un milagro que, si podemos usar los electrones exitosamente en diferentes contextos experimentales, estos no existieran. Sin embargo, el argumento del no-milagro ha sido ampliamente rechazado, puesto que la historia de la ciencia está llena de ejemplos de teorías predictivas que han sido sucesivamente refutadas.
Hay, por supuesto, otros matices problemáticos del argumento de Hacking que no voy a mencionar detenidamente por razones de espacio. Weber, por ejemplo, nota que usar exitosamente los electrones en contextos experimentales requiere más manejo teórico de lo que Hacking estaría dispuesto a conceder. Pero, más allá de la lista de las fallas argumentativas del argumento hackiano, quiero llamar la atención sobre un punto que me parece muy importante para el experimentalismo en general, es decir, una filosofía de las ciencias experimentales es intrínsecamente realista y materialista, pero en un sentido muy específico. De hecho, la falla principal del argumento hackiano es pretender fundamentar el realismo científico respecto a las entidades manipuladas cuando, en realidad, el ejercicio experimental ya presupone la convicción que las entidades involucradas en nuestras intervenciones existan. Me parece que deducir una postura realista del experimentalismo es equivalente a la pretensión de inferir el principio de uniformidad de la naturaleza de la práctica inductiva. Así como la inducción presupone la creencia que la naturaleza es, en cierto sentido, uniforme, el experimentalismo supone la existencia de las entidades que se manejan, aunque se ignore los detalles de lo que se está manejando. Ni la inducción ni el experimentalismo pueden probar que hay un mundo externo uniforme y equivalente a nuestras descripciones. El ejercicio de la inducción y el experimento solo pueden justificar el asentimiento epistémico para creer que fumar produce cáncer al pulmón o que los electrones existen. En suma, para que haya manipulación en un sentido literal (manipulus del latín se puede entender como “lo que uno puede abarcar con la mano”) se debe presuponer la existencia de un objeto intervenido, aun cuando este objeto no esté exhaustivamente definido. Un experimentalista anti-realista, respecto a las entidades que manipula, se aproxima peligrosamente a un oxímoron. ¿Qué significa dudar de la existencia de las ondas electromagnéticas mientras estamos construyendo un interferómetro?
Volviendo al tema de la objetividad en relación a los sistemas experimentales, ¿Cómo podemos saber que estas entidades teóricas que manejamos tan exitosamente no son, en realidad, artefactos producidos por los mismos instrumentos de detección? La respuesta es que nunca podemos estar seguros. Sin embargo, una de las características principales de los sistemas experimentales es de poseer protocolos o estrategias aptas a contener errores y detectar, en la medida de lo posible, artefactos. No hay nada de mejor y, probablemente, nuestra inquietud a buscar una mejor fundamentación se debe a una excesiva expectativa filosófica. Pienso que si nos deshacemos de la idea inconsistente de epistemología sin sujeto y, al mismo tiempo, si eliminamos de nuestro vocabulario filosófico nociones teológicas como la de “Verdad”, podemos aceptar la idea que los resultados experimentales son consecuencia de acciones y decisiones que responden, antes de todo, a criterios de funcionalidad y eficiencia. De hecho, la ventaja que nos ofrece una filosofía de la ciencia experimental es la posibilidad de pensar en un realismo de tipo pragmático que evita fácilmente lo que Sellars llamaba el mito de lo dado y, al mismo tiempo, prescinde de la obsesión filosófica tradicional según la cual la actitud científica principal es representar, de manera real o aproximada, un mundo independiente. Una filosofía atenta a las actividades experimentales puede mostrar que conocer “científicamente” no significa simplemente representar un mundo autónomo de nuestras actividades cognitivas, sino transformar o producir el objeto bajo investigación y, por lo tanto, dominarlo y sujetarlo. Conocer experimentalmente significa teorizar a través de la práctica y actuar a través de la especulación. Entonces, una filosofía que observe detenidamente los movimientos de un técnico en su laboratorio puede mostrar que la epistemología no es simplemente una disciplina que justifica determinadas creencias o actos cognitivos, sino un conjunto de reflexiones filosóficas que pertenecen a la historia de la labor humana; al ensamble de interacciones, esfuerzos y trabajos que han llevado a la domesticación progresiva de largas porciones del mundo natural. Como observaba Bacon, la ciencia no pertenece ni a las hormigas ni a las arañas (empiristas y racionalistas), sino a las abejas, las cuales transforman y destilan los materiales que recogen de las flores. Conocer, para Bacon, así como para los experimentalistas, implica un momento esencial de transformación material del mundo. En consecuencia, el anti-realismo no es algo que pueda inquietar mucho a los experimentalistas. Esto es un tema que solo puede agitar a los filósofos que piensan que el papel único de la ciencia es entregar representaciones “verdaderas” de la realidad. Los experimentalistas son realistas por defecto.
Entonces, a través de un análisis detenido de lo que significa conocer manipulando, podemos desarrollar una epistemología que al mismo tiempo sea realista, materialista, instrumental, falibilista y sensible a los contextos de producción de conocimiento. Conocemos el mundo a través de nuestras manipulaciones e intervenciones, potenciadas con herramientas tecnológicas relacionadas con nuestros intereses y objetivos contingentes. Por supuesto, no podemos excluir del todo que nuestras actividades experimentales produzcan artefactos. Sin embargo, podemos reducir el grado de escepticismo a través de múltiples ciclos experimentales que involucran sistemas experimentales distintos, como Weber mismo reconoce. En suma, el libro de Weber, como uno de los pocos trabajos que recientemente han tomado en serio la actividad experimental, abre la reflexión a una serie de preguntas filosóficas y epistemológicas muy relevantes que se enfocan sobre la conexión entre hacer y conocer, y no entre conjeturar y refutar.
Referências
HACKING, I. Representing and intervening. Cambridge: Cambridge University Press, 1983.
KNORR-CETINA, K. The manufacture of knowledge. New York: Pergamon, 1981.
KOHLER, R. The lord of the fly, Drosophila genetics and the experimental life. Chicago: Chicago University Press, 1994.
PICKERING A. (Ed.). Science as practice and culture. Chicago: Chicago University Press, 1992.
RHEINBERGER H. Toward a history of epistemic things. Stanford: Stanford University Press, 1977.
WEBER, M. Philosophy of experimental Biology. Cambridge: Cambridge University Press, 2005.
Maurizio Esposito – Departamento de Filosofía, Universidad de Santiago de Chile. E-mail: maurizio.esposito@usach.cl
[DR]Quantum dissidents: rebuilding the foundations of quantum mechanics (1950-1990) – FREIRE JÚNIOR (SS)
FREIRE JÚNIOR, Olival. Quantum dissidents: rebuilding the foundations of quantum mechanics (1950-1990). Berlin: Springer, 2015. Resenha de: VIDEIRA, Antonio Augusto Passos. Nem heterodoxa nem ortodoxa: a mecânica quântica na segunda metade do século XX. Scientiæ Studia, São Paulo, v.13, n. 1, p. 233-7, 2015.
O livro, escrito por Olival Freire Jr – Professor Titular do Instituto de Física da Bahia (Brasil) e conhecido pesquisador nas áreas de história da ciência e ensino de ciências – constitui uma contribuição importante para a literatura vinculada à mecânica quântica (MQ), em particular, aquela que procura compreender os desenvolvimentos históricos das diferentes linhas de pesquisa – teóricas e experimentais – interessadas em esclarecer os fundamentos dessa teoria.
Quantum dissidents é o resultado de 30 anos de envolvimento direto do autor com a história e a filosofia da MQ, trajetória que começou com sua dissertação de mestrado sobre Paul Langevin, orientada na Universidade de São Paulo pela física e historiadora da física Amélia Império Hamburger (1932-2011), passando pela tese de doutorado, sobre David Bohm (1917-1992), defendida em 1995 na mesma universidade, mas cuja pesquisa foi coordenada por Shozo Motoyama e Michel Paty. De certo modo, o envolvimento de Freire com a área de história da MQ é contemporâneo, ou simultâneo, à história que ele conta. Ele não poderia ter decidido em meados da década de 1980 contar tal história; ela simplesmente não existia.
O foco do livro situa-se na elaboração de uma explicação coerente para um evento vivido pelas questões dos fundamentos da MQ, a saber: a passagem de uma área de pesquisa percebida como marginal para uma situação diametralmente oposta, capaz de atrair o interesse de físicos, filósofos, ou ainda, de divulgadores de ciência. A rigor, a área de informação quântica, o “produto” mais notável dessa reviravolta, desfruta hoje de uma notabilidade crescente, sendo considerada capaz de revolucionar a ciência e a tecnologia, levando-as a fronteiras situadas para além da física. Como, então, um tema, que até o início da década de 1970 era evitado por jovens pesquisadores – preocupados com as consequências que essa opção temática teria para suas carreiras – chegou a ser coroado com, por exemplo, o prêmio Nobel de física em 2012, concedido ao francês Serge Haroche e ao norte-americano Daniel J. Wineland?
Para responder a essa pergunta, Freire lança mão de uma série de “instrumentos” usualmente empregados por historiadores da ciência que deliberadamente procuram evitar histórias internalistas ou externalistas de sua ciência. Interessado em superar essa antiga e paralisante dicotomia, Freire manipula aspectos e informações provenientes da história, sociologia, filosofia e política da ciência, sem sentir-se obrigado a privilegiar nenhum deles. As referências teóricas têm diferentes origens, em que pese certa preferência pelas ideias do sociólogo francês Pierre Bourdieu (19302002), e de Timothy Lenoir, sem que isso signifique desprestígio para outras perspectivas – por exemplo, as propostas por expoentes como Bruno Latour e David Kaiser. Freire entende que a inteligibilidade histórica da ciência não advém apenas do domínio de aspectos técnicos. Aqui também, no que diz respeito ao conhecimento da ciência envolvida, Freire se mostra um pesquisador arguto, com domínio da física envolvida – melhor, talvez, fosse dizer emaranhada – na história que narra. A história contada por Freire reforça a ideia de que a ciência circula, transformando-se, e transforma-se, circulando.
Praticamente todo o conteúdo do livro já tinha sido publicado sob a forma de artigos independentes, a grande maioria deles na revista Studies in History and Philosophy of Modern Physics, alguns escritos em colaboração com colegas e estudantes. O livro, no entanto, não é uma coletânea. Na verdade, os artigos foram ligeiramente modificados de modo a formarem um todo coerente, organizado e interessante. Essas adaptações também se devem à necessidade de adequação do conteúdo às normas editorais da Springer. Uma introdução e uma conclusão foram escritas especialmente para ele. Em semelhança com os artigos anteriormente publicados, cada capítulo contém um resumo, útil para uma apresentação condensada dos conteúdos nele trabalhados.
O livro está dividido em nove capítulos, incluindo a introdução e a conclusão. O arco temporal por ele compreendido inicia-se em 1950 e termina formalmente em 1990, ainda que algumas informações posteriores tenham sido incluídas. A título de exemplo, vale mencionar o já citado prêmio Nobel de física de 2012.
O primeiro capítulo é de natureza metodológica. Nele, Freire expõe os conceitos e os princípios teóricos que usará para compreender o surgimento da área de informação quântica, por ele apontado como sendo o exemplo mais visível e relevante da reabilitação da área de fundamentos da MQ. Como dito acima, nesse capítulo, ele reafirma sua crença de que a ciência é uma estrutura (em sentido amplo) dinâmica.
É no segundo capítulo que se inicia propriamente a história sobre a reconstrução e reconfiguração dos fundamentos da MQ. Como não poderia deixar de ser lembremo-nos do tema da tese de Freire –, é sobre as tentativas feitas por David Bohm (e colegas que compartilhavam sua perspectiva) que recai a escolha de Freire para narrar a saga da MQ na segunda metade do século passado. Apesar de Bohm ser um de seus dissidentes preferidos, Freire não se permite enaltecê-lo mais do que o devido. Em outros termos – e no que interessa para seus objetivos –, Freire sustenta que os esforços de Bohm não foram suficientes para quebrar o predomínio da interpretação de Copenhague, que se manteve predominante, segundo a perspectiva ortodoxa em física, mas também em história da física, na área de fundamentos da MQ a partir da década de 1920.
O terceiro capítulo é dedicado a outra intepretação heterodoxa, que, grosso modo, foi contemporânea da teoria de variáveis ocultas de Bohm, mas, no caso, formulada por um físico norte-americano de Princeton, Hugh Everett iii (1930-1982). Tal como a interpretação bohmiana, a de Everett sofreu pesadas críticas, a ponto de levarem seu autor a desistir de uma carreira acadêmica convencional. Aparentemente, Everett não se arrependeu de sua decisão de continuar vinculado ao complexo militar-industrial norte-americano.
O capítulo seguinte apresenta o primeiro sinal de ruptura da monocracia interpretativa então dominante, exercida pela chamada “interpretação de Copenhague”. A ruptura ocorre em torno do problema da medida (the measurement problem) e conta com a participação central de uma personagem da qual se poderia esperar tudo, menos o envolvimento com a heterodoxia científica, o físico norte-americano de origem húngara Eugene Wigner (1992-1995), que se envolveu em querelas científicas com jovens físicos italianos partidários de uma ideologia fortemente recusada por ele: o marxismo. Wigner, conservador assumido e físico de muitas contribuições seminais para a física nuclear, percebeu que o problema da medida não poderia ser considerado como resolvido. Isso de certo modo renovou o ambiente da MQ.
O quinto capítulo trata de uma personagem completamente desconhecida, mesmo no Brasil, país em que se deu sua atuação profissional. Freire analisa a efêmera participação que o físico brasileiro de origem austríaca Karl Tausk (1927-2012) teve nesse processo de reabilitação das questões concernentes aos fundamentos da física. Freire é convincente ao discutir como físicos, sem as devidas relações profissionais (entenda-se, respaldo institucional) e sem as alianças científicas necessárias (poderosas), comprometem suas próprias carreiras. A participação em assuntos considerados como marginais pelos líderes da física pode marginalizar seus participantes. O “triste” destino de Tausk lembra-nos que não são apenas habilidades intelectuais e conhecimentos científicos que legitimam a participação em domínios temáticos tão impregnados de controvérsia, como aquele concretizado em torno das questões interpretativas da MQ.
O sexto capítulo se debruça sobre as contribuições dadas pela situação política de finais da década de 1960 para uma renovação da atitude dos físicos frente à área de fundamentos. O foco é, agora, direcionado para a organização e a realização de uma escola de verão em Varenna (Itália), dedicada aos fundamentos da MQ. O interesse desse capítulo é duplo. Por um lado, ele se encontra na descrição a respeito dos detalhes que cercaram a escola organizada por Bernard d’Espagnat, físico teórico francês, e que quase levaram à implosão da Sociedade Italiana de Física. O segundo motivo é que, diferentemente do que se poderia esperar, foi um físico politicamente conservador – muito bem posicionado no establishment da física e com um prêmio Nobel a tiracolo e aqui já citado Eugene Wigner –, um dos responsáveis por mostrar que a Mecânica Quântica não estava resolvida completamente quando analisada sob o ponto de vista conceitual ou de fundamentos.
É a partir do sétimo capítulo que o livro aproxima-se da quadratura histórica responsável pela mudança de perspectiva da comunidade dos físicos frente às questões de fundamento. Freire justifica essa mudança com a realização das primeiras experiências, em finais da década de 1960, ligadas à área da óptica e montadas para testar certas consequências “bizarras” da mecânica quântica, tais como o emaranhamento (entanglement). De John Clauser a Alain Aspect, passando pelos famosos teoremas de Bell – referência ao físico norte-irlandês John Bell (1928-1990) –, Freire argumenta como a filosofia pode efetivamente ingressar na física. Ainda assim, trata-se, como ele mesmo observa, de um período de transição. A área de fundamentos da física ainda não desfrutava da respeitabilidade que receberia a partir da década de 1970.
O período de transição descrito no capítulo anterior não se encerra com a publicação das experiências de Aspect entre 1981 e 1982. Ele será completado ao longo da década de 1980, atingindo, inclusive, os primeiros anos da seguinte. É disso que trata Freire no capítulo oitavo. A marca dessa transição é a ausência de um foco temático unificador dos muitos grupos que começaram a dedicar-se a essas questões. Outro ponto característico dessa época é a realização de conferências especialmente dedicadas às consequências experimentais das questões anteriormente vistas como “filosóficas”. A “moral” desse capítulo parece ser que a aquisição de respeitabilidade não acontece do dia para a noite.
O último capítulo é dedicado a uma descrição comparativa de alguns dos protagonistas da história da reconstrução dos fundamentos da MQ. O recurso metodológico usado por Freire é a prosopografia, a saber, a constituição de uma biografia coletiva, na qual diferentes trajetórias são comparadas entre si a partir da determinação de um conjunto de características entendidas como comuns, tornando possível a referida comparação. Essa descrição, talvez, tenha sido redigida para pôr um ponto-final no uso da metáfora com a qual Freire construiu sua história: a de que os fundamentos da MQ começaram como uma área frequentada por dissidentes. Afinal, como questionar uma área de pesquisa que permite a seus praticantes serem agraciados com alguns dos mais importantes prêmios concedidos na física? De fundamentos filosóficos à informação quântica, a história dos fundamentos da MQ, tal como contada por Freire, é rica, informativa e instrutiva.
Para finalizar, Quantum dissidents conta com um prefácio escrito por Silvan S. Schweber, um dos mais importantes e reconhecidos especialistas em história da física da atualidade, o que, por si só, já é indicativo da originalidade e qualidade historiográficas dessa obra. É interessante notar que Schweber afirma que o livro é também importante para os físicos que querem ser melhores naquilo que fazem, ou seja, o livro de Freire tem valor pedagógico. Torço para que as palavras de Schweber sejam ouvidas.
Antonio Augusto Passos Videira – Departamento de Filosofia. Universidade Estadual do Rio de Janeiro, Brasil. E-mail: guto@cbpf.br
[DR]
Constructing the world – CHALMERS (SS)
CHALMERS, David J. Constructing the world. Oxford: University Press Oxford, 2012. Resenha de: BARAVALLE, Lorenzo. O demônio de Carnap. Scientiæ Studia, São Paulo, v.13, n. 1, p. 223-32, 2015.
Não é fácil apresentar o último livro de David Chalmers para seu potencial leitor, já que nele, na verdade, escondem-se muitos livros, muitos caminhos alternativos de leitura e, acima de tudo, muitos estímulos para diferentes reflexões filosóficas. De acordo com as intenções do autor, Constructing the world é um texto de “epistemologia metafísica (ou deveria ser metafísica epistemológica?): grosso modo, epistemologia a serviço de uma imagem global do mundo e de nossa concepção deste” (Chalmers, 2012, p. XX).
Pode-se ver o presente livro como procurando realizar uma versão do projeto de Carnap no Aufbau: aproximadamente, construir um plano (blueprint) do mundo ou, ao menos, construir um plano para um plano, providenciando um vocabulário no qual tal plano pode ser dado (p. XVIII).
Ao longo dos oito capítulos que compõem o livro e dos numerosos excursus, que ampliam o alcance da argumentação principal para a elucidação das mais diversas problemáticas conceituais, Chalmers trata temas que vão desde a metafísica da modalidade até a filosofia da mente, desde a semântica até a filosofia da ciência, e desde a interpretação do empirismo lógico até a epistemologia formal. Dada a vastidão e a profundidade do texto, e tendo em conta que o próprio autor (p. XXV-XXVI) reconhece a importância de privilegiar um caminho de leitura por vez, eu seguirei aqui aquilo que, provavelmente, mais pode interessar ao leitor de Scientiae Studia, isto é, o caminho que, partindo de uma original recolocação do problema do conhecimento e passando por uma reconsideração do legado de Carnap, conduz a uma reflexão sobre a unidade das ciências e a estrutura do mundo. Paralelamente, prestarei atenção às qualidades que a análise de Chalmers possui como ferramenta metateórica.
1 CARNAP ENCONTRA LAPLACE
O titulo do livro de Chalmers é uma clara referência, e homenagem, ao Estrutura lógica do mundo (Aufbau) de Rudolf Carnap (cf. 1967 [1928]). Porém, Carnap não é seu único “herói”. Já nas primeiras páginas, o autor introduz a noção central de toda a obra, a saber, a de escrutabilidade, inspirada em Pierre-Simon Laplace.1 Este último autor, em seu célebre tratado sobre probabilidade, apresenta a conhecida imagem de um intelecto – comumente chamado de “demônio de Laplace” – capaz de determinar, a partir de um certo número de informações sobre a realidade física e potência de raciocínio suficiente, a verdade de qualquer acontecimento passado, presente ou futuro (Laplace, 2010 [1814], p. 42-3). Para o demônio de Laplace, diz Chalmers, “todas as verdades sobre o mundo são escrutáveis a partir de algumas verdades básicas” (p. XIII). A noção de escrutabilidade pode ser entendida, em uma primeira aproximação, como a ideia de que “o mundo é em certo sentido compreensível, ao menos dada uma certa classe de verdades básicas sobre o mundo” (p. XIII). Obviamente, a escolha dessa classe de verdades é tudo menos trivial e, a esse propósito, é geralmente aceito que ela é, em Laplace, tendenciosa, já que pressupõe o determinismo, ou ao menos incompleta, dado que o demônio não tem acesso a verdades fenomênicas, matemáticas ou morais, entre outras.
Chalmers (p. XIV, ss; cap. 1) defende que a noção de escrutabilidade, independentemente dos problemas relacionados com a perspectiva laplaceana, possui um grande valor filosófico. Essa noção denota, muito em geral, uma relação entre a classe de verdades básicas e qualquer outra proposição verdadeira p. Ela foi, ao longo da tradição empirista e, em particular, por Carnap, considerada como uma relação de definibilidade entre conceitos. No Aufbau, a definibilidade é, mais especificamente, associada com a possibilidade de construir – isto é, de mostrar a estrutura lógica de – os conceitos mais complexos (das ciências, por exemplo) a partir de uma relação simples e primitiva, a saber, a da similaridade fenomênica entre as experiências. Ao resgatar a inspiração construcionista carnapiana, Chalmers alinha-se – mais ou menos explicitamente – àqueles autores que, como Richardson (1998) ou Friedman (1999), rejeitam a interpretação clássica do Aufbau em termos fundacionalistas e fenomenalistas (cf. Ayer, 1946; Quine, 1951). A escolha da base fenomênica, entendida como coleção de dados dos sentidos (sense-data), para a construção dos conceitos mais complexos, não é essencial na realização do projeto carnapiano. Carnap mesmo, além de admitir explicitamente a possibilidade de partir de outro tipo de base, fisicalista (Carnap, 1967 [1928], §59), para realizar a mesma tarefa, acaba tentando construir a estrutura conceitual do mundo inteira a partir de uma base puramente lógica (§153-5); desfazendo-se, portanto, dos pressupostos fenomenalistas.
Essa flexibilidade na hora de escolher os elementos básicos da construção, porém, não ajuda Carnap frente a outro tipo de crítica. O problema principal do Aufbau, de acordo com Chalmers, é a identificação da escrutabilidade com uma relação de definibilidade puramente extensional. A maioria dos conceitos – ou, em outros termos, a maioria das verdades não básicas – não podem ser reduzidas a outros conceitos (ou verdades) mais básicos de maneira que estes últimos constituam suas condições necessárias e suficientes (cf. Wittgenstein, 1953; Kripke, 1980). Prova disso é que, para quase qualquer definição, é possível encontrar contraexemplos. Carnap, mais uma vez, reconhece esse problema, e tenta resolvê-lo por meio de critérios intencionais (cf. Carnap, 1947; 1955), vale dizer, regras semânticas que identificam apenas contextualmente o valor de verdade de uma determinada expressão. Inspirando-se nessa solução, Chalmers (p. 12-9) nega que a relação de escrutabilidade seja propriamente definicional. Para que sentenças não básicas sejam escrutáveis a partir de sentenças básicas, não é necessário que sejam disponíveis definições extensionais – as quais, quando presentes, são fundadas na relação de escrutabilidade, e não vice-versa –, mas apenas intenções, as quais permitem, por si só, determinar seu valor de verdade com suficiente exatidão, dado um certo cenário epistêmico (p. 204-11; excurso 10). Por exemplo, embora não possuamos nenhuma definição extensional do conceito de “conhecimento” que seja totalmente imune aos contraexemplos de tipo Gettier, ela não parece necessária para que possamos reconhecer que, de fato, os contraexemplos de tipo Gettier não constituem conhecimento: é suficiente uma “definição aproximada” e implícita (cf. p. 204-11; 381-5) do conceito.
Ora, embora Chalmers admita vários tipos de escrutabilidade não definicional,2 para os presentes fins, é suficiente que nos concentremos naquilo que ele considera o mais importante: a escrutabilidade a priori. A noção de escrutabilidade configura-se, nessa interpretação, como uma relação entre uma classe ou “família” (p. 20) de sentenças C, uma sentença S e um sujeito s tal que “S é escrutável a priori desde C por s se e somente se s está na posição de conhecer a priori que se C, então S” (p. 40). A partir dessa relação, Chalmers enuncia a seguinte tese.
Escrutabilidade a priori: existe uma classe compacta de verdades tal que para qualquer proposição p, um intelecto laplaceano estaria na posição de saber a priori que, se as verdades contidas nessa classe são o caso, então p (p. XVI).3
O termo “compacto” define um atributo da classe de verdades básicas, que deve conter sentenças limitadas e evitar trivializações, tais como uma “supersentença” matemática que inclui todos os estados do mundo (cf. p. 20 ss.).4 A característica fundamental da tese é que ela se compromete com a existência de uma base compacta que é suficiente para que um hipotético sujeito (a) tenha acesso a ela, (b) seja capaz de certa potência de raciocínio e (c) possa comprovar que as verdades empíricas contidas nela refletem estados de coisas de nosso mundo ou de algum outro mundo possível, possa escrutar, a priori (isto é, sem precisar recorrer ulteriormente à experiência) a verdade de qualquer sentença. Dessa maneira, o problema de identificar tal base volta a ser central e, para reduzir a complexidade desse problema, Chalmers recorre, nos terceiro e quarto capítulos, a uma idealização análoga ao demônio de Laplace, a saber, o que denomina “cosmocópio”.
2 O PROBLEMA DA BASE: AVENTURAS COM O COSMOCÓPIO
Já no primeiro capítulo, Chalmers introduz ao que, para ele, deveria ser a base a partir da qual “todas as verdades macroscópicas ordinárias são implicadas a priori”.5 Embora, como veremos, seja admitida certa liberdade com respeito à escolha das famílias de sentenças que a compõem, para Chalmers, ela é um conjunto de verdades da física (tanto macroscópicas quanto microscópicas), verdades fenomênicas (referentes a qualia), verdades indexicais (“eu-sou-de-tal-e-tal-maneira”, “agora-é-de-tal-e-tal-maneira”) e uma sentença “isso-é-tudo”, que certifica que não há nada mais (em um determinado mundo possível, ou cenário epistêmico) do que é expressado nas sentenças básicas ou nas sentenças escrutadas a partir delas (p. 111; excurso 5). Para fazer referência a tal base, Chalmers usa o acrônimo PQTI (physics, qualia, that’s all, indexicals). Como antecipei há pouco, para justificar a escolha de PQTI, Chalmers recorre, nos terceiro e quarto capítulos, a uma idealização, o cosmocópio, que se revela muito útil na hora de compreender melhor os problemas filosóficos em jogo e, a meu ver, também como instrumento analítico em geral.
O cosmocópio é um dispositivo imaginário – mas epistemicamente possível – que permite a um determinado usuário, s, estabelecer o valor de verdade de qualquer sentença ordinária M. Ele
armazena todas as informações contidas em PQ[T]I e as torna utilizáveis. Em particular, ele contém (1) um supercomputador que armazena a informação e realiza todos os cálculos necessários; (2) ferramentas que usam P para ampliar uma região qualquer do mundo e para fornecer informações sobre a distribuição da matéria nessas regiões; (3) um dispositivo de realidade virtual que produz conhecimento direto de qualquer estado fenomênico descrito em Q; (4) um marcador “tu estás aqui” que carrega a informação contida em I; e (5) dispositivos de simulação que proporcionam informações sobre contrafáticos, exibindo os estados físicos e fenomênicos que se produziriam sob as várias circunstâncias contrafactuais especificadas por PQ[T]I (p. 114).
Um exemplo ajudará a tornar mais claro o funcionamento do cosmocópio. Imagine-se que queira aferir o valor de verdade da seguinte sentença M: “no dia 10 de outubro de 1820, às 11 horas, Napoleão Bonaparte estava observando uma garrafa de vinho na mesa da sala de sua residência na ilha de Santa Helena”. Ao entrar no cosmocópio, terão acesso a todas as informações relevantes para identificar, sem possibilidade de erro, as características físicas da sala de Napoleão em Santa Helena em 1820. Em particular, poderão conferir que a composição molecular do líquido contido na garrafa na frente de Napoleão corresponde, efetivamente, a, digamos, um Châteauneufdu-Pape de 1812 e não a água colorida, ou a uma ficção produzida por um gênio maligno. Ao mesmo tempo, experimentarão as sensações de Napoleão naquele momento, podendo assim comprovar que ele estava realmente observando (e acreditando estar observando) essa garrafa e não, por exemplo, uma mosca voando na frente dele ou uma alucinação provocada pelo envenenamento por arsênico. Também poderão pedir para o cosmocópio mudar algumas das verdades básicas, de modo a aceder a um mundo possível no qual a garrafa na frente de Napoleão não contém vinho, mas água colorida, e comprovar, assim, se ele continuaria acreditando estar observando uma garrafa de vinho. Novos cenários epistêmicos podem ser obtidos simplesmente inserindo condicionais hipotéticos no cosmocópio, o qual se encarregará de produzir as modificações relevante em PQTI.
A função dessa idealização é mostrar como a base PQTI é suficiente para escrutar qualquer outra verdade, real ou meramente possível. Para isso, é importante notar que o cosmocópio não produz, propriamente, conhecimentos. Ele se limita a fornecer certas informações físicas e representações fenomênicas a partir de PQTI. É o usuário s quem determina o valor de verdade de uma sentença M, à luz das evidências, completas, disponíveis no cosmocópio. Embora amplie impressionantemente os conhecimentos básicos de s e proporcione uma capacidade de raciocínio praticamente ilimitada, o cosmocópio não é nada mais que uma “extensão” de s. Em outras palavras, não é o cosmocópio o demônio de Laplace, mas a união do usuário e do cosmocópio, a qual constitui, em última instância, o sujeito epistêmico ideal. Se aceitamos que o usuário no cosmocópio é efetivamente capaz de determinar o valor de verdade de qualquer sentença ordinária, então aceitamos, ipso facto, que PQTI é a base própria da relação de escrutabilidade. Para quem não estiver convencido, Chalmers mostra, em primeiro lugar – e contra possíveis objeções céticas –, que não é possível que PQTI seja verdadeiro e M falso, que ele chama de “argumento da eliminação” (p. 120-5) e, em segundo lugar, que não há verdades ordinárias que fiquem fora do alcance do cosmocópio, que corresponde ao “argumento da cognoscibilidade” (cf. p. 125-34). Contudo, tudo isso não é suficiente para justificar a tese da escrutabilidade a priori. Para esse fim, Chalmers deve mostrar que, uma vez que s entra no cosmocópio, ele aceita que PQTI→M é verdadeiro independentemente de qualquer experiência, isto é, confiando apenas na relação de escrutabilidade a partir de PQTI.
No quarto capítulo, Chalmers apresenta três argumentos definitivos para aceitar a tese da escrutabilidade a priori com base PQTI. O primeiro é o argumento da suspensão do juízo (p. 159-60). Se nos imaginamos, antes de entrar no cosmocópio, em um cenário cético análogo ao das Meditações metafísicas de Descartes, não é claro em que sentido a experiência jogaria um papel qualquer na aceitação de PQTI→M. Sendo que o cosmocópio, durante o processamento da informação, não é influenciado por nenhuma nova evidência empírica, resulta ao menos plausível que também o usuário que previamente suspendeu o juízo chegue a saber PQTI→M sem recorrer à experiência. O segundo argumento é o da antecipação (cf. p. 160-7). Poder-se-ia pensar que, até depois de uma suspensão do juízo, as evidências empíricas continuem jogando algum papel na posterior aceitação de verdades. Poder-se-ia, então, pensar que s, uma vez entrado no cosmocópio, não sabe realmente PQTI→M, mas PQTI & E→M, onde E é uma evidência empírica. Porém, Chalmers nota que, sendo PQTI suficiente para derivar M, E deve necessariamente estar já incluído em PQTI e, portanto, PQTI & E→M é escrutável a priori. Agora, se somamos todas as evidências empíricas F e tentamos mostrar que elas jogam algum papel na aceitação de PQTI→M, encontrar-nos-emos, analogamente, na situação em que PQTI & F→M é escrutável a priori. Finalmente, com o argumento que poderíamos chamar de “o papel justificativo” (cf. p. 167-9), Chalmers mostra que qualquer referência à experiência durante o uso do cosmocópio (pensem no nosso exemplo acerca de nossas percepções “napoleônicas”) não joga realmente um papel justificativo em PQTI→M, mas apenas causal ou de intermediação.
3 A UNIDADE DA CIÊNCIA E A ESTRUTURA DO MUNDO
Mas afinal quais são exatamente as sentenças que compõem PQTI? Em realidade, mais do que uma base determinada, ele representa, para Chalmers, um ponto de partida para definir, em claro espírito carnapiano, classes de verdades básicas mais fundamentais, isto é, subconjuntos mínimos dotados de alguma prioridade conceitual (cf. cap. 6-7), as quais, por sua vez, permitem formular novas versões de escrutabilidade (cf. cap. 8) – todas rigorosamente a priori –, com as mais diversas finalidades filosóficas. Diferentes bases mínimas servem para defender teses epistemológicas, semânticas ou metafísicas distintas, e é justamente nisso que reside a versatilidade da proposta de Chalmers. Embora, ao longo do livro, o autor expresse suas opiniões pessoais com respeito a várias temáticas, a tese da escrutabilidade a priori é, principalmente, um instrumento metafilosófico que pode ser empregado por pensadores das mais díspares tendências. Para dar um exemplo disso, apresentarei, na última parte desta resenha, a relação entre a escolha de bases restritas e a estrutura científica do mundo, a partir do que, para Chalmers, é uma consequência necessária da tese da escrutabilidade a priori, a saber, a unidade da ciência (cf. excurso 10).
A conexão entre a tese da escrutabilidade a priori e a unidade da ciência é bastante evidente quando pensamos que, conforme a primeira, todas as verdades e, portanto, todas as verdades científicas são escrutáveis a partir de uma certa base. Dado que, intuitivamente, as verdades científicas contidas em PQTI são principalmente verdades da física, resulta quase espontâneo considerar o reducionismo como uma consequência da tese da escrutabilidade a priori; o que é, de acordo com Chalmers (p. 302), admissível, mas deve ser tomado com cuidado. Como já vimos, a relação de escrutabilidade não é uma relação de definibilidade e, portanto, o reducionismo sugerido por ela é muito mais fraco que o reducionismo tradicional, fundado sobre critérios de significado dos empiristas lógicos (cf. Hempel, 1965, cap. 4). A escrutabilidade com base PQTI é compatível com o pluralismo e com diferentes enfoques metateóricos (p. 309). Por exemplo, ela não implica – embora tampouco exclua – o fisicalismo. O fisicalista é alguém que aceita, como verdades básicas, algo como PQTI (p. 290-8), isto é, uma versão de PQTI na qual as verdades contidas em P são apenas verdades microfísicas ou, em um caso mais extremo, apenas PTI ou P, isto é, famílias de sentenças puramente físicas (para este último tipo de fisicalista, as qualidades (qualia) seriam totalmente escrutáveis a partir de estados físicos). Contudo, o fisicalismo não é a única (e, segundo Chalmers, nem a melhor) opção de “redução”.
Os metafísicos discutem se o universo inteiro é mais fundamental do que as simples partes: os monistas sustentam que o todo funda as partes, enquanto os pluralistas sustentam que as partes fundam o todo. Analogamente, os fisicalistas sustentam que o físico é fundamental e funda o mental, enquanto os idealistas sustentam que o mental é fundamental e funda o físico, e os dualistas sustentam que tanto o físico quanto o mental são fundamentais (…). PQTI não resolve essas questões: ele é compatível tanto com a perspectiva monista como com a pluralista, e com as perspectivas fisicalista e dualista e, talvez, com a idealista (p. 270).
Novamente, a inspiração é o próprio Aufbau carnapiano, o qual, além de oferecer bases alternativas (fenomênica, fisicalista ou lógica), mostra indiferença ou, melhor dito, “tolerância” com respeito a várias posições filosóficas (cf. Carnap, 1967 [1928], §75, §177-8; Friedman, 1999, p. 132 ss.). Para Chalmers, todos os conceitos candidatos para formar parte de PQTI podem constituir alternativamente, dependendo de como sejam interpretados, elementos básicos ou derivados da relação de escrutabilidade (exceto T e I, os quais parecem formar necessariamente parte da base). Como demonstração disso, no sétimo capítulo, são explicitadas as principais opções na escolha da classe mínima de conceitos básicos. Com relação a P, por exemplo, é igualmente aceitável definir os conceitos microfísicos como básicos (fisicalismo) ou como escrutáveis, por “ramseyficação” de conceitos macrofísicos e observacionais (p. 319-21). Quanto a Q, podemos considerar as qualidades secundárias (como cores, sons etc.) como primitivas, ou escrutáveis de interações fenomênicas entre sujeitos e objetos (funcionalismo conceitual) (cf. p. 321-4). Há, depois, outros conceitos básicos de difícil classificação, cujo status epistemológico e metafísico é objeto de disputa. Os conceitos de espaço e tempo e todas as expressões nômicas, por exemplo, podem ser considerados primitivos com respeito às entidades físicas e aos estados fenomênicos, mas também escrutáveis, idealisticamente, de conceitos fenomênicos ou, alternativamente, de certas distribuições (micro ou macro) físicas (cf. p. 325-40). É possível ainda que as verdades mais básicas da física sejam escrutáveis, em realidade, de verdades metafísicas mais primitivas (quidditas) (cf. p. 347-53). Tomando certas verdades metafísicas como, por exemplo, a irredutibilidade dos estados psíquicos, isto é, o pampsiquismo, que é uma posição cara a Chalmers (cf. 1996, p. 293-301; 2012, p. 359-61) – como básicas, é possível redefinir inteiramente a ordem das outras verdades escrutadas.
Como consequência dessa liberalidade filosófica, no oitavo capítulo, várias combinações compactas de conceitos básicos são apresentadas explicitando a estrutura do mundo, a qual é, a partir delas, escrutável (p. 406-22). Assim, caracterizar a base como uma classe de sentenças sobre coordenadas espaço-temporais conduz a conceber o mundo como uma estrutura quase matemática; escolher regularidades nômicas implica caracterizar a estrutura do mundo como fundamentalmente legiforme; uma base fenomênica pode definir uma estrutura análoga à do Aufbau ou, se nela são introduzidas certas verdade metafísicas, pampsiquista; finalmente, se a base é metafísica, a estrutura resultante será caracterizada pelas propriedades das quidditas aceitas. Bases híbridas e estruturas intermédias podem satisfazer outras sensibilidades metateóricas. Trata-se, contudo, apenas de esboços, já que (além do fato de não ser esta lista exaustiva), em cada caso, haveria – como Chalmers mesmo reconhece – que dedicar muito mais detalhe ao vocabulário, à forma das verdades básicas e às modalidades de construção das outras verdades. Chalmers declara, no final de sua obra, que
eu não escrevi nenhum desses Aufbaus aqui (…), [mas] na medida em que a tese da escrutabilidade a priori é verdadeira, algum desses Aufbaus será possível. Haverá um vocabulário básico limitado no qual expressar as verdades básicas. Outras verdades serão deriváveis a partir dessas, ou por inferência a priori ou por uma definição aproximada. A estrutura geral dependerá da visão filosófica de cada um sobre a fenomenologia, o espaço-tempo, as leis da natureza, a quidditas, a normatividade, a intencionalidade, a ontologia, e assim por diante. Os detalhes dependerão de questões empíricas sobre física, fenomenologia e outros domínios. Mas temos razão de crer que um Aufbau bem-sucedido existe, em algum lugar do espaço filosófico (p. 429-30).
Estudar o livro de Chalmers, e empregar suas sofisticadas ferramentas analíticas, sem dúvida, aproxima-nos desse lugar.
Notas
1 Há, ainda, um terceiro “herói” no livro de Chalmers, Frege, do qual o autor pretende resgatar, por meio de certas aplicações da noção de escrutabilidade, a teoria do significado e a distinção entre sentido e referência.
2 Estes, além de constituírem-se a partir de bases distintas, podem ser, principalmente, inferenciais ou condicionais. A distinção remete às modalidades de conhecimento próprias de, respectivamente, um demônio laplaceano real ou meramente possível. Com o fim de evitar uma série de consequências paradoxais – in primis, o paradoxo de Fitch sobre a cognoscibilidade (cf. Fitch, 1963; Chalmers, 2012, p. 29 ss.) –, Chalmers expressa uma clara preferência para o segundo tipo de escrutabilidade, mas não precisamos aqui entrar nos detalhes. Para isso, ver Chalmers (2012, cap. 2).
3 Chalmers distingue, no texto, “escrutabilidade” (com caixa baixa), para se referir a uma relação de escrutabilidade, de “Escrutabilidade” (com caixa alta), para introduzir uma tese sobre escrutabilidade (p. 39).
4 Note-se certa ambivalência, por parte de Chalmers, na caracterização das verdades como “sentenças” ou “proposições” verdadeiras, na apresentação de diferentes relações ou teses de escrutabilidade. Em geral, eu não diferenciarei aqui entre os dois termos, mas empregarei de preferência “sentenças”, conforme as recomendações de Chalmers (cf. p. 42-7; excurso 3).
5 São excluídas, das “verdades macroscópicas ordinárias”, as verdades sobre a matemática, a moralidade, a ontologia, a intencionalidade, a modalidade e algumas outras, as quais são tratadas como casos especiais no sexto capítulo. Não apresentarei o conteúdo desse capítulo no corpo da resenha, mas vale a pena precisar duas questões. A primeira, terminológica, é que o atributo “macroscópico”, com relação às verdades escrutáveis, não se opõe necessariamente a “microscópico”. Verdades relacionadas com a estrutura da matéria, por exemplo, são escrutáveis. Apenas algumas verdades no domínio quântico são excluídas pelas verdades macroscópicas ordinárias e representam casos especiais. Em segundo lugar, é importante ressaltar que inclusive essas verdades especiais são escrutáveis, uma vez que sejam aportados certos ajustes na base (discutidos nos sexto e sétimo capítulos).
Referências
AYER, A. Language, truth and logic. New York: Dover, 1946.
CARNAP, R. Meaning and necessity: a study in semantics and modal logic. Chicago: University of Chicago Press, 1947.
_____. Meaning and synonymy in natural languages. Philosophical Studies, 6, 3, p. 33-47, 1955.
_____. The logical structure of the world. Oakland: University of California Press, 1967 [1928]. Chalmers, D. J. The conscious mind. Oxford: Oxford University Press, 1996.
_____. Constructing the world. Oxford: Oxford University Press, 2012.
FITCH, F. B. A logical analysis of some value concepts. Journal of Symbolic Logic, 51, p. 135-42, 1963.
FRIEDMAN, M. Reconsidering logical positivism. Cambridge: Cambridge University Press, 1999.
HEMPEL, C. G. Aspects of scientific explanation and other essays in the philosophy of science. New York: The Free Press, 1965.
KRIPKE, S. Naming and necessity. Cambridge: Harvard University Press, 1980.
LAPLACE, P.-S. Ensaio filosófico sobre as probabilidades. Rio de Janeiro: Pontifícia Universidade Católica/ Rio, 2010 [1814].
QUINE, W. van O. Two dogmas of empiricism. Philosophical Review, 60, p. 20-43, 1951.
RICHARDSON, A. Carnap’s construction of the world: the Aufbau and the emergence of logical empiricism. Cambridge: Cambridge University Press, 1998.
WITTGENSTEIN, L. Philosophical investigations. London: Macmillan, 1953.
Lorenzo Baravalle – Centro de Ciências Naturais e Humanas. Universidade Federal do ABC, Brasil. E-mail: lorenzo_baravalle@yahoo.it
[DR]
Locos y degenerados. Una genealogía de la psiquiatría ampliada – CAPONI (SS)
CAPONI, Sandra. Locos y degenerados. Una genealogía de la psiquiatría ampliada. Buenos Aires: Lugar Editorial, 2015. Loucos e degenerados. Uma genealogia da psiquiatria ampliada. Rio de Janeiro: Editora Fiocruz, 2012. Resenha de: VALENCIA, María Fernanda Vásquez. La biopolítica de los sufrimientos psíquicos. Scientiæ Studia, São Paulo, v.13, n. 2, p. 459-69, 2015.
En el año 2012, la editorial Fiocruz publicó la versión original en portugués del libro Loucos e degenerados. Uma genealogia da psiquiatria ampliada (reimpresa en 2014) de la investigadora y filósofa Sandra Caponi, versión que fue nominada en 2013 al premio Jabuti – uno de los más relevantes y tradicionales premios del libro en Brasil – en la categoría “psicología e psicoanálisis”. Esta obra que ha ido adquiriendo gran reconocimiento entre profesionales e investigadores latinoamericanos, especialmente brasileños (cf. Rebelo, 2013; Santos, 2013; Martínez, 2013), dedicados al estudio de la historia de las ciencias, la medicina, la salud mental y la psiquiatría, ahora puede ser consultada en idioma español, gracias a la reciente edición de Lugar Editorial de Argentina. Y será esa edición en español que aquí se citará y referirá.
Durante los años 1960 y 1970, comienza a desarrollarse una serie de críticas sobre la forma cómo la psiquiatría ejerce su poder en las poblaciones. Esas críticas provienen no solo de investigadores de las ciencias sociales y humanas, sino también de algunos psiquiatras, muchos de ellos interesados en evidenciar el internamiento forzado y las pésimas condiciones de vida de las personas diagnosticadas como enfermos mentales, así como la falta de validez del diagnóstico psiquiátrico (cf. Goffman, 1974; Foucault, 1961, 1963; Cooper, 1968; Laing, 1961; Basaglia, 1987; Rosen, 1974; Szasz, 1973). A las críticas dirigidas a las instituciones manicomiales, la lucha por la desinstitucionalización del tratamiento de las alteraciones mentales, la medicalización forzada y la crítica al modelo médico, se suman un conjunto de cambios sociopolíticos, tales como el establecimiento del neoliberalismo, la decadencia del totalitarismo soviético, las dictaduras latinoamericanas, conformando el contexto bajo el cual se estableció un movimiento, que algunos autores prefieren denominar como “anti-psiquiátrico” (cf. Perez, 2012; Roca, 2011).
Sin embargo, la desmanicomialización, que se extendió por decenas de países, en parte gracias a la lucha de dicho movimiento iniciado en Inglaterra, Italia y Estados Unidos, y que significó cambios importantes, en términos jurídicos y políticos, en algunos planos de salud de ciertos países, también permitió el aumento de la medicalización y la hegemonía de las empresas farmacéuticas, como mediadores de una nueva estrategia neoliberal que redujo la problemática a la administración masiva de medicamentos.
En Locos y degenerados, Caponi muestra que lejos de una reflexión crítica frente a los postulados cuestionados por los defensores de los derechos de las personas diagnosticadas como enfermos mentales, representados muchas veces por el movimiento anti-psiquiátrico, ocurrió una radicalización y un retorno a las viejas tesis de la psiquiatría biológica del siglo xix (cf. p. 63).
Ese retorno, afirma la autora, puede ser explicado, entre otras razones, por la recuperación de la hegemonía de la psiquiatría biológica, representada por los denominados neokrapelinianos, quienes, durante los años 1970, consiguen imponer una visión determinista, biologicista y neurológica de las enfermedades mentales, que se conserva hasta hoy y que influenció decididamente la edición del Manual diagnóstico y estadístico de los trastornos mentales (DSM), concretamente a partir del tercer DSM. Sumado a ese proceso disciplinar, el acelerado desarrollo de los psicofármacos, la idea de que las enfermedades mentales son producidas por un “desequilibrio químico” en el cerebro; el avance de los estudios genéticos, de las nuevas tecnologías hechas para “detectar” y “evidenciar” variaciones y cambios en el cerebro, así como los estudios estadísticos, aseguró el retorno de las tesis de la psiquiatría del siglo xix, reforzando todavía más el reduccionismo biológico sobre las enfermedades mentales.
Ese retorno, como bien muestra Caponi en su libro, habla de la persistencia, continuidad y discontinuidad de un proceso histórico que extiende sus raíces hasta la segunda mitad del siglo xix y que comienza, como afirma la autora, siguiendo la propuesta de Michel Foucault, con el Tratado de las degenerescencias de Benedict Augusto Morel publicado en 1857. La consolidación y transformación de la teoría de la degeneración marca la emergencia de lo “no patológico” y, al mismo tiempo, la expansión del poder psiquiátrico como dispositivo de defensa de la sociedad (cf. Foucault, 2001).
A partir de Locos y degenerados es posible observar cómo la articulación de mecanismos disciplinares y reguladores que involucran la creación de una teoría, es decir, la teoría de la degeneración, el nacimiento como disciplina científica y médica de la psiquiatría, la relación de esta disciplina con la justicia y la definición de un conjunto de dispositivos de internación, clasificación y regulación, posibilitaron la emergencia del discurso sobre el anormal.
Desde 1857 el saber psiquiátrico se reorganiza, amplía sus fronteras más allá de lo estrictamente asilar hasta convertirse en una estrategia biopolítica encargada de “resolver” gran parte de los problemas sociales. Ese mecanismo de expansión, se debió, entre otros motivos, a la transformación de su objetivo de cura en un objetivo orientado a la prevención, así como a la constitución de una red institucional que pudiera establecer interconexiones con diferentes instancias de poder.
La conformación de esa psiquiatría ampliada involucra una transformación epistemológica del concepto de degeneración, como lo muestra Caponi a lo largo de su libro, que persiste en la psiquiatría contemporánea, travestido y transfigurado bajo otras categorías psiquiatrías como las constituciones psíquicas o las predisposiciones hereditarias.
A través de Locos y degenerados es posible también entender como la degeneración se convierte en un programa de investigación, que no solo fue fructífero en Francia, sino también en Alemania, Italia, España y América Latina. Y, al mismo tiempo, cómo ese programa agregó todo un conjunto de profesionales, desde médicos, neurólogos, psiquiatras, pasando por abogados, jueces, criminólogos, higienistas, sociólogos, hasta políticos, periodistas y literatos. La degeneración estuvo relacionada con una serie de problemas diversos, tales como la purificación de la raza, la mistura racial, el progreso de las naciones, la eugenesia, la criminalidad, la pedagogía y muchos otros temas relativos a la higiene pública y social.
En su libro, Caponi realiza un interesante estudio histórico-epistemológico, en el que analiza las condiciones de posibilidad y de emergencia de esa psiquiatría ampliada como un mecanismo biopolítico que, a partir de la segunda mitad del siglo xix, permitió que el saber psiquiátrico expandiera sus fronteras al estudio e intervención de todas aquellas conductas, desvíos, anomalías, vicios y sufrimientos psíquicos que podían representar situaciones de conflicto o de desorden social. En la constitución de esa psiquiatría ampliada, el concepto de degeneración y la teoría de Morel tuvieron un papel central en la configuración de un marco explicativo que permitió intervenir sobre todo tipo de comportamientos categorizados como desviados.
Analizando la psiquiatría contemporánea, Caponi realiza un recorrido histórico que evidencia las permanencias y discontinuidades de ese concepto a lo largo de la configuración de la psiquiatría como disciplina científica hasta los actuales manuales de diagnóstico (DSM) hechos por la American Psychiatric Association (APA). En su opinión, los últimos años muestran una tendencia en las sociedades modernas a pensar todos los conflictos o dificultades en términos médicos y, más precisamente, en términos psiquiátricos. Paradigma que es reforzado por el aumento, cada día más alarmante, de nuevos diagnósticos que convierten situaciones y comportamientos de la vida cotidiana, como la tristeza, la preocupación, la pérdida del apetito, los problemas familiares o laborales, la pérdida de un ser querido, en síntomas o en patologías psiquiátricas, multiplicando hasta el infinito el campo de injerencia del poder psiquiátrico. Según Caponi, la proliferación de diagnósticos psiquiátricos se legitima con la publicación del tercer Manual de diagnóstico de trastornos mentales (DSM iii), en 1980. De hecho, en la última edición de ese manual (DSM v) en 2013, se incluyen 300 tipos de diagnóstico, siendo el luto y la rebeldía caracterizados como nuevos disturbios emocionales. La rebeldía, especialmente adolescente, es denominada ahora como “trastorno de oposición desafiante” (cf. Chacón, 2012). El determinismo biológico y hereditario que sirve de base para justificar la prevención y la intervención terapéutica descontextualiza y oscurece los problemas concretos que están relacionados con ese tipo de comportamientos o de situaciones cotidianas. Por eso, como afirma acertadamente Caponi, asistimos a una minimización de nuestra capacidad de reflexionar sobre nosotros mismos y ese determinismo restringe las posibilidades de crear estrategias más efectivas para dar respuesta a nuestros propios problemas (p. 16). Es precisamente ese presente problemático que hace pertinente el estudio histórico de las condiciones de posibilidad que permitieron que la psiquiatría se transformara en una estrategia biopolítica de defensa de la sociedad, teniendo como tarea principal administrar e anticipar las múltiples formas de comportamiento que pueden, tarde o temprano, afectar el orden social.
La importancia del estudio de Sandra Caponi es tanto metodológica como teórica. En primer lugar porque integra en un mismo análisis la historia conceptual de Georges Canguilhem y la genealogía de Michel Foucault, tomando de ambos elementos que permiten comprender las condiciones de emergencia y de posibilidad de la psiquiatría ampliada. Además, el libro ofrece un panorama completo del proceso a través del cual el concepto de degeneración y la teoría de Morel van sufriendo una serie de transformaciones, pero también de permanencias, evidentes en las teorías psiquiátricas que suceden los trabajos de Morel, concretamente los estudios de Valentin Magnan e Emil Kraepelin.
A lo largo de los seis capítulos Caponi desarrolla su propuesta teórica y metodológica para dar cuenta del contexto histórico de constitución de esa biopolítica de la población y de la administración de los sufrimientos psíquicos, enmarcada en una medicina de lo no patológico. En el primer capítulo titulado “Del tratamiento moral a la psiquiatría ampliada”, analiza la manera como se sucede el desplazamiento de una comprensión de la locura como representación, como fenómeno histórico e social, hacia la constitución de un discurso psiquiátrico entendido como dispositivo de poder y de saber. Dicho análisis es hecho a partir de una lectura integrada y profunda de cuatro libros de Michel Foucault (Historia de la locura en la época clásica; Vigilar y castigar; El nacimiento de la clínica; El poder psiquiátrico) a través de los cuales Caponi realiza una doble argumentación. Por un lado, muestra cómo se da, en la obra del autor francés, ese desplazamiento así como las discontinuidades y rupturas en los argumentos que ese autor utiliza para comprender las condiciones de emergencia y de posibilidad de la psiquiatría ampliada. Analizar cómo Foucault reorganiza sus argumentos a partir de una nueva perspectiva metodológica y teórica, que integra el problema de la relación entre el poder y el saber y ya no solamente el asunto de la locura como representación o percepción social, permite visibilizar la manera cómo se establecen y circulan relaciones de poder dentro del saber médico psiquiátrico. Entender cómo se articula el saber, la verdad y el poder, en relación con ese fenómeno social e histórico llamado locura, abre toda una constelación de nuevos y variados problemas relativos al poder disciplinar, la normalización y las estrategias y tácticas de control al interior de la institución asilar y el saber médico psiquiátrico.
A partir de esa lectura, Caponi se adentra en la psiquiatría clásica, analizando especialmente los estudios de Pinel y Esquirol, para mostrar cómo ese tipo de psiquiatría se aleja de la medicina y la clínica anatomopatológica y usa el interrogatorio psiquiátrico como dispositivo disciplinar y el “cuerpo ampliado” de la familia como un cuerpo fantasmagórico a partir del cual es posible ubicar un conjunto de conflictos y patologías, así como los antecedentes individuales de la enfermedad. Para Caponi, el interés por ese cuerpo ampliado comienza en la psiquiatría clásica, pues es a través de los interrogatorios que involucran un conocimiento sobre los antecedentes familiares, a partir de los cuales es posible comprender la trama de redes causales que operan en cada caso concreto, para determinar la variedad y la especie de alienación y su tratamiento. El interrogatorio evidencia entonces la existencia de elementos que desencadenan el proceso patológico al interior de las relaciones familiares (p. 44).
En ese mismo capítulo muestra cómo el tratamiento moral, definido por Pinel como la única forma de restablecer la salud de los alienados, puede ser entendido como un dispositivo disciplinar orientado a la disciplinarización de los cuerpos y a la vigilancia continua al interior del asilo. Según la autora, no es que la psiquiatría sea una disciplina en la que el cuerpo está ausente, como argumentaba Foucault; para ella, el cuerpo juega un papel decisivo en esa red, no solamente porque desde sus inicios la psiquiatría estuvo preocupada por encontrar correlaciones entre enfermedades mentales y lesiones, sino también porque el cuerpo se localiza en el centro de la terapéutica asilar, por lo menos en el caso de Pinel, y a partir de la segunda mitad del siglo xix, será la herencia mórbida la encargada de localizar las patologías mentales en el cuerpo, particularmente en el cerebro. A través del recorrido histórico que la autora realiza en el primer capítulo es posible comprender que la ausencia de ese cuerpo de la anatomopatología, el diagnóstico binario (loco, no loco), la descripción de superficie de los síntomas, la clasificación de las enfermedades tomando como modelo la clasificación botánica de Lineo y el proceso de cura vinculado con la restitución de conductas y valores morales “permiten definir el marco peculiar por el cual el poder psiquiátrico ingresa en la sociedad disciplinar” (p. 49).
“Clima, cerebro y degeneración en Cabanis” es el título que recibe el segundo capítulo del libro. Analizando específicamente la obra Rapports du physique et du moral de l’homme (1802) del ideólogo francés Georges Cabanis, Caponi muestra cómo antes de que Gall publicase su estudio sobre anatomía y patología del sistema nervioso, en Cabanis ya existía un interés por articular lo físico y lo moral, atribuyendo al cerebro y al sistema nervioso un papel central en la definición de la moralidad y de las conductas humanas.
Las ideas localizacionistas de Cabanis y el modelo explicativo que generó sirvieron de punto de partida, como muestra la autora, para que los teóricos de la degeneración pudieran, a partir de la segunda mitad del siglo xix, explicar las enfermedades mentales como alteraciones de las funciones o lesiones localizadas en el cerebro. En términos teóricos, el estudio de Cabanis permite comprender cómo el concepto de degeneración, que hasta ese momento era usado por la historia natural, ingresa en el campo médico. Tomando a Buffon como referencia, Cabanis analizará las modificaciones producidas en los cuerpos y en las conductas como efecto del calor y la humedad y estudiará la manera en que las alteraciones climáticas producen nuevas enfermedades y variaciones externas en los cuerpos, así como las influencias que produce sobre el cerebro. En Cabanis, la degeneración se presenta en el interior del cuerpo de los individuos, de modo que lo que degenera son los órganos, los tejidos y los fluidos corporales, explicando también la degradación de las facultades físicas y morales. Según Caponi, Cabanis inaugura una concepción médica de la moralidad, posibilitando también que se desarrolle un discurso optimista sobre las posibilidades de perfeccionamiento del género humano. De ese modo, si es posible pensar el mejoramiento animal y vegetal, lo es también el de los seres humanos. La regeneración como un plan de mejoramiento de las condiciones morales y físicas de los individuos y de los grupos aparece en ese horizonte discursivo entrelazado a las medidas higiénicas que permiten alterar los efectos nocivos del clima y modificar los comportamientos y los cuerpos humanos (cf. p. 75).
A través del segundo capítulo Caponi muestra la manera en que Cabanis, al relacionar la teoría de los humores, las influencias climáticas y la anatomopatología, permite el desarrollo de un conjunto de reflexiones y de estrategias de intervención sobre los cuerpos, en las que el cuerpo es comprendido a través de la integración de lo físico, lo moral y lo intelectual y, al mismo tiempo, un discurso que imagina el mal funcionamiento del cuerpo, especialmente del cerebro, como explicación de nuestros actos. En consecuencia, la regeneración moral de los individuos y de las razas a través de la mediación de la higiene y de la educación se convierte poco a poco en un esperanzador medio de intervención y en referencia privilegiada para la resolución de diversos conflictos sociales y morales.
En el tercer capítulo denominado “Benedict August Morel y la emergencia de la teoría de la degeneración”, Caponi analiza las condiciones de emergencia de la psiquiatría ampliada a través de la instauración, uso y consolidación de la teoría de la degeneración de Morel durante la segunda mitad del siglo xix. Esa teoría establece una clasificación etiológica de las enfermedades mentales, que permite definir grupos y familias de degenerados, entendidos como una desviación mórbida del tipo normal de la humanidad. A pesar de que, en Morel, los procesos de degeneración son siempre el resultado de diversas influencias mórbidas tanto físicas como morales, existe un elemento que se destaca entre otros como la causa general e integradora, esto es, la transmisión hereditaria. A diferencia de las teorías clásicas (Pinel, Esquirol) en las cuales la transmisión hereditaria actuaba como una causa más, y en las cuales lo que se heredaba eran patologías semejantes, por herencia similar, en la teoría de Morel, las causas predisponentes y las causas determinantes se combinan de tal manera que pueden llegar a producir en los descendientes enfermedades distintas a las de sus progenitores y aún pueden llegar a agravarse. Ese tipo de transmisión conocida como herencia disimilar o de transformación fue clave, junto con la referencia a las lesiones cerebrales, para que el saber psiquiátrico ampliase sus fronteras más allá del ámbito asilar. La combinación de esas causas permitía crear categorías de individuos cujas semejanzas externas servían de indicadores para los diferentes tipos de degeneración, creando así los conocidos estigmas de degeneración, marcas, o signos que se presentaban en los individuos, en los grupos, que podían agravarse y ser transmitidos hereditariamente. Esa combinación, muchas veces azarosa y aleatoria, definía un espacio extendido y de fronteras difusas, como lo muestra Caponi en el tercer capítulo, en el que fueron ubicadas las denominadas enfermedades mentales y, al mismo tiempo, todo un conjunto de comportamientos descritos como aberrantes, anormales, o desviados en relación con una norma biológica, social, jurídica y pedagógica.
De ese modo, en ese capítulo, Caponi analiza detalladamente la conformación de ese suelo epistemológico que posibilitó la creación y posterior consolidación de una psiquiatría ampliada, obcecada en clasificar y patologizar los más diversos comportamientos, así como el modo en que la teoría de la degeneración se ubica en ese espacio difuso en el que desaparecen las barreras taxativas entre lo normal y lo patológico. La degeneración explicará los comportamientos más graves y más leves como el resultado de causas físicas, intelectuales, sociales y morales interrelacionadas, así como su vinculación con las predisposiciones mórbidas, los estigmas de degeneración y la herencia patológica. Ese marco teórico, afirma Caponi, es fundamental para la prevención y la anticipación de la locura fuera del espacio asilar.
En el cuarto capítulo, titulado “La consolidación de un programa de investigación: Magnan y las patologías heredo-degenerativas”, la autora indaga sobre la repercusión de la teoría de la degeneración de Morel en la psiquiatría francesa de finales del siglo xix. Caponi se concentra en analizar dicha influencia en la definición de nuevos cuadros clasificatorios, en mostrar cómo a partir de Magnan la degeneración es entendida como un desequilibrio cerebral y la forma en cómo se desarrolla un programa de investigación interesado en la medicalización de los desvíos menores, de los comportamientos cotidianos que ingresan paulatinamente en el campo de saber y de intervención psiquiátrica.
Desde la segunda mitad del siglo xix e hasta 1920, la teoría de la degeneración se consolidó como el fundamento científico que legitimó la construcción de nuevas clasificaciones de patologías mentales e intervenciones médicas sobre las conductas de individuos y de grupos. La consolidación de ese programa de pesquisa se evidencia en la multiplicidad de artículos que durante esos años discuten la problemática en las principales revistas médicas francesas, Annales d’Hygiene Publique et de Mèdecine Legal y los Annales Médico-Psichologiques. A partir de los estudios de Valentin Magnan, uno de los principales discípulos de Morel, el problema de la degeneración es entendido como un desequilibrio cerebral o una desarmonía del cerebro, caracterizado por estigmas físicos, psíquicos e delirios. El desequilibrio, que sustituye la búsqueda por lesiones cerebrales específicas, permite entender la diversidad de los síntomas de los degenerados en función de la parte del cerebro afectada, los diversos cuadros patológicos que puede sufrir un individuo a lo largo de su vida, y la forma en que, a través de la herencia, diversas manifestaciones y comportamientos pueden ser transmitidos a los descendientes, evolucionando y llegando a ser irreversibles. La definición de esos cuadros sintomáticos como “síndromes de degeneración” facilita la clasificación de ese conjunto variable y diverso de comportamientos ubicados en una región difusa entre lo normal y lo patológico. Como afirma Caponi, higienistas, médicos y criminólogos se lanzan a la tarea de estudiar y describir ese amplio espectro de los “síndromes” que incluían desde manías, delirios, perversiones y demencias hasta pequeñas anomalías de comportamiento como miedos, temores y tristezas. Sobre la identificación entre las conductas cotidianas y las patologías psiquiátricas se fueron construyendo las bases epistemológicas de la psiquiatría moderna o, en otras palabras, de esa psiquiatría ampliada, que asume cada gesto, comportamiento y conducta como síntoma indicativo de un síndrome, trastorno o patología por venir.
En el quinto capítulo, denominado “Emil Kraepelin y la persistencia de la degeneración en la psiquiatría moderna”, Caponi continua mostrando cómo las mismas preocupaciones y los mismos intereses presentes en los teóricos degeneracionistas sirven de fundamento a los estudios de Kraepelin, conocido como el padre de la psiquiatría moderna. En ese capítulo, la autora se detiene a analizar los elementos de ese programa de pesquisa que persisten en la denominada psiquiatría moderna y encuentra que, aunque de manera transfigurada, metamorfoseada y disfrazada, buena parte de las cuestiones presentes en Kraepelin era también la de los degeneracionistas. Lo que resulta interesante puesto que la psiquiatría actual se reconoce heredera directa de esa tradición científica inaugurada por Kraepelin. Realizando un delicado y detallado análisis de comparación histórica entre algunos de los trabajos del psiquiatra alemán y de Morel, Magnan y otros degeneracionistas, Caponi muestra, alejándose de ciertos análisis historiográficos que pretenden colocar a Kraepelin en un horizonte discursivo diferente al de Morel, que muchos de los argumentos y estrategias de estudio de los desvíos y de los fenómenos patológicos se mantuvieron, casi de manera intacta, en los 50 años que separan a Kraepelin de Morel: la vinculación de lesiones cerebrales con las patologías psiquiátricas y las psicosis de degeneración; la preocupación por explicar la transmisión hereditaria de patologías, comportamientos y hechos sociales; la búsqueda de una clasificación nosológica precisa; la referencia a los estudios estadísticos y de psiquiatría comparada entre países y regiones; y el uso de fichas con preguntas estandarizadas que fueron utilizadas como estrategia para fundamentar de manera objetiva las clasificaciones nosológicas y las locuras de degeneración (cf. p. 141). Si bien, como muestra la autora, las fichas son una novedad en el repertorio de Kraepelin, tanto él como Morel, no solamente se preocuparon por definir estrategias analíticas para clasificar enfermedades o establecer nosologías, sino que también pretendieron crear dispositivos de intervención del espacio social, capaces de anticipar, prevenir y controlar los comportamientos anormales o desviados y las patologías mentales. Esa psiquiatría preventiva, orientada a la regeneración y a la moralización de masas por medio de medidas higiénicas presente en el discurso de Morel, se agudiza en Kraepelin como una forma de legitimar intervenciones psiquiátricas en el tejido social para anticipar desvíos y conductas indeseables.
A lo largo de ese capítulo, Caponi analiza detalladamente las transformaciones, limitaciones y permanencias del concepto de degeneración en Kraepelin, también analiza la biologización de los hechos sociales y la forma en que el saber estadístico se integra a su discurso para legitimar tanto las clasificaciones como las intervenciones psiquiátricas.
Esas ideas tienen continuidad en el sexto capítulo, titulado “Herencia y degeneración: de Kraepelin a los neo-kraepelinianos”, en el que Caponi expone cómo la problemática de la degeneración forma parte de cada una de las diferentes clasificaciones de enfermedades mentales que aparecen en las ediciones del Manual de psiquiatría clínica de Kraepelin, texto que marcó considerablemente la psiquiatría de las primeras décadas del siglo xx, no solamente en Europa y los Estados Unidos, sino también en América Latina. El capítulo expone cómo algunas de las tesis defendidas por el psiquiatra alemán fueron retomadas y recuperadas por la psiquiatría moderna, durante la década de los años 1970, específicamente por un grupo de psiquiatras de la Universidad de Washington, los denominados neo-kraepelinianos, teniendo una influencia directa, como muestra la autora, en la reformulación de la clasificación de diagnósticos elaborada por la Asociación de Psiquiatras Americanos (APA), concretamente a partir de su tercera edición publicada en 1980. El objetivo principal del capítulo es mostrar como las bases epistemológicas de Kraepelin reaparecen en el discurso de los neo-kraepelinianos, analizando las continuidades y diferencias entre esos discursos, para comprender las razones que llevaron a ese grupo de investigadores a reconocer como válidas las premisas construidas por la psiquiatría de la segunda mitad del siglo xix. A pesar de que los estudios de los neo-kraepelinianos parecen indicar una actualización y una continuidad en el esfuerzo por definir, a partir de los últimos descubrimientos de la neurofisiología cerebral, la estadística y la genética, clasificaciones confiables para las patologías mentales, Caponi argumenta que, en esencia, se trata de los mismos criterios de exclusión y de inclusión de la época de Kraepelin. En la opinión de la autora de Locos y degenerados, una misma matriz epistemológica persiste en todos esos discursos, marcada por un claro determinismo biológico que convierte los sufrimientos individuales, la historia de vida de los sujetos, en marcadores que pueden ser medidos y definidos patológicamente.
Aunque históricamente existen también claras diferencias entre todos esos discursos, y de que no se trata de afirmar que sean esencialmente iguales, Caponi insiste en que la psiquiatría actual continua interesada en desvendar los mismos secretos que estimularon al programa de investigación de los degeneracionistas, o sea, la relación entre las patologías psiquiátricas y la herencia, la construcción de una psiquiatría preventiva atenta al carácter evolutivo de las patologías y la búsqueda por la localización cerebral de los sufrimientos psíquicos. Caponi cierra con broche de oro su libro realizando algunas reflexiones finales en las que muestra la pertinencia del análisis histórico, epistemológico y conceptual como una forma de indagar y criticar problemas del presente.
Finalmente, esta reseña no pretende ser más que una aproximación parcial a los interesantes y provocadores planteamientos de Sandra Caponi en Locos y degenerados, por lo que invito a que los lectores se acerquen a este libro, que no solamente es una lectura obligada para quienes estudien ese tipo de temáticas, sino que también, gracias a la apasionada y amena escritura usada por la autora, resulta de gran provecho aún para aquellas personas que no estén interesadas directamente en esas problemáticas.
Referências
BASAGLIA, F. Los crímenes de la paz. México: Siglo xxi, 1987.
CHACÓN, P. DSM y el universo psi: diagnósticos a la medida del mercado. Revista de Cultura, 2012. Disponible en: <http://www.revistaenie.clarin.com/ideas/dsm-dsm5-psicologia-mercado-poderdiagnostico-psiquiatrico_0_664133801.html>. Acceso en: 24 oct. 2014.
COOPER, D. The dialetic of liberation. London: Peguin Books, 1968.
FOUCAULT, M. Histoire de la folie à l’âge classique. Paris: Plon, 1961.
_____. Naissance de la clinique. Une archéologie du regard médical. Paris: PUF, 1963.
_____. Os anormais. Curso no Collège de France, 1974-1975. São Paulo: Martins Fontes, 2001.
GOFFMAN, E. Manicômios, prisões e conventos. São Paulo: Perspectiva, 1974.
LAING, R. The self and others. London: Tavistock Publications, 1961.
MARTÍNEZ, A. Sandra Caponi, “Loucos e degenerados”: uma genealogia da psiquiatria ampliada. Historia y Sociedade, 25, p. 219-44, 2013.
PEREZ, C. Una nueva anti-psiquiatría. Críticas y conocimiento de las técnicas del poder psiquiátrico. Santiago: Lom Ediciones, 2012.
REBELO, F. Da teoría da degeneração de Morel à classificação das doenças mentais de Kraepelin. História, Ciência e Saúde – Manguinhos, 20, 4, p. 1756-60, 2013.
ROCA, A. V. Anti-psiquiatría; desconstrucción del concepto de enfermedad mental y crítica de la “razón psiquiátrica”. Nómadas, Revista Crítica de Ciencias Sociales y Jurídicas, 31, 3 p. 1-18, 2011.
ROSEN, G. Locura y sociedad: sociología histórica de la enfermedad mental. Madrid: Alianza Editorial, 1974.
SANTOS, A. R. Loucos e degenerados: uma genealogia da psiquiatria ampliada. Cadernos de Saúde Pública, 29, 1, p. 202-6, 2013. Szasz, T. El mito de la enfermedad mental. Buenos Aires: Amorrortu, 1973.
SZASZ, T. El mito de la enfermedad mental. Buenos Aires: Amorrortu, 1973.
María Fernanda Vásquez Valencia – Bolsista CAPES, PEC-PG. Programa de Pós-Graduação Interdisciplinar em Ciências Humanas. Universidade Federal de Santa Catarina, Florianópolis, Brasil. E-mail: mfdavasquez@gmail.com
DR
Jacques Ellul and the technological society in the 21st century – JERÓNIMO et al (SS)
JERÓNIMO, Helena Mateus; GARCIA, José Luís; MITCHAM, Carl (Org.). Jacques Ellul and the technological society in the 21st century. Dordrecht/Heidelberg/New York/London: Springer, 2013. Resenha de: BARRIENTOS-PARRA, Jorge. Revisitando o pensamento de Jacques Ellul na sociedade do século XXI. Scientiæ Studia, São Paulo, v.13, n. 2, p. 425-30, 2015.
O chamado progresso tecnocientífico, norteado exclusivamente pelo valor da eficiência, provoca diversos efeitos ambivalentes na sociedade e na biosfera advindos da relação de efeito mútuo existente entre as criações humanas – dentre elas a técnica – e a vida social e o meio ambiente. Assim sendo, é imperioso o estudo da condição do homem na sociedade tecnológica, tendo como objetivo a defesa da dignidade humana e a busca de um possível equilíbrio entre a ação antrópica e o meio envolvente para alcançar um desenvolvimento técnico e econômico que satisfaça nossas necessidades materiais, mas sem colocar em perigo a sociedade e a biosfera.
Nesse contexto, veio a lume a coletânea Jacques Ellul and the technological society in the 21st Century, publicada pela Springer, onde se discute a obra pluri e transdisciplinar de Jacques Ellul (1912-1994) no centenário de seu nascimento. O pensamento de Jacques Ellul é quase desconhecido no Brasil e esta obra, ainda que em inglês, certamente alcançará o seu público não somente no âmbito especializado da sociologia e da filosofia da técnica, mas também nas áreas de ciências sociais e de ciências humanas em geral, uma vez que trata de temas relevantes na fronteira de várias disciplinas e também das encruzilhadas colocadas pela tecnologia para o dia-a-dia dos homens e das mulheres de nosso século.
Ellul se inscreve entre os pensadores que no século XX ousam questionar os “sagrados” postulados da ciência e da técnica. Ele reconhece a influência intelectual de Karl Marx, a quem credita uma grande parte de seu desenvolvimento intelectual. Reconhece também a influência de Sören Kierkegaard, menos como filósofo, pai do existencialismo, do que como pensador que fraternalmente entrega sua experiência de sofrimento e de amor, e de Karl Barth, teólogo suíço que denunciou o hitlerismo, pregou a volta às Escrituras e a adaptação do Evangelho ao tempo presente.
Os editores sublinham a importância da reflexão de Jacques Ellul refletida em inúmeras obras que superam os limites das estreitas fronteiras disciplinares, entre as quais destacam Propagandes (1962), que examina essa técnica de grande influência sobre a massa e sobre o indivíduo da sociedade tecnológica tanto nas ditaduras como nos regimes democráticos, sendo utilizada como ferramenta para moldar o homem à sociedade e ao consumo; The political illusion (1967a), um estudo de como o político e a política são transformados pela técnica levando a uma dupla ilusão: a dos políticos que creem controlar a máquina do Estado e a dos cidadãos que creem poder orientar e controlar a política e os políticos; Métamorphose du bourgeois (1967c), que estuda como as classes sociais são transformadas na sociedade técnica; Autopsy of revolution (1971), De la révolution aux révoltes (1972a) e Changer de révolution: l’inéluctable prolétariat (1982), três obras sobre a revolução, nas quais estuda as possibilidades da revolução na atual sociedade técnica. Finalmente, em L’empire du non sens (1981b), analisa como a arte é também transformada pelo meio técnico.
Ellul publicou vários outros livros dedicados a questões históricas, tais como Histoire de la propagande (1967b) e, pode-se dizer, sua obra clássica, Histoire des institutions em quatro volumes, assim distribuídos: L’antiquité (1972b); Le Moyen-Âge (1975a); XVIe – XVIIIe siècle (1976); Le XIXe siècle (1979). Ellul escreveu também sobre questões sociológicas, tais como Exégèse des nouveaux lieux communs (1966), estudo que, seguindo a Gustave Flaubert (Dictionnaire des idées reçues), recapitula os clichês mentais e os lugares comuns da contemporaneidade; Les nouveaux possédés (1973), texto no qual Ellul mostra que, a despeito da racionalidade do homem moderno, há uma florescente religiosidade na sociedade técnica; Trahison de l’occident (1975b), que estuda os descaminhos de todas as civilizações inclusive a nossa, porém nesse texto Ellul também lembra que não podemos esquecer que a civilização ocidental é a fonte de valores como a liberdade e a democracia que todos reconhecem e aos quais aspiram; La parole humiliée (1981a), no qual estuda a imposição da imagem e a desvalorização da palavra em nossa época; e Déviances et déviants dans notre société intolerante (1992), onde Ellul enfrenta as ideias recebidas em relação àqueles que incomodam a ordem estabelecida, delinquentes, doentes mentais, idosos, desempregados, etc., encorajando-nos a reagir contra a exclusão e a segregação desses membros do corpo social que, sendo cada vez mais numerosos, podem transformar-se em maioria. Além desses trabalhos sociológicos e históricos, Ellul escreveu livros de reflexão teológica e centenas de artigos nos quais analisa e se posiciona como cientista e como simples cidadão em relação aos problemas da sua época.
Considerando que, em todo tempo, os homens utilizaram técnicas, Ellul se pergunta o que é que a técnica moderna tem de singular. Ele distingue a operação técnica, isto é, o que o homem fez em todas as sociedades da Antiguidade quando utilizou certas técnicas para caçar, pescar, construir uma cabana, colher frutos etc., e o fenômeno técnico que o mundo ocidental conhece a partir do século XVIII, que faz a técnica ir além dessa ordem simplesmente prática. A partir desse século reflete-se sobre as técnicas e opera-se a racionalização de sua utilização, o que produz uma mudança completa de perspectiva. Em outras palavras, o que era do domínio experimental e espontâneo passa a ser uma atividade racional com um objetivo claro e voluntário: a busca da eficácia. As técnicas serão avaliadas umas em relação às outras em função do critério da eficácia. E a preocupação da imensa maioria dos seres humanos de nosso tempo passará a ser a procura, em toda ordem de coisas, do método absolutamente mais eficaz. Assim, para Ellul, o fenômeno técnico pode resumir-se “na procura do melhor meio em todos os âmbitos”. Para o pensador francês, o acúmulo desses meios é o que produz uma civilização técnica, na qual Ellul identifica sete características do fenômeno técnico moderno, a saber: racionalidade, artificialidade, automatismo da escolha técnica, auto-crescimento, unicidade, universalismo técnico e autonomia.
Em junho de 2011, teve lugar a Conferência Internacional bilíngue “Rethinking Jacques Ellul and the Technological Society in the 21st Century/Repenser Jacques Ellul et la Société Technicienne au 21ème Siécle”, no Instituto de Ciências Sociais da Universidade de Lisboa (ICS-UL) com o objetivo de refletir sobre o legado de Ellul. Os textos incluídos nessa publicação são originários desse evento. Os seus autores são professores e universitários oriundos de vários países – Canadá, Coreia do Sul, Espanha, Estados Unidos, França, Portugal, Reino Unido e Romênia – que analisam a obra elluliana desde diversas perspectivas disciplinares. Como o ano de 2012 marcou o centenário do nascimento de Jacques Ellul, a ideia dos editores com a publicação desse livro é a de prestar-lhe uma homenagem e, ao mesmo tempo, refletir sobre suas ideias, avaliando seu legado.
O livro aqui resenhado estrutura-se em torno de três eixos que correspondem a suas três partes, a saber, (1) a civilização da técnica, (2) a autonomia da tecnologia e (3) razão e revelação, precedidos por um texto introdutório dos editores, Jerónimo, Garcia e Mitcham, trazendo luzes sobre a vida e a obra de Jacques Ellul, detendo-se especialmente na peculiaridade de seus trabalhos de crítica da sociedade tecnológica expressos na trilogia básica: La technique ou l’enjeu du siècle (1954), publicada em inglês em 1964 como The technological society e que alcançou grande repercussão nos Estados Unidos e no Canadá; Le système technicien (1977) e Le bluff technologique (1988).
A primeira parte, composta de sete textos, discute o diagnóstico que Ellul faz da sociedade tecnológica. O primeiro texto é de Carl Mitcham, que discute as razões que levaram o livro clássico de Ellul, La technique ou l’enjeu du siècle, traduzido para o inglês como The technological society, a ser mais popular e a ter maior influência nos Estados Unidos do que na França ou em qualquer outro país. O segundo texto, de George Ritzer, discute a teoria sociológica da mcdonaldization da nossa sociedade especulando que vivemos na era do “prosumer”, isto é, o fato de que a produção sempre envolve consumo (de matérias primas, trabalho, energia e tempo) e que o consumo implica sempre uma produção que supera a tradicional distinção feita entre a produção e o consumo, bem como as técnicas associadas a cada um desses processos. O terceiro texto é de WhaChul Son, que discute os meandros do princípio da eficiência, pedra fundamental da sociedade técnica no pensamento elluliano. Daniel Cérézuelle trata de um dos tipos de desorganização social criados pela sociedade técnica, a saber, novas formas de miséria e pobreza, analisando as suas causas e consequências. Yuk Hui procura uma melhor compreensão do sistema técnico a partir da análise dos conceitos de simbolização e desimbolização. O último texto dessa primeira parte, assinado por Isabelle Lamaud, versa sobre as questões da proteção ambiental e da ecologia técnica.
A segunda parte analisa um amplo leque de problemas relacionados com a tecnologia. O primeiro dos cinco textos dessa seção é de autoria de Langdon Winner. Tendo por base o livro Propagandes (1962) de Ellul, o autor reflete sobre os problemas e os desafios que essa técnica coloca para as modernas sociedades democráticas. Andoni Alonso analisa os ecos na era da Internet das ideias desse pensador fora de época, tido como herético e catastrofista pelos que sustentam o sistema econômico e tecnológico de crescimento sem limites. José Luís Garcia e Helena Mateus Jerónimo assinam um texto no qual pesquisam o acidente nuclear de Fukushima no Japão, no qual é manifesto que o poder tecnológico tende a ser autônomo, enquanto fenômeno social, em relação às formas de controle democrático, à regulação política, aos princípios consagrados quanto ao meio ambiente e às condições exigidas pela própria vida humana. Patrick Troude-Chastenet analisa o caso de saúde pública ocasionado pelo medicamento Mediator (benfluorex) que teria causado a morte de algo entre mil a duas mil pessoas na França entre 1979 e 2009, apontando as causas desse affaire no Leviatã tecnocientífico burocrático e propondo a resistência contra essa “megamáquina”. O último trabalho dessa segunda parte pertence a Nathan Kowalsky e Randolph Haluza-DeLay. Eles refletem sobre a exploração das areias betuminosas da Província de Alberta que é feita levando em conta unicamente critérios técnicos, afastando-se as considerações éticas e os riscos para a saúde das populações locais, o que confirma o diagnóstico de Ellul sobre a sociedade e o homem contemporâneos de que “tudo que é possível fazer com a técnica, é preciso, segundo toda evidência, fazer” (Ellul, 1985, p. 228). Assim passamos a vivenciar um pós-capitalismo cujo tom dominante é a organização técnica da sociedade.
O eixo da terceira parte do livro reside em questões teológicas suscitadas pelo pensamento e percurso institucional de Jacques Ellul. O primeiro texto desse bloco é assinado por Frédéric Rognon, onde, além de apresentar uma visão geral do protestantismo francês contemporâneo, o autor oferece-nos, biograficamente, um painel dos teólogos protestantes mais influentes na atualidade nos quais ausculta a influência (ou não) do pensamento de Ellul. Jennifer Karns Alexander, em seu capítulo, demonstra, com base em documentos do Conselho Mundial de Igrejas, tais como o Report of Comission III, intitulado “The Church and the disorder of society” de 1948, e na correspondência e escritos de Jacques Ellul, que já em 1948, nos trabalhos preparatórios da Assembléia de Amsterdam daquele ano do World Council of Churches, tinha amadurecido sua crítica radical da sociedade tecnológica, fundamentada em longos anos de leitura e estudo da Bíblia e em debates e reflexões com proeminentes teólogos e líderes de igrejas cristãs. O terceiro texto, da autoria de Virginia Landgraf, defende a tese de que, na concepção de Ellul, o espaço no qual a vida é possível na sociedade tecnológica estaria delineado pelos dez mandamentos. Andrei Ivan, no quarto artigo desse bloco, faz uma análise comparativa entre os ideários de Ellul e de Peter Berger em relação ao social e ao cultural a partir da concepção de Rowland de que haveria uma hostilidade do ponto de vista da fé cristã em relação a esses ideários. O último artigo dessa parte é assinado por Gregory Wagenfuhr que nesse texto critica os mitos da pós-modernidade a partir do pensamento de Ellul.
Em cada uma das partes desse livro, o leitor latino-americano em geral, e o brasileiro em particular, encontrará um manancial de reflexões e um ferramental adequado à interpretação das nossas sociedades em rápida transformação rumo à civilização tecnológica, a qual já é uma realidade em muitos espaços de nossa extensa geografia.
Nessa perspectiva, é oportuno reafirmar com Ellul que “outra história é possível, diferente daquela da tecnicização, da inserção do homem no mundo técnico: uma história que não é mais mecânica e necessária, mas que, ao contrário, está para ser inventada, e que não se completa em catástrofe” (Ellul, 1987, p. 246). Nessa caminhada, o belo trabalho dos editores, materializado no livro Jacques Ellul and the technological society in the 21st century, é uma excelente contribuição para a reflexão em torno dessa outra história possível almejada por Ellul.
Referências
ELLUL, J. La technique ou l’enjeu du siécle. Paris: Armand Colin, 1954.
_____. Propagandes. Paris: Armand Colin, 1962.
_____. The technological society. New York: Alfred Knopf, 1964.
_____. Exégèse des nouveaux lieux communs. Paris: Calmann-Lévy, 1966.
_____. The political illusion. New York: Alfred Knopf, 1967ª
. _____. Histoire de la propagande. Paris: PUF, 1967b.
_____. Métamorphose du bourgeois. Paris: Calmann-Levy, 1967c.
_____. Autopsy of revolution. New York: Alfred Knopf, 1971.
_____. De la révolution aux révoltes. Paris: Calmann-Lévy, 1972a.
_____. Histoire des institutions. L’Antiquité. Paris: PUF, 1972b. v. 1.
_____. Les nouveaux possédés. Paris: A. Fayard, 1973.
_____. Histoire des institutions. Le Moyen-Âge. Paris: PUF, 1975a. v. 2.
_____. Trahison de l’Occident. Paris: Calmann-Lévy, 1975b.
_____. Histoire des institutions. XVIe – XVIIIe siècle. Paris: PUF, 1976. v. 3.
_____. Le système technicien. Paris: Calmann-Lévy, 1977.
_____. Histoire des institutions. Le XIXe siècle. Paris: PUF, 1979. v. 4.
_____. La parole humiliée. Paris: Seuil, 1981a.
_____. L’empire du non sens: l’art et la société technicienne. Paris: PUF, 1981b.
_____. Changer de révolution: l’inéluctable prolétariat. Paris: Éditions du Seuil, 1982.
_____. Mudar de revolução: o inelutável proletariado. Rio de Janeiro: Rocco, 1985.
_____. Ce que je crois. Paris: Bernard Grasset, 1987.
_____. Le bluff technologique. Paris: Hachette, 1988.
_____. Déviances et déviants dans notre société intolérante. Toulouse: Érès, 1992.
Jorge Barrientos-Parra – Departamento de Administração Pública. Faculdade de Ciências e Letras de Araraquara. Universidade Estadual de São Paulo, Brasil. E-mail: barrientos@fclar.unesp.br
[DR]
Entretien sur la mécanologie – SIMONDON (SS)
SIMONDON, Gilbert. Entretien sur la mécanologie. Revue de Synthèse, 6a. série, 130, 2, p. 103-32, 2009. Resenha de: CRUZ, Cristiano Cordeiro. Avanço técnico e humanização em Gilbert Simondon. Scientiæ Studia, São Paulo, v.13, n. 2, p. 431-38, 2015.
Simondon, ainda que não conhecido do público não especializado, é um autor bastante importante, cujas ideias, ainda atuais, influenciaram o pensamento de estudiosos do fenômeno técnico como Jacques Ellul (2012 [1977]) e Andrew Feenberg (2015). Sua análise sobre a técnica tem como intenção principal declarada ajudar as pessoas a superarem um conhecimento limitado e/ou equivocado a respeito dela, de sorte a tornarem-se capazes de construir uma vida individual e coletiva melhor para si e para os demais. Os principais problemas sociais de nosso tempo, em sua opinião, não advêm de uma excessiva tecnificação da vida, mas, ao contrário, de um atraso da cultura com respeito às possibilidades do desenvolvimento técnico. É por isso, então, que ele se opõe aos humanistas de sua época, para os quais estaria na máquina o mal a ser combatido, e não o remédio a ser procurado e desenvolvido. Tais ponderações estão presentes, como se verá, nestas entrevistas de 1968.
Outro ponto importante do pensamento de Simondon, e que o opôs à cibernética de Norbert Wiener (1948; 1968), é a natureza e o papel da informação. Ainda que, para o francês, a informação de realimentação, necessária para o feedback promotor da homeostase, seja um caso particular daquilo que mais amplamente seria a informação, ela tanto pode dar-se de maneira rústica, estranha à moderna cibernética de Wiener, quanto é insuficiente ou apenas parcial, no que tange efetivamente à informação, por duas principais razões. Por um lado, em termos biológicos, a informação não tem por fim apenas o equilíbrio do organismo, mas está na base dos processos de individuação pelos quais ele passa (cf. Barthélémy, 2014, p. 146-7). Por outro lado, em termos sociais, as informações providas pelos mais diversos mecanismos artificiais de controle ou mensuração só são úteis para a ação reguladora, se for provido ou considerado também o panorama total de fundo, em relação ao qual essa informação poderá ser interpretada e fazer sentido (cf. Barthélémy, 2014, p. 147-8; Simondon, 1989 [1958], p. 284-5). Assim, uma teoria da informação deveria estar ocupada com a gênese da informação, nas trocas mútuas entre os indivíduos e deles com seus meios associados (cf. Barthélémy, 2014, p. 149), muito mais do que com o ruído, o canal de transmissão ou perdas, a predição e a reconstituição da mensagem enviada.
Não obstante tais diferenças entre os dois autores, as entrevistas farão referência apenas ao possível caráter rústico da homeostase. Juntamente com isso, elas aludirão a outro ponto de divergência entre eles, o caráter marcadamente subversivo ou ampliador que uma invenção técnica autêntica potencialmente tem em face ao estabelecido culturalmente. Com isso, o grande valor da informação estaria, para Simondon, em ela ser principalmente potencializadora da individuação e da invenção, e não em seu papel de asseguradora da ordem estabelecida, através da regulação ou da conformação homeostática (cf. Barthélémy, 2014, p. 150-3).
Isso posto, procederemos agora à apresentação das entrevistas de Simondon, que será seguida de uma breve problematização de alguns pontos de sua teoria.
Entretien sur la mécanologie é a transcrição de duas entrevistas concedidas por Simondon em 1968 ao jornalista canadense Jean Le Moyne. O entrevistador estava em vias de elaborar três filmes sobre a técnica, um para cada um dos três modos técnicos de existência apresentados por Simondon em Du mode d’existence des objets techniques (1958), as quais Le Moyne chama de estático, dinâmico e reticular. Nas 56 duplas de perguntas e respostas que compõem esse documento, Simondon passará por diversos dos pontos-chave de sua reflexão sobre a técnica, aprofundando e esclarecendo certos aspectos de sua obra de 1958.
Naquilo que se segue, vamos ater-nos às partes das entrevistas que nos parecem ser as mais relevantes para explicitar essa que Simondon toma para si como sua principal meta, a de ajudar-nos a melhor compreender o fenômeno técnico e a assumi-lo como lugar de uma “revolução cultural” (p. 128). Com isso, partes substanciais do material, que funcionam principalmente como um detalhamento ilustrativo para a elaboração do filme de Le Moyne, serão deixadas de lado.1
Uma primeira característica da técnica é que ela funciona sempre como mediação entre o ser humano e o mundo, ou entre os objetos técnicos (p. 106). Por essa razão, de modo a ser uma realidade material que opera tal mediação, o objeto técnico precisa, antes de tudo, individuar-se, constituir-se como uma unidade, como algo sólido. Essa unidade também pode ser obtida pela integração de subunidades, como nas máquinas. Seja como for, o elemento básico de onde se parte será sempre, em si, uma unidade material (p. 107 [2]). E à medida que o objeto técnico vai tornando-se mais complexo, o papel da informação para que ele subsista aumenta enormemente, porque uma máquina, assim como um ser vivo, precisa ser estável, ou seja, precisa dispor de mecanismos de autorregulação (cf. p. 107 [3]) para alcançar a homeostase. Esse estado de equilíbrio, contudo, já está presente em objetos bastante primitivos, como uma lâmpada a óleo, não sendo uma prerrogativa dos modernos robôs ou outros sistemas automáticos, nos quais existem estruturas específicas de comunicação e controle (cf. p. 123-5 [44]).
Algo que não está presente nas entrevistas, mas que é amplamente trabalhado por Simondon em outras partes (cf. Barthélémy, 2014, p. 37-42), é o constante e infindo vir-a-ser ou devir que caracteriza todo indivíduo, técnico ou vivente, em sua relação com seu meio associado. No caso do objeto técnico, sua evolução caminha em direção à concretude, que se configuraria por uma unidade sinergética interna e uma integração/ adaptação crescente ao meio (cf. p. 121-3 [40-43]). Assim, um objeto concreto seria aquele capaz de manter-se (autorregular-se) e no “qual, organicamente, nenhuma das partes pode ser completamente separada das outras sem perder seu sentido” (p. 122).
Em seu desenvolvimento histórico, todo objeto técnico passaria por três fases ou etapas. Ele surgiria indivisível, estático, uma vez que, como se viu, toda solução técnica, ainda que composta por subunidades, apresenta-se como uma unidade material. Na sequência, viria a fase dinâmica da dicotomização, caracterizada pela adaptação do objeto técnico ao mundo exterior e ao usuário. No primeiro caso, teríamos mais propriamente a evolução técnica, marcada pela crescente concretização e pelo desenvolvimento de funcionalidades. No que tange à adaptação aos usuários, podem intervir valores não técnicos (por exemplo, econômicos), de modo que, para tornar o objeto atraente ou desejável pelo comprador, ele é inserido em uma embalagem que faz com que sua natureza técnica seja dificilmente percebida. É daí que pode surgir, então, o desejo de trocar de carro, por exemplo, por ele estar “fora de moda”, o que é um “erro cultural fundamental” (p. 109), já que “estar na moda” tem muito pouco a ver com a natureza própria da técnica. Por fim, uma vez que o objeto está estabilizado, teríamos a fase de rede, possível unicamente depois da industrialização, quando as diversas partes em que ele foi subdivido estão padronizadas e podem ser facilmente trocadas ou consertadas. O objeto torna-se, com isso, mais barato e mais fácil de ser mantido/conservado (cf. p. 108-10 [7]). Por conta da padronização, ele torna-se também mais versátil, podendo ser facilmente integrado em outras configurações (cf. p. 122-3 [42]). Pagase, não obstante, um preço pela entrada nesta última etapa, uma diminuição na robustez do objeto. Algo semelhante à perda de autonomia do motor elétrico em relação à rede de alimentação, quando comparado com o motor a vapor e aquilo que lhe serve de combustível. De fato, quando o objeto torna-se parte ou dependente de uma rede, o mau funcionamento ou deterioração dessa rede pode torná-lo inoperante. Foi o que aconteceu na Segunda Guerra Mundial, quando as locomotivas elétricas deixaram de funcionar por conta do colapso da rede de alimentação, enquanto o trem a vapor, em sua menor especialização, pôde seguir funcionando, sendo alimentado por lenha, carvão e outros materiais combustíveis à disposição (cf. p. 112-3 [15-20]).
Seja como for, o fato é que, segundo Simondon, existe um grande desconhecimento acerca da técnica pelas pessoas. Isso acontece porque a analisamos com uma razão que não lhe é contemporânea, mas que está atrasada em relação ao estágio de seu desenvolvimento. Para que pudéssemos superar essa defasagem, compreendendo adequadamente o objeto técnico, precisaríamos “saber como ele é constituído em sua essência e ter assistido sua gênese, seja diretamente, quando possível, seja pelo ensino” (p. 110). Isso, entretanto, está quase que absolutamente ausente em nossas sociedades, nas quais não dispomos de um adequado ensino de história das técnicas (cf. p. 108-11 [7-8]).
A técnica, contudo, não é algo alheio ao ser humano (cf. p. 129 [56]). Ao contrário, ela é proveniente da realidade humana, tem origem na incompatibilidade que buscamos superar entre aquilo que desejamos poder realizar (a ordem do antecipado) e aquilo que conseguimos (ordem do real) (cf. Simondon, 2008, p. 140). A bem da verdade, a técnica é não apenas o mediador entre nós e o mundo, ela (também) assegura nossa harmonização com ele. Com efeito, é a técnica que pode tornar a natureza um lugar mais seguro e propício para a vida humana, ao mesmo tempo em que, ao racionalizar nossa atuação sobre o mundo, reduz nossos danos e impactos ilógicos sobre ele (cf. p. 129 [56]). É nesse sentido, então, que o mundo carece de poetas técnicos (cf. p. 111-2 [14]), de pessoas capazes de desenvolver a conaturalidade entre a “rede humana” e a “geografia natural da região”, entre as pessoas, enquanto grupos e sociedades, e o mundo no qual elas habitam. Tais técnicos seriam poetas, uma vez que suas invenções representariam encontros de significações; não uma violência ou uma submissão da natureza, mas um auspicioso desenvolvimento humano em harmonia com ela.
E esse devir da técnica, do mesmo modo daquele que se observa no desenvolvimento dos seres viventes, não acontece segundo linhagens unilineares, mas múltiplas, porque, diante de realidades ambientais distintas, as mediações entre o ser humano e o mundo tendem a ser diferentes. De fato, “não se faz uma ferramenta com o que quer que seja” (p. 121), de modo que o desenvolvimento técnico acaba por relacionar-se com as razões técnicas de utilidade (aquilo que se busca resolver), de inteligência (o arsenal de conhecimentos e habilidades de que o grupo dispõe) e com a natureza ambiente (o habitat em que vive o grupo e aquilo que ele oferece como base material possível para a construção do objeto) (cf. p. 120-1 [39]).
Mas quais são as consequências, agora para a cultura, do desconhecimento de tudo isso que Simondon apresenta como característico da técnica? A consequência principal ou mais insidiosa é que acabamos por privar-nos daquilo que poderia ser uma das formas de superar várias de nossas mazelas sociais. Com efeito, a possibilidade de superação da tecnocracia, da degradação ambiental e de diversos dos males do modo como vivemos em sociedade, e que é muitas vezes imputado à técnica, passa justamente por tomá-la em sua essência, libertando-a da condição de escravidão a que a submetemos, em nossa busca por poder e controle sobre a natureza e sobre as outras pessoas (cf. Simondon, 1989 [1958], p. 126-8; 1989, p. 287-90). O elemento de humanização da técnica encontra-se no fato de que ela, em seu desenvolvimento autêntico, subtrai-se das ordenações finalistas que frequentemente caracterizam e submetem a ordem social: “o homem liberta-se pela técnica da restrição (contrainte) social; pela tecnologia da informação, ele torna-se criador dessa organização de solidariedade que uma vez o aprisionou” (Simondon, 1989 [1958], p. 104). Com isso, a técnica oferece a possibilidade de libertação das naturalizações de certas estruturações culturais, permitindo-nos também a nós, individual e coletivamente, devir. Entretanto, por conta da nossa ignorância a respeito de sua real natureza, o que acaba por suceder é o contrário disso, ao invés de fazermos a cultura adiantar-se, alargar-se para entrar em fase com o desenvolvimento técnico e as novas possibilidades de encontros de significações que ele nos traz, tendemos a submetê-lo àquilo que ele era vinte anos antes (cf. p. 109).
Assim, porquanto o futuro técnico seja cada vez mais o das redes, estudá-las é fundamental. A dificuldade que podemos ter para entendê-las advém do fato de que, tomada nesse nível, a técnica está tanto relacionada a coisas muito grandes quanto representa a mediação entre o ser humano em sociedade e a natureza (cf. p. 126). Seja como for, pensar as redes, assumir conscientemente o seu desenvolvimento e a articulação delas em redes de redes, é o desafio daqueles que não querem apenas construir a história (do passado), mas incidir na transformação cultural do presente e do futuro. A superação do atraso cultural e de tantos de nossos problemas pode vir exatamente disso (cf. p. 127-8 [50-51]). Conhecer verdadeiramente a técnica e permitir seu desenvolvimento autêntico é, então, a porta para uma verdadeira revolução cultural (cf. p. 127-8).
Esse é, pois, o itinerário seguido por Simondon nessas duas entrevistas publicadas pela Revue de Sinthèse. Nelas, como se viu, a importância da reflexão cuidadosa sobre o fenômeno técnico ocorre com vistas a que possamos construir conscientemente o futuro que queremos para nós. Futuro da maximização das nossas possibilidades de ser, da harmonização com a natureza e da amizade com o objeto técnico (que nos impediria de reduzi-lo a meio para a dominação e o controle). A técnica, porém, é incapaz de desenvolver-se a si própria. Uma invenção só pode ter lugar na mente humana, como mediação possível entre aquilo que desejamos (ou antecipamos) e aquilo que já existe (cf. Simondon, 2008, p. 186-7). É por essa razão que Simondon idealiza a figura dos técnicos-poetas, capazes da construção de novos sentidos e harmonizações entre nós e o mundo. Disso resultaria a subsequente pressão sobre a cultura para que ela se amplie, que é a condição de possibilidade de seu próprio devir e do das pessoas.
A teoria de Simondon, entretanto, enfrenta um problema de difícil superação, que é a sua compreensão de que o desenvolvimento técnico pode ocorrer à margem e independente dos valores sociais. Em sua concepção, haveria uma força interna que, por si só, governaria o processo de aumento de concretude dos objetos já existentes e de surgimento de novas mediações entre o ser humano e a natureza. Contudo, tal entendimento, além de ser de difícil constatação empírica, parece desconsiderar o fato de que o técnico inventor, aquele que percebe a tensão entre a ordem do real e a do antecipado, buscando soluções técnicas para compatibilizar as duas, é um ser humano, membro de uma comunidade e de uma cultura, além de ser um técnico. Assim, parece forçoso admitir que boa parte daquilo que lhe chamará a atenção no mundo, ou seja, os problemas ou desejos que lhe seduzirão, será aquilo que, de alguma forma, é significativo, caro ou (aparentemente) urgente/ necessário para o grupo ao qual ele pertence. Desse modo, a técnica encerraria em si também valores e buscas sociais, de sorte que o seu desenvolvimento seria campo também para disputas políticas. É o que sustenta Feenberg (cf. 1995, 1999, 2002, 2003). Com respeito à análise da incorporação de valores sociais ao fenômeno técnico, poderíamos citar ainda diversos outros autores. É o caso, por exemplo, de Mumford (cf. 1964) e Winner (cf. 1979; 1986). Cada qual, entretanto, adotará uma abordagem distinta, seja pelo tipo de leitura que faz – de cunho mais histórico, político ou filosófico –, seja pelo entendimento que constrói e aquilo que propõe a partir dele.
Além disso, parece que Simondon concebe que toda nova funcionalidade encerraria sempre e necessariamente apenas o potencial de fazer o bem ao ser humano, à sociedade e ao meio ambiente. Os efeitos colaterais dela e seus riscos potenciais, como bem o analisam, por exemplo, Ellul (cf. 2008 [1954], 2012 [1977], 1990, 1962), não são jamais por ele considerados. Porém, se os riscos e os efeitos colaterais fazem parte da técnica, tanto quanto sua capacidade de nos prover mediações com o mundo natural, e se os valores que possuímos enquanto seres humanos fazem-nos enxergar o mundo, suas possibilidades e seus aspectos intocáveis de maneira singular, então múltiplas soluções técnicas para um mesmo problema são teoricamente possíveis (cada qual tributária do local existencial e valorativo de que se parte) e uma ou algumas delas serão mais legítimas para quem as avalia do que as outras. É o que defende Hugh Lacey (2011). A luta por fazer prevalecerem as soluções técnicas mais de acordo com os valores que os grupos têm para si, em detrimento daquelas que lhes são menos legítimas, seria a base da democratização da tecnologia proposta por Feenberg.
Em suma, então, se é certo, por um lado, que a teoria de Simondon, tratada em alguns dos seus pontos principais nestas duas entrevistas por ele concedidas em 1968, oferece-nos elementos bastante interessantes e atuais para a reflexão sobre a técnica, por outro, ela parece poder ou requerer ser enriquecida, alargada ou transformada, de modo a dar conta de aspectos do fenômeno técnico que originalmente parece deixar descobertos.
Notas
1 Para facilitar a localização do texto na Revue de Synthèse, várias das referências a ele constarão da numeração da página, seguida por um número entre colchetes, que corresponde à dupla pergunta-resposta em que elas aparecem, numeradas sequencialmente.
Referências
BARTHÉLÉMY, J. H. Simondon. Clamecy: Les Belles Lettres, 2014.
ELLUL, J. The technological order. Technology and Culture, 3, 4, p. 394-421, 1962.
_____. The technological bluff. Translation G. W. Bromiley. Grand Rapids: Eerdmans, 1990.
_____. La technique ou l’enjeu du siècle. Paris: Économica, 2008 [1954].
_____. Le systhème technicien. Paris: Cherche Midi, 2012 [1977].
FEENBERG, A. Alternative modernity: the technical turn in philosophy and social theory. Berkeley: University of California Press, 1995.
_____. Questioning technology. New York: Routledge, 1999.
_____. Transforming technology: a critical theory revisited. New York: Oxford University Press, 2002.
_____. Between reason and experience: essays in technology and modernity. Massachusetts: The MIT Press, 2003.
_____. Simondon e o construtivismo: uma contribuição recursiva à teoria da concretização. Scientiae Studia, 13, 2, p. 263-81, 2015.
LACEY, H. A imparcialidade da ciência e as responsabilidades dos cientistas. Scientiae Studia, 9, 3, p. 487500, 2011.
MUMFORD, L. Authoritarian and democratic technics. Technology and Culture, 5, 1, p. 1-8, 1964.
SIMONDON, G. Du mode d’existence des objets techinques. Paris: Aubier, 1989 [1958].
_____. L’individuation psychique et collective – à la lumière des notions de forme, information, potential et métastabilité. Paris : Editions Aubier, 1989.
_____. Imagination et invention, 1965-1966. Paris: La Transparence, 2008.
WIENER, N. Cybernetics: or control and communication in the animal and the machine. New York: The Technology Press, 1948.
_____. Cibernética e sociedade: o uso humano de seres humanos. Tradução J. P. Paes. São Paulo: Cultrix, 1968.
WINNER, L. Tecnología autónoma: la técnica incontrolada como objeto del pensamiento político. Barcelona: Gustavo Gili, 1979.
_____. Do artifacts have politics? In: _____. The whale and the reactor: a search for limits in an age of high technology. Chicago: University of Chicago Press, 1986. p. 19-39.
Cristiano Cordeiro Cruz – Departamento de Filosofia. Faculdade de Filosofia, Letras e Ciências Humanas, Universidade de São Paulo, Brasil. Bolsista da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), processo 2013 / 18757-0. E-mail: cristianoccruz@yahoo.com.br
[DR]
Imagination et invention, 1965-1966 – SIMONDON (SS)
SIMONDON, Gilbert. Imagination et invention, 1965-1966. Edição estabelecida por Nathalie Simondon. Apresentada por Jean-Yves Chateau. Paris: Les Éditions de la Transparence, 2008. Resenha de: CAMOLEZI, Marcos. Sobre o conceito de invenção em Gilbert Simondon. Scientiæ Studia, São Paulo, v.13, n. 2, p. 439-48, 2015.
I
Publicado em 2008, o curso Imagination et invention, 1965-1966 expõe o que Gilbert Simondon denomina ciclo genético das imagens. No pano de fundo, está em jogo uma ontologia da transformação operada pelos conceitos de defasagem, transdução e metaestabilidade, resultantes da tese principal L’individuation à la lumière des notions de forme et d’information (Simondon, 2005). Embora por ela não tenhamos ocasião de avançar, o apontamento é importante na medida em que esclarece o perfil da reflexão que organiza o próprio desenvolvimento de Imagination et invention. O curso mostra haver uma autonomia no tratamento da evolução ontogenética das imagens com relação aos operadores conceituais ontológicos que, internamente, definem o ciclo em movimento. Assim, Simondon afirma tratar-se de uma análise fenomenológica “no sentido próprio do termo” (p. 15), um estudo das “manifestações concretas” das imagens, cujo sentido efetivo é o de “impor sua natureza”.
O autor concebe quatro fases do circuito ontogenético das imagens: imagens motoras, imagens perceptivas, imagens afetivo-emotivas (ou imagens-símbolo) e, por meio da invenção, objetos-imagem. Aqui, vamos dirigir-nos diretamente à passagem da terceira à quarta fase, relativa à invenção dos objetos técnicos. Nela está em jogo mostrar como o universo dos símbolos é portador de um potencial que não pode atualizar-se intrinsecamente, isto é, unicamente por meio do reordenamento e multiplicação dos próprios símbolos. Enquanto imagem, o símbolo abarca um conjunto de possíveis que só podem atualizar-se em sentido concreto e preciso por uma mudança de ordem de grandeza. Em situações concretas, imagens-lembrança e imagens-símbolo compõem um universo mental tensionado com estruturas exógenas, como os membros do corpo e os objetos. É quando esse universo “está saturado, não podendo mais acolher experiência nova, que o sujeito deve modificar sua estrutura para encontrar dimensões de organização mais vastas, mais ‘potentes’, capazes de superar as incompatibilidades experimentadas” (p. 21). A invenção deve consistir justamente na saturação de um universo metaestável de imagens à medida que um campo nascente de finalidade não pode ser resolvido pelo campo das experiências passadas.
Para que a invenção seja consumada, entretanto, é necessário que no desenvolvimento da imagem confira-se predominância a uma determinada valência intrínseca, até então equalizada no interior do símbolo. Se o símbolo está disponível ao sujeito apenas de modo ambivalente (como imago, por exemplo, p. 127-31), ele não poderia oferecer condições suficientes para que o sujeito aja por ele, esgotando o potencial do objeto simbolizado segundo uma tendência específica de ação. Compreender a invenção consiste, antes de tudo, em entender que a passagem do símbolo ao objeto propriamente dito efetiva-se por uma queda do equilíbrio (metaestabilidade) ao desequilíbrio. Ao longo de todo o livro, procura-se redefinir a imaginação em termos contínuos e dinâmicos; não como faculdade justaposta a tantas outras, mas como potencial motor, perceptivo e afetivo capaz de objetivar conjuntos ordenados de imagens. Nesse sentido, a invenção resulta como um movimento da imaginação, uma atualização de energia potencial por reestruturação: “um problema é apenas uma isca, uma colocação em movimento” (p. 173). É, portanto, somente no instante em que a imagem ordena-se de modo a atualizar uma de suas linhas potenciais segundo um desígnio preciso que o estado de saturação alivia-se construtivamente e a invenção consuma-se.
Uma vez definido o processo dinâmico que resulta na invenção, Simondon procura compreender a essência dos objetos tornados autônomos. Em primeiro lugar, a invenção técnica consiste essencialmente na restituição de compatibilidade que se torna possível entre os modos de ação e os objetivos previstos. Em segundo lugar, em razão dessa restituição, a invenção tem por consequência essencial a amplificação dos potenciais da ação.
Como compatibilização, o que está em jogo na invenção de um objeto técnico é a criação de um sistema de transferência entre ordens distintas. A alavanca e o guincho, por exemplo, transferem movimento, servindo como mediação entre o que é movido e o organismo de acordo com uma ordem que não é possibilitada pela ação direta da estrutura psicomotora do operador. O “sujeito faz parte da ordem de realidade em que o problema é colocado; ele não faz parte daquela do resultado imaginado; a invenção é a descoberta de mediação entre essas duas ordens” (p. 141-2). Vemos um objeto e o tocamos, ele é dimensionado por uma síntese entre a visão e o tato; batemos com os nós dos dedos em sua superfície, ouvimos o som que dele ecoa e avaliamos o material de que é feito, estimando sua densidade por uma síntese entre o tato e a audição. A apreciação que prepara a ação adequada sobre o objeto não decorre, portanto, apenas de um ou outro sentido, mas da integração entre todos eles. Ela pode, ainda, ser amplificada pela simbolização metrológica a fim de que a ação que pretendemos sobre ele torne-se mais precisa. Assim, a imagem do objeto, desenvolvida a partir do nível sensório-motor aos níveis perceptivo e simbólico, não deixa de consistir em uma “reserva de soluções para a invenção concreta, um pouco como um mapa de ruas é uma reserva sempre pronta de itinerários”, de modo que os “desvios possíveis preexistem na imagem” (p. 146). Pelo potencial de antecipação da imagem, a invenção eclode como ordenação de objetos previamente oferecidos, mas não previamente ordenados. Ela consiste, portanto, em uma compatibilização, uma comunicação, uma organização, enfim, uma solução que deve atravessar duas ordens de grandeza.
Podemos conceber o objeto técnico como se fosse organizado em três camadas. As camadas externa e intermediária seriam as instâncias de compatibilidade extrínseca entre, respectivamente, o objeto e o meio e o objeto e o operador. No caso do carro, a camada externa corresponderia ao design exterior e aos acessórios. A camada propriamente intermediária corresponderia às estruturas de mediação do condutor com a camada interna (chave de ignição, pedais, câmbio, volante). É por ela que o organismo controla a maneira como se desloca, em comunicação mediata, porém ininterrupta, com o motor, chassi, eixos, rodas etc., isto é, com o “núcleo de tecnicidade produtiva e resistente”, sobre o qual “as camadas externa e média desenvolvem-se como parasitas, com uma importância variável segundo as circunstâncias sociais e psicossociais” (p. 167). O que define a invenção do objeto carro é, portanto, apenas a camada interna, que manifesta de modo essencial a compatibilidade intrínseca que o objeto é capaz de produzir, por meio da compatibilização de recursos naturais (petróleo) com o desígnio (deslocamento) e as condições do corpo humano.
Considere-se o advento da fotografia, das primeiras experimentações aos anos 1960, marcados pela invenção do aparelho Polaroid. Essencialmente, a invenção da fotografia é uma compatibilização fotoquímica. Embora cada um dos componentes mecânicos e químicos necessários à produção da reação fotoquímica no interior das “câmeras analógicas” fosse conhecido separadamente antes da fotografia, essa invenção só pôde consumar-se por meio da estruturação satisfatória entre uma câmara escura, um mecanismo obturador e uma superfície química fotossensível. Todo o desafio aí consiste em produzir e interromper uma reação fotoquímica em instantes exatos, caso contrário a reação permaneceria ativa e a foto passaria a desfigurar-se. Ora, por mais que se intensifiquem a compatibilização de processos primitivos, nenhum aperfeiçoamento das câmeras analógicas deixa de repousar sobre o mesmo princípio. É provável que Simondon concedesse apenas à fotografia digital o estatuto de nova invenção essencial, uma vez que nela a compatibilização é realizada por um sistema ótico que converte os raios de luz em caracteres numéricos e, em seguida, reconverte-os para que apareçam em visores digitais.
Quanto à invenção do sistema Polaroid, especificamente, trata-se de levar a invenção primitiva a um grau ainda mais elevado de compatibilidade. Enquanto na maior parte dos objetos técnicos as camadas constituem-se como linhas independentes que passam a divergir segundo demandas psicossociais, o dispositivo Polaroid é capaz de reuni-las. O princípio da reação permanece o mesmo, mas a reunião das três camadas produz efeitos inteiramente inovadores. Isso porque o próprio princípio manifestase materialmente em poucos segundos nas mãos do operador, na forma de foto revelada, fazendo reunirem-se a reação fotoquímica, como compatibilização primária, e o uso social que dela se faz após a revelação. Disponibilizada quase instantaneamente, a foto pode servir de base para o aperfeiçoamento imediato de uma nova foto. Ou seja, o princípio materializado em outra ordem de grandeza (foto revelada) é capaz de retroagir, em uma nova foto, sobre a maneira como os participantes da imagem vão comportarse, sobre o enquadramento, as condições ideais de luminosidade etc. Assim, o próprio princípio (camada interna do objeto técnico) reúne-se com o emprego que o usuário faz do aparelho (camada intermediária) e, ainda, com a maneira como o aparelho manifesta-se socialmente (camada externa).
O exemplo da fotografia serve também a outra definição da essência do objeto técnico. Nele se pode verificar também um caráter orgânico, cuja “autocorrelação estrutural e funcional” (p. 169) não pode ser interrompida sem a perda da eficácia do próprio dispositivo. Pela analogia orgânica, trata-se de pensá-lo como totalidade individualizada, coesa e coerente, organizada em função de uma sistematicidade que não se pode violar. Como objeto técnico de caráter orgânico, o que a câmera fotográfica, por exemplo, realiza por meio de sua estrutura essencial é, em última análise, a formalização da própria natureza (luz natural), homogeneizando-a funcionalmente com outras estruturas.
É nesse sentido que se esclarece a ideia de uma clivagem do equilíbrio das valências da imagem-símbolo ao desequilíbrio dos modos operatórios e das funções da imagem-objeto. À medida que os objetos e os recursos naturais vêm a organizar-se em um sistema, o potencial trazido por cada um deles no estado de dispersão é atualizado em linhas de força específicas. Isso deve explicar a razão pela qual a ordenação sistemática não produz resultados limitados às expectativas iniciais de resolução de um problema. A atualização dos potenciais de cada subconjunto não produz uma soma simples, pois, na armação sistemática, ocorre uma verdadeira amplificação do potencial dos efeitos obtidos. As condições do problema são ultrapassadas porque a invenção recria novos potenciais, atualizáveis mediante novas invenções, instaurando novos ciclos genéticos de imagens.
Para demonstrá-lo, Simondon trata da invenção do concreto protendido em substituição à construção por pedras e ao concreto armado (p. 173-4). Tal substituição apresenta diversas vantagens, especialmente pelo fato de que o concreto é um material modelável, de baixíssimo desperdício e transporte conveniente. Contudo, o uso do concreto por si só não deixa de ter inúmeros inconvenientes. Para lidar com sua fraqueza sob pressão, nele se podem integrar barras flexíveis de metal, de modo que da incorporação de elementos elásticos resulte, após secagem conjunta, uma tração permanente. Logo, “a construção em concreto protendido ultrapassa aquela que teria sido possível em pedra, madeira e ferro” (p. 174). Isso explica, portanto, por que a invenção técnica tem “funções superabundantes”, por que dá um “salto amplificador” sobre o potencial dos objetos separados, por que produz “mais-valia funcional” e por que, em resultado de uma “dialética amplificadora”, verifica-se uma naturalização progressiva das técnicas.
Exposta a virtude de amplificação, Simondon vê-se em condição de relativizar o alcance das analogias topológicas (p. 179). Na verdade, o que está envolvido de maneira essencial na invenção “é o efeito de amplificação por recrutamento de realidades primitivamente não previstas e a inclusão dessas realidades, com poderes novos que ultrapassam a origem, em um sistema formalizado” (p. 179). Como nos seres vivos, os subconjuntos exercem um efeito modulador entre si, uma “ressonância interna” (p. 183), de modo a aperfeiçoarem o nível de compatibilidade intrínseca do sistema. Dessa dinâmica resulta que uma invenção jamais poderia deixar de evoluir, uma vez que ela se desenvolve intrinsecamente, elevando seu nível de compatibilidade, e amplifica seus efeitos potenciais, oferecendo condições renovadas para a reinauguração de outros ciclos de imagens.
II
Lembremo-nos de que a invenção como problema filosófico não poderia ser tomada por novidade no contexto francês do final do século XIX. Gilbert Simondon é beneficiário de uma longa tradição, heterogênea e internamente divergente, que se reúne na tentativa de representar os fenômenos da vida segundo um modo evolutivo e dinâmico.
Passemos diretamente aos anos 1900, quando Henri Bergson (1859-1941) despontava como figura de síntese em um cenário intelectual cada vez mais esmigalhado entre, por um lado, a adesão à ciência e a recusa da metafísica e, por outro, a defesa da irredutibilidade da vida e a recusa da unificação das ciências naturais por meio do método das ciências da matéria. Ao pensar a filosofia a partir da crítica de problemas científicos que ocupavam sua época, Bergson teve necessariamente de responder ao menos a duas questões. Em primeiro lugar, quais seriam precisamente as raízes biológicas e os hábitos psicossociais sobre os quais o reino dos homens chegara, ao longo da evolução da vida, à riqueza intelectual e cultural da virada do século XIX? Em segundo lugar, se já não resta mais dúvida de que a inteligência não é dada desde o princípio dos tempos, mas transforma-se ao longo da evolução do reino animal, qual será, então, a definição precisa do alcance e dos limites do mais nobre fruto da vida inteligente, as ciências? Embora muito se possa dizer a respeito de cada uma das inúmeras hipóteses evolucionistas dos anos 1900, limitar-nos-emos a ressaltar que um dos episódios mais ruidosos e cativantes dessa discussão (cf. Azouvi, 2007) foi preconizado pela publicação e recepção de A evolução criadora (Bergson, 1959 [1907]).
No terceiro capítulo dessa obra, Bergson defendia com clareza uma ideia ousada à época. Se a inteligência (a consciência da matéria, distinta da consciência do tempo ou intuição) for uma função da adaptação ao meio, será preciso, então, que a inteligência e a matéria tenham sido geradas conjuntamente. Embora o próprio princípio da inteligência seja considerado por Bergson como um impulso simples que perpassa a matéria (impulso vital), essa ideia da gênese conjunta viria a destampar a possibilidade de pensar, a partir e para além do bergsonismo, a história da matéria e a história da inteligência, em sua dimensão fenomênica, como expressões em negativo. A história da matéria não deixaria de ser a história da inteligência da matéria (portanto, da ciência da matéria), a história das máquinas só poderia ser a história da ciência das máquinas etc.
No mesmo período em que Gaston Bachelard apresentava o conceito de “fenomenotécnica” (Bachelard, 1970 [1931-1932]), a ideia da gênese conjunta da matéria e da inteligência volta com força ao cenário da filosofia francesa. A atenção ao problema da técnica é fundamental nesse sentido. Em diversos textos desse período, Canguilhem (2011 [1937], 2011 [1938], 1943) defende que a técnica não poderia ser definida como ciência aplicada, pois constitui um conjunto de problemas não antecipáveis pela ciência. Antes, a técnica coloca problemas de ordem específica à ciência. A criação técnica só adquire inteligibilidade plena se considerada como atividade em que o conjunto previamente ordenado do conhecimento depara-se com situações não anunciadas previamente. Em parte, essa premissa filosófica explica o interesse de Canguilhem pela medicina a partir de 1936, já que, como propunha a introdução da tese de 1943, talvez nenhuma outra “técnica ou arte na encruzilhada entre as diversas ciências” seja tão exigente quanto a medicina. Afinal, no encontro entre o conhecimento prévio do médico e a situação particular e imprevisível posta pelo doente está em jogo o valor da vida, que insta a vida, por meio das técnicas médicas, à procura de novas condições para sua própria manutenção.
É com o maior interesse pela originalidade da criação técnica que Canguilhem retorna a Bergson, cuja obra ele recupera em comunicações e cursos de Liceu entre 1937 e 1938, e, no início de 1940, em uma série de cursos universitários (cf. Canguilhem, 1941-1942, 2007 [1943]) depositados no Centre d’Archives en Philosophie, Histoire et Édition des Sciences (Caphés). O fulcro dessa revalorização reside justamente no terceiro capítulo de A evolução criadora. A gênese conjunta da inteligência e da matéria deveria implicar que o ferramental técnico do ser vivo não é coisa alheia ao pensamento, mas pensamento que penetra a matéria organizando a estrutura funcional dos objetos. O bergsonismo é revalorizado, portanto, como “filosofia biológica do maquinismo, que trata as máquinas como órgãos da vida, e que lança as bases de uma organologia geral” (Canguilhem, 1947, p. 332). Não é em outro sentido que, entre 1946 e 1947, Canguilhem constrói os textos da seção “Filosofia” de O conhecimento da vida (2009 [1952]). A técnica prolonga a ação do organismo, de modo que o meio não poderia ser considerado de modo estático, como se independesse da ação instrumentada.
Sabemos, entretanto, que a partir dos anos 1950 Canguilhem procura construir uma história dos conceitos científicos como modo a posteriori de fixar a extensão do conceito de ciência. O interesse pelo bergsonismo e pela “organologia” passava, então, a ceder lugar a certo projeto de história das ciências (cf. Braunstein, 2000). Em verdade, foi Gilbert Simondon, frequentador dos seminários do Institut d’Histoire des Sciences et des Techniques, aluno orientado por Georges Canguilhem (cf. Simondon, 1989), quem continuou e mais radicalizou a ideia de invenção segundo um ponto de vista dinâmico. Lembremo-nos da imagem que Bergson propunha no terceiro capítulo de Matéria e memória (1959 [1896]): a memória afunila-se e transforma-se em ação perceptiva tal como se o passado fosse um cone cuja extremidade produz um ponto no plano do presente. Nessa imagem, a filosofia de Simondon corresponderia à investigação dos modos constitutivos e operatórios segundo os quais os esquemas já construídos de ação reordenam-se, saturam-se potencialmente, mudam de grau atualizando-se em outro nível de concretude. Simondon concentra seus esforços de investigação sobre essa pequeníssima e decisiva extremidade do cone que se aproxima de modo assintótico da concretização das condições previamente acumuladas.
Não há dúvida de que seria preciso considerar ainda diversos outros segmentos epistemológicos catalisados por Simondon, resultantes da recepção de Martin Heidegger em Paris e, sobretudo, da psicologia da forma (Gestalt), com Kurt Goldstein e sua recepção original por Daniel Lagache, Canguilhem e Maurice Merleau-Ponty. Porém, embora não sigamos por aí, não poderíamos deixar de notar que Simondon cruza de modo particular o dinamismo bergsoniano com a ideia canguilhemiana da criatividade da técnica. Ele traz à luz uma dinâmica cujo modo de manifestação privilegiado dá-se na criação técnica, como dimensão da imaginação, ou seja, como imaginação em diversos níveis potenciais. A filosofia simondoniana integra a linhagem daqueles que procuravam mostrar – antes da configuração das fronteiras das ciências do século XX – como a percepção do ser vivo em seu meio não é passiva, mas antecipação da ação por meio de conjuntos sensório-motores previamente estruturados que “cortam” a matéria segundo os limites da ação possível.
Esboçar uma arqueologia desses problemas não deve significar, todavia, um enfraquecimento da originalidade de Gilbert Simondon. Como muito poucos, esse filósofo reuniu o conhecimento deslumbrante da tecnologia do século XX, e dele foi capaz de valer-se inclusive para contrariar a vontade de transcendência que por muito tempo animou os filósofos franceses da ação, de Maine de Biran a Bergson. Devemos apenas ressaltar que, partindo da inteligência material dos objetos técnicos e, portanto, insistindo na anterioridade da relação desses objetos com os seres vivos que os inventam, Simondon não visa apenas a dimensão técnica da vida humana, pois define a vida dentro da dimensão técnica.
Consideremos, por exemplo, a ideia de que a individualização de um objeto técnico implica, por um lado, uma redução e, por outro, uma amplificação do potencial de ação desse objeto. Nos termos em que Simondon a coloca, essa ideia resulta em uma contribuição poderosa a problemas filosóficos historicamente colocados pela segunda lei da termodinâmica. Desde as publicações de Rudolf Clausius em 1850, a ideia de irreversibilidade passaria a implicar a diminuição, ao longo dos ciclos térmicos, do potencial de um sistema que se vale de calor para produzir trabalho. A entropia aumenta, a energia se degrada; na formulação estatística, a entropia é função da desordem do sistema. À força dessa lei, como não pensar em um futuro trágico da vida, inteiramente dependente do consumo energético? O famoso “demônio de Maxwell” consiste em uma tentativa simples de ilustrar como alguns processos, a exemplo da própria vida, podem valer-se de informação para contrariar localmente a tendência à desordem. Entre um sistema com dois compartimentos de energia diferente, esse ser fictício superconsciente deteria informação e capacidade suficientes para fechar a portinhola a todas as partículas com energia negativa e, ao mesmo tempo, abri-la a todas as partículas positivas, de modo que, depois de certo tempo, todas as partículas positivas poderiam encontrar-se em apenas um compartimento. Tanto para máquinas quanto para os seres vivos, seria possível conceber, portanto, processos locais contrários à entropia (neguentrópicos) operados com base em uma informação.
É sobre a base desse esquema estatístico que a cibernética é pensada por Norbert Wiener, com quem Simondon teve interlocução aberta. Os mecanismos de circulação da informação, dentro de um indivíduo ou também dentro de um coletivo, constituiriam sistemas neguentrópicos de equilíbrio (homeostático). Em contrapartida, a desordem desses sistemas passaria pela perda de equilíbrio como concentração excessiva da comunicação de informação (do ponto de vista social, como alienação). Ocorre que Wiener (1962) parte da premissa de que há uma identidade entre os seres vivos e as máquinas automáticas, o que, em última análise, confunde o fato de que “os objetos técnicos tendem à concretização, ao passo que os objetos naturais tais como os seres vivos são concretos desde o início” (Simondon apud Barthélémy, 2014, p. 86). Assim, ao passo que Wiener pensa em situações de equilíbrio dinâmico comunitário (ou local) por meio de objetos já concretizados, Simondon procura pensar os modos de circulação “aberta” dos objetos por meio de uma gênese dinâmica. O curso Imagination et invention só deve reafirmá-lo. Enquanto Wiener toma dois termos estáticos para reconstruir um processo dinâmico, Simondon não parte nem do homo sapiens tecnológico nem dos objetos técnicos e das ciências já constituídos.
Aqui se verifica, portanto, o traço mais claro da afinidade de Simondon com a história de problemas acima mencionada. A filosofia do trans-individual parte da relação pré-individual que configura – em uma determinada condição técnica e não em qualquer outra – esquemas psicomotores mediante os quais um objeto técnico foi inventado e que reconfiguram os esquemas psicomotores mediante os quais esse objeto, uma vez individuado, vai ressoar externamente. Para compreendermos essa “dialética amplificadora” de Simondon, bastaria lembrarmo-nos de que os objetos técnicos não respondem unicamente às funções para as quais eles foram inicialmente inventados. Ainda, além de que o problema da informação é concebido por Wiener mediante analogias entre diversas ciências constituídas, ele o é também sobre o fundo de uma teleologia norteada pela ideia de equilíbrio homeostático (cf. Le Roux, 2007). Wiener assenta sua teoria cibernética diretamente sobre a base de valores em circulação na idade do Homem, ao passo que o dinamismo de Simondon coloca-se no interior da dimensão técnica da vida em geral, sem necessariamente recorrer a um anti-humanismo.
Não há dúvida de que o deslocamento operado por Simondon possa representar uma imprevisibilidade e, portanto, o enfraquecimento da ideia de equilíbrio e de destino da humanidade. Ao mesmo tempo, porém, abre-se a possibilidade de fazer com que o desenvolvimento técnico inegável dos últimos séculos seja acompanhado por uma consciência histórica da essência da técnica como consciência da dimensão técnico evolutiva da vida. Trata-se de opor-se ao fatalismo da alienação em um mundo exponencialmente tecnocientífico (cf. Laterce, 2009; Bardin, 2015). Assim, a consciência da dimensão técnica da vida pode, como em um processo de dialética amplificadora, constituir a intervenção sobre o curso dos objetos e sistemas que facilitam e controlam a vida.
Referências
AZOUVI, F. La gloire de Bergson. Paris: Gallimard, 2007.
BACHELARD, G. Noumène et microphysique. In: _____. Études. Paris: Vrin, 1970 [1931-1932].
BARDIN, A. Epistemology and political philosophy in Gilbert Simondon: individuation, technics, social systems. Dordrecht: Springer, 2015.
BARTHÉLÉMY, J. H. Simondon. Paris: Les Belles Lettres, 2014.
BERGSON, H. Matière et mémoire. In: Robinet, A. (Ed.). Oeuvres de Henri Bergson. Paris: PUF, 1959 [1896]. p. 161-379.
_____. L’évolution créatice. In: Robinet, A. (Ed.). Oeuvres de Henri Bergson. Paris: PUF, 1959 [1907]. p. 487-809.
BRAUNSTEIN, J. F. Canguilhem avant Canguilhem. Revue d’Histoire des Sciences, 53, 1, p. 9-26, 2000.
BRAUNSTEIN, J. F. & Schwartz, Y. (Ed.). Œuvres complètes. Paris: Vrin, 2011 [1938]. v. 1: Écrits philosophiques e politiques, 1926-1939.
CANGUILHEM, G. Causalité et temps. Cours inédit donné à la Faculté de Lettres de Strasbourg, ClermontFerrand, 1941-1942. Caphés: Fonds Georges Canguilhem, GC 11.1.7.
_____. Essai sur quelques problèmes concernant le normal et le pathologique. Clermont-Ferrand: La Montagne, 1943.
_____. Note sur la situation faite en France à la philosophie biologique. Revue de Métaphysique et de Morale, 52, 4, p. 322-32, 1947
. _____. Commentaire au troisième chapitre de “L’évolution créatrice”. Annales bergsoniennes. Paris: PUF, 2007 [1943]. v. 3: Bergson et la science, p. 99-160.
_____. La connaissance de la vie. Paris: Vrin, 2009 [1952].
_____. Descartes et la technique. In: Braunstein, J. F. & Schwartz, Y. (Ed.). Œuvres complètes. Paris: Vrin, 2011 [1937]. v. 1: Écrits philosophiques e politiques, 1926-1939, p. 490-8.
_____. Activité technique et création. In: Braunstein, J. F. & Schwartz, Y. (Ed.). Œuvres complètes. Paris: Vrin, 2011 [1938]. v. 1: Écrits philosophiques e politiques, 1926-1939, p. 499-509.
LATERCE, S. R. Simondon e o humanismo técnico. Rio de Janeiro, 2009. Tese (Doutorado em Filosofia). Instituto de Filosofia e Ciências Humanas, Universidade Federal do Rio de Janeiro.
LE ROUX, R. L’homéostasie sociale selon Norbert Wiener. Revue d’Histoire des Sciences Humaines, 16, 1, p. 113-35, 2007.
ROBINET, A. (Ed.). Oeuvres de Henri Bergson. Paris: PUF, 1959.
SIMONDON, G. Du mode d’existence des objets techniques. Paris: Aubier, 1989.
_____. Imagination et invention, 1965-1966. Paris: Les Éditions de la Transparence, 2008.
_____. L’individuation à la lumière des notions de forme et d’information. Grenoble: Jérôme Millon, 2005.
WIENER, N. Cybernetics: or control and communication in the animal and the machine. Cambridge: The MIT Press, 1962.
Marcos Camolezi – Departamento de Filosofia, Faculdade de Filosofia, Letras e Ciências Humanas. Universidade de São Paulo, Brasil. Bolsista Fapesp. E-mail: marcos.camolezi@usp.br
[DR]
O conhecimento da vida – CANGUILHEM (SS)
CANGUILHEM, Georges. O conhecimento da vida. Tradução de Vera Lucia Avellar Ribeiro. Revisão técnica de Manoel Barros da Motta. Rio de Janeiro: Forense Universitária, 2012. Resenha de: PUTTINI, Rodolfo Franco. Ética, conhecimento e vida. Scientiæ Studia, São Paulo, v.13, n. 2, p. 449-58, 2015.
O objetivo não será aqui aprofundar a asseveração de que, desde a sua famosa tese de doutoramento (1995a), Georges Canguilhem (1904-1995) iniciou e propulsionou a estruturação de um programa de pesquisa cujo trabalho filosófico voltou-se para os problemas contemporâneos da biologia e da medicina iniciados pelas diretrizes da tradicional escola francesa de epistemologia histórica desde Gaston Bachelard. No entanto, acentuarei que os primeiros testemunhos vigorosos desse percurso intelectual podem ser verificados no livro La connaissance de la vie, publicado em 1952, nove anos após a defesa de seu doutoramento em 1943, republicado em 1952 pela editora francesa Hachette, reeditado por doze vezes até 1965 com textos inéditos pela editora J. Vrin, e cuja tradução em língua portuguesa somente em 2012 foi realizada pela editora brasileira Forense Universitária.
O livro reúne em oito ensaios o nexo entre o pensamento e a vida, uma associação pouco valorizada nas ciências biológicas. Canguilhem apresenta os ensaios segundo uma ordem de importância histórico-filosófica, assim distribuída: Introdução, “O pensamento e o vivente”, ensaio escrito em 1952; um ensaio sobre o método, “A experimentação em biologia animal”, de 1951; um ensaio de história da ciência, “A teoria celular”, de 1945; e um conjunto de textos de filosofia da ciência escritos em 1946, 1947 e 1951 – “Aspectos do vitalismo”; “Máquina e organismo”; “O vivente e seu meio”; “O normal e o patológico”; “A monstruosidade e o monstruoso” –, e apêndices (três pequenas notas, sem datas), seguidas de bibliografia ou indicações de livros recomendadas pelo próprio autor. Essa estruturação aproxima várias temáticas relevantes ao problema da vida: a teoria celular, o vitalismo, o mecanicismo, a máquina, o organismo, o pensamento, o vivente, o meio, o normal, o patológico, a monstruosidade, o monstruoso, a experimentação em biologia animal.
É certo que esses escritos foram elaborados antes da descoberta do DNA (cf. Watson & Crick, 1953) e poderiam até sugerir preocupações retrógradas por parte dos biólogos. Porém a controvérsia entre raça, inteligência e genética permanece ativa (cf. Milmo, 2007; Charlton, 2008; Malloy, 2008) e levanta discussões sobre a relação entre atividade científica e valores (cf. Lacey, 2008). Para uma leitura atualizada do livro de Canguilhem proponho combinar questões ligadas ao projeto genoma, cuja técnica associada possui desdobramentos para a vida e para a vida profissional de biólogos e geneticistas atuantes em procedimentos médicos – tais como a verificação do grau de risco de desenvolvimento de doenças, os testes genéticos, o aconselhamento genético, a terapia para doenças genéticas, as células-tronco para regenerar tecidos, a terapia celular, a escolha de embriões para reprodução humana –, com questões sobre os fundamentos éticos que garantem o respeito aos direitos humanos na aplicação de teorias biológicas no desenvolvimento biotecnológico de dominação da vida e, particularmente, da vida humana (cf. Garcia, 2006). Não estariam as práticas biotecnológicas dirigidas de tal modo a refletir o eugenismo (cf. Stepan, 1991)? Qual o limite da prática da medicina, aliada às ciências biológicas, que afiança com responsabilidade sobre os perigos do eugenismo de modo a criar um contexto social de bom senso?
Mantendo a posição de que, em alegação atualizada, Canguilhem promove no livro O conhecimento da vida o empenho em fundamentar o campo ético nas ciências da vida atreladas à medicina e à sociedade; sua postura crítica ao antropocentrismo diante da vida e do sentido do conhecimento (em relação à vida humana) revela a originalidade logicamente arranjada em quatro tópicos que estruturam argumentos historiográficos, éticos e filosóficos sobre problemas concernentes às ciências biológicas interligadas à medicina, argumentos que se desdobram em ponderações no campo da produção de conhecimento que incluem a prática científica em geral. A classificação atual das áreas do conhecimento permite interpretar de modo mais objetivo os vínculos entre os ensaios,1 decorrentes de interrogações de fundo sobre a relação entre o conhecimento e a vida, para cujo entendimento pesa o sentido antropológico de alteridade (cf. Canguilhem, 2012b, p. 367), uma relação entre o vivente (uma forma universal de vida material) e o vivido (a experiência singular de um ser vivo):
A vida é formação das formas, o conhecimento é análise das matérias informadas. É normal que uma análise não possa nunca dar conta de uma formação e que se perca de vista a originalidade das formas quando nelas vemos somente resultados cujos componentes buscamos determinar. As formas vivas, sendo totalidades cujo sentido reside em sua tendência a realizarem-se como tais ao longo de sua confrontação com seu meio, podem ser apreendidas em uma visão, jamais em uma divisão (p. 3).
Considerando esse conjunto de problemas de fundamentação da vida, farei a exposição do livro seguindo esta sequência de leitura: “A teoria celular” (1945), “Aspectos do vitalismo” (1946), “Máquina e organismo” (1947), “A experimentação em biologia animal” (1951), “O normal e o patológico” (1951), “A monstruosidade e o monstruoso” (1951), “O pensamento e o vivente” (1952).
1 O MÉTODO HISTORIOGRÁFICO
Dois pontos congruentes destacam-se no artigo “A teoria celular” de 1945: a apresentação do método historiográfico e o raciocínio para o conhecimento da vida. A história da ciência é produzida pelo exame da formação de conceitos, um empreendimento que se assemelha a um laboratório de epistemologia. Especialmente para a história da ciência da vida importa reconstruir os conceitos científicos célula e vida, que aparentemente nada tem em comum com o objeto da ciência da vida. Entretanto, para Canguilhem, há um campo ético que expressa um princípio, oposto ao método e à prática de historiadores, cientistas e filósofos da época que, a exemplo do médico e cientista Claude Bernard, atribuíam à história a inferioridade lógica das teorias passadas (p. 40, nota 2). Canguilhem propõe a epistemologia histórica como fundamento e postura crítica contraposta ao “preconceito científico”, estendido ao método experimental da biologia:
as teorias não nascem dos fatos que coordenam e que são supostos de tê-las suscitado (…) os fatos suscitam as teorias, mas não engendram os conceitos que as unificam interiormente, nem as intenções intelectuais desenvolvidas por elas (p. 82).
Debru (2004) elucidou a posição fortemente holística de Canguilhem, derivada de sua crítica ao dogma nas ciências da vida, com o seguinte destaque nas reflexões sobre o normal e patológico dos Ensaios: “uma norma não é um fato, mesmo estatístico, mas um valor” (Debru, 2004, p. 33), referindo-se ao poder de criação dos valores vitais criados pela fisiologia e patologia, especialmente em comparação à concepção de vida assumida por Claude Bernard ao descobrir a etiologia da diabete como uma patologia, resultado da variação quantitativa do estado normal pela constante da glicemia, modo em que valorizava a crença da técnica médica de domínio sobre a vida em bases científicas. Em oposição a esse cientificismo, Canguilhem afirmaria o conhecimento da diabete partindo do estado de um organismo inteiro, pois “ser doente significa viver uma outra vida, um outro olhar da vida, uma outra relação com o meio” (Debru, 2004, p. 34).
Essas elucidações sobre fato e valor, entre o normal e o patológico, ganham destaque com o problema, vinculado à história da teoria celular, de que não é o microscópio o instrumento que permite, pelos órgãos dos sentidos da visão, constatar, comprovar e identificar a célula, mas “a história da formação do conceito de célula”, carregada de valores afetivos e que atestam a validade da teoria celular (p. 45). Embora essa discussão favoreça o argumento do papel da valorização moderna do controle (Mariconda, 2006), tal ambivalência epistemológica (fato e/ou valor) em Canguilhem aplica-se ao campo científico, mas também, como veremos adiante, à vida mesma.
Para o campo científico das ciências da vida a ambiguidade aparece como coordenada valorativa na história da teoria celular. “Célula” e “vida” são conceitos que se associam à força psicológica e instrumental da noção de indivíduo que motiva a gênese do “vivente elementar, demonstrando assim o valor do termo ‘célula’ na história das teorias sobre a vida”. São 43 páginas (p. 39-82) dedicadas a fazer coincidir o curso da história dos empreendimentos científicos com os interesses de cientistas em meio a descobertas e palavras inventadas, que progressivamente elevam a noção de célula a um estatuto científico. Haeckel, Hooke, Malpigni, Grew trabalharam com plantas, cada qual em seu tempo, e configuraram a anatomia microscópica da célula; a teoria da metempsicose de Lineu; a teoria das moléculas orgânicas e hibridação de Buffon e a teoria fibrilar de Haller, todas essas teorias são marcadores de uma história do conhecimento científico sobre a vida definida no interesse de garantir a questão da individualidade do organismo.
Por outro lado, para Canguilhem, a história das ciências da vida não se distancia de uma história da medicina na medida em que o argumento da passagem da individuação da célula à individualidade do organismo faz eco na prática científica da medicina: Virchow, Robin, Haeckel, Bernard sugerem o uso da teoria celular em explicações para a anatomia, a fisiologia e a histologia na busca da homogeneidade do ser humano enquanto totalidade orgânica. Nesse contexto biomédico, Canguilhem atualiza o problema linguístico do termo “indivíduo” com a controvérsia sobre qual é a classificação dada ao vírus-proteína, uma unidade viva ou não? (p. 72). Tal indagação tem uma resposta adequada à demarcação científica do uso do termo relacional “meio”, com o qual é possível ligar realidades e escalas de observação diferentes (p. 73), de modo que no tempo histórico a individualidade biológica teria sido verificada enquanto princípio de individuação (realidade, ilusão ou ideal).
2 FILOSOFIA DAS CIÊNCIAS DA VIDA E/OU FILOSOFIA DA VIDA
Remontar aos conceitos de célula e indivíduo para chegar a um entendimento não linear da história das ciências da vida em intersecção com a história da medicina é a estratégia que estrutura a filosofia das ciências da vida atrelada à medicina em um meio vital, mas não exclui o ser humano enredado a um meio social. Como se conjuga o problema da relação entre fato e valor tendo por foco a medicina e o ser humano na sociedade?
A identificação de obstáculos epistemológicos transforma-se em uma ferramenta de análise que auxilia compreender com discernimento o campo científico. Os cinco ensaios de 1946 a 1951 – “Aspectos do vitalismo”; “Máquina e organismo”; “O vivente e seu meio”; “O normal e o patológico”; “A monstruosidade e o monstruoso” – identificam e averiguam os fundamentos do conhecimento da vida de modo concomitante, ora voltado ao progresso científico da ciência físico-química e da biomedicina, ora estendido para a própria vida do vivente.
Inicialmente a força do vitalismo no campo científico pode ser verificada pela vitalidade e fecundidade do discurso vitalista no contexto das refutações teóricas. A comunidade científica pensa o vitalismo por meio de ambivalências: vitalismo/ mecanicismo (problemas de estrutura e função), descontinuidade/continuidade (problemas de sucessão das formas), pré-formação/epigênese (no desenvolvimento do ser), atomicidade/totalidade (problema da individualidade). Para Canguilhem, importa a crítica no interior do campo científico, não se deve excluir do aspecto vigoroso do vitalismo a relação entre os conceitos de vida, de vivente, de ser humano e de consciência da vida.
(…) o vitalismo é a expressão da confiança do vivente na vida, da identidade da vida consigo mesma no vivente humano, consciente de viver (…) um vitalista, proporíamos, é um homem induzido a meditar sobre os problemas da vida (p. 91).
Em reforço ao projeto de fundamentação da vida, Canguilhem examina a formação do conceito de reflexo no campo científico (cf. Canguilhem, 1955a), mostra a decadência da abordagem vitalista identificada como um obstáculo epistemológico primordial deixado de lado na história da medicina. Desde o século xvii a abordagem vitalista, principal obstáculo epistemológico à abordagem mecanicista de Descartes, perde gradualmente valor para as explicações da teoria newtoniana as quais, por sua vez, servem de obstáculo para as conquistas graduais da química positivista que tendem à matematicidade das ciências da vida. Médicos, cientistas e filósofos dedicados à história das ciências da vida e da medicina (Driesch, Goldstein, Van Helmont, Barthez, Blumenbach, Bichat, Lamark, Radl, Bernard) poderiam naquela época oscilar entre a abordagem vitalista de “exigência permanente da vida no vivente” e a abordagem mecanicista, “uma atividade permanente do vivente humano diante da vida (…) tentando unir-se à vida pela ciência” (p. 89).
No confronto entre o vitalismo e o mecanicismo, Canguilhem retorna à teoria cartesiana do homem-máquina em sua defesa do vitalismo, a qual requer uma semântica qualificada, cuja herança reclama dois sentidos, o do engenho (astúcia) e o da máquina (mediação, instrumento), perguntando se
não estaríamos fundamentados em concluir que a teoria do vivente-máquina (de Descartes) é uma astúcia humana que, tomada literalmente, anularia o vivente? Se o animal nada mais é do que uma máquina, e assim também a natureza inteira, por que tantos esforços humanos para reduzi-los a ela? (p. 90).
Sua intenção é de inverter o sentido da relação máquina-organismo para compreender “o sentido de assimilação do organismo a uma máquina” (p. 108), no qual salienta a auto-organização do organismo, inaplicável à máquina (p. 124-5). No caso da medicina, como a técnica pode ser aplicada à ideia do ser humano como um todo orgânico? Canguilhem põe frente a frente o vitalismo e o mecanicismo diante do mais alto valor humano, a importância da consciência humana da vida, criadora e fecunda, ou seja,
se o vitalismo traduz uma exigência permanente da vida no vivente, o mecanicismo traduz uma atitude permanente do vivente diante da vida. O homem é o vivente separado da vida pela ciência, tentando unir-se à vida através da ciência. Se o vitalismo é vago e não formulado como uma exigência, o mecanicismo é estrito e imperioso como um método (p. 89).
O núcleo de problemas ideológicos do vitalismo sugere que “caberia aos fatos e à história pronunciarem-se quanto ao problema da fecundidade no vitalismo” (p. 95), servindo de contra-argumento que, se o vitalismo é considerado cientificamente retrógrado por seus críticos, como deixar de notar tanto o uso da biologia vitalista pelos nazistas, “a fim de justificar uma eugênica racista, as técnicas de esterilização e de inseminação artificial, quanto o [uso do] darwinismo para a justificação de seu imperialismo, de sua política do Lebensraum”? (p. 103).
Em resposta a essa ambivalência Canguilhem reforça em 1966 o tema da medicina intervencionista no mundo social (cf. Canguilhem, 2012c). Tudo depende do sentido do termo “vida”, ora significando o particípio do presente (vivente), ora o particípio do passado (vivido), em uma relação entre o conceito e a vida mesma, que sugere o acesso à própria vida. Recoloca-se então a questão: “o que é o conhecimento, se a vida é conceito e esse fato nos dá acesso à inteligência?” (cf. Canguilhem, 2012c, p. 399).
Esse tema foi revisto por Canguilhem vinte anos após a publicação dos Ensaios (cf. Canguilhem, 1995b), propondo uma revisão da relação normal/patológico na qual correlaciona os termos “norma”, “normal” e “anormal” para distinguir atribuições à norma vital e à norma social, justificando assim o conceito de normatividade social. Em sua análise do contexto das ciências da vida, Canguilhem afirma:
As normas comparam o real a valores, exprimem discriminações de qualidades de acordo com a oposição polar de um positivo e de um negativo; a polaridade da experiência de normalização, cientificamente antropológica ou cultural, baseia a prioridade normal da infração na relação da norma com seu campo de aplicação. Uma norma na experiência antropológica não pode ser original. A regra só começa a ser regra fazendo regra e essa função de correção surge da própria infração (Canguilhem, 1995b, p. 218).
Nessa mesma revisão, Canguilhem propôs uma análise sobre o erro a qual, embora na patologia o geneticista e o bioquímico atribuam à hereditariedade, associa o erro ao modelo da teoria da informação, “que diz respeito tanto ao próprio conhecimento quanto a seus objetos, a matéria ou a vida” (Canguilhem, 1995b, p. 252). Canguilhem revê a origem dos sentidos do termo “norma” como uma exigência de racionalização da época, da nascente política econômica de industrialização, que se popularizou ora como protótipo escolar (escola normal, normas da reforma pedagógica), ora como modelo de saúde (reforma da medicina, reforma sanitária frente às epidemias). Admite então que a temática da mecanização da vida, originalmente desenvolvida por Augusto Comte no Curso de filosofia positiva, caracterizou as normas da física social, tomando como aspectos do organismo coletivo a regulação, a integração e o funcionamento da vida em sociedade a fim de atingir a humanidade (como parte da cultura) (cf. Canguilhem, 1995b, p. 223-5).
Se para Canguilhem os erros (genéticos) são referências para o interesse da norma vital (anomalias do metabolismo, anomalias de ordem genética etc.), os valores iatrogênicos são os que melhor informam a tendência da normatização de fatos sociais pressuposta em abordagens organicistas da sociedade. No contexto de crítica social do movimento de 1968, Michel Foucault elaborou um programa de pesquisa historiográfica, fundamentando as novas diretrizes para a história crítica da medicina. Frente às tendências iatrogênicas e eugênicas do planejamento de políticas científicas, a crítica de Hermínio Martins adensa a história da medicina com os aspectos orgânicos da prática médica sistemática e inescrupulosa de experimentação biomédica com corpos de seres humanos, datadas as barbaridades da guerra científica de experimentos humanos da biomedicina na Manchúria, Coreia e China como um desvio do conhecimento da vida, fomentado pelo Estado tanatocrático (cf. Martins, 2012, p. 211-50).
Essa história cinzenta da medicina tem servido de parâmetro para o desenvolvimento do discurso da bioética, geralmente valorizado para a proteção de uma corporação profissional mais do que para a apreensão do sentido do princípio de precaução (cf. Lacey, 2006) no contexto da educação médica. Na história da loucura, as atrocidades humanas elaboradas por médicos estiveram atreladas à explicação orgânica das doenças mentais, colaboraram para o estabelecimento de analogias entre a sociedade e o organismo vivo e para a garantia das ideologias higienistas, alienistas e eugenistas no pensamento médico. Nas décadas de 1960 a 1980, a iatrogenia em Ivan Illich (1975), a biopolítica em Michel Foucault (1978), a antipsiquiatria de Thomas Szasz (1961) e David Cooper (1967), o processo de desinstitucionalização de Franco Basaglia (1985), o estigma ou os desvios da consciência no mundo cotidiano de Irving Goffman (2011) desenvolveram argumentos fundamentais para uma alternativa ética no campo da saúde, para além do pensamento médico. Certamente essas discussões aumentam nossos parâmetros para pensar os limites da medicina e da prática científica da saúde na sociedade.
3 FUNDAMENTO PARA A FILOSOFIA E A SOCIOLOGIA DA MEDICINA
Até agora indicamos no livro O conhecimento da vida pontos de leituras que apoiam conceitos e definições para a fundamentação do conceito de vida, estendida às preocupações do campo ético. A genética de populações (cf. Clark & Hartl, 2010) ou a sociobiologia (cf. Wilson, 1975) não seriam candidatas a proporcionar diretrizes para um campo ético da vida e saúde? Hans Jonas aprofundou a linha temática da ética entre a medicina e a tecnologia, mostrando o ser humano como um objeto nos avanços da medicina, o corpo como um artefato para o progresso da biotecnologia (cf. Jonas, 1995; 1997) e propondo, para o contexto ético, o princípio da responsabilidade. Entendo que essa mesma responsabilidade foi colocada por Canguilhem como ajuste ao fenômeno da vida por meio da consciência do cientista.
O conflito não é entre o pensamento e a vida no homem, mas entre o homem e o mundo na consciência humana da vida (…). A inteligência só pode aplicar-se à vida reconhecendo a originalidade da vida. O pensamento do vivente deve manter do vivente a ideia do vivente (p. 2, 5).
É nesse contexto da biotecnologia, repleto de dilemas (cf. Martins, 2012; Garcia, 2003), no qual efetivamente vigoram os comitês de ética, organizados em sistemas de controle cujas normas regulam o desenvolvimento de projetos experimentais com seres humanos, que se verifica, entretanto, que ainda não se instituíram formas de comunicação intersubjetiva entre pesquisadores e pesquisados na prática experimental dos ensaios clínicos. Entendo tratar-se, na verdade, de uma questão atual relativa aos direitos humanos (cf. Declaração, 1948). Diante da singularidade da vida e do vivente, todos nós temos o direito de narrar, com consciência, as disposições da vida e, primordialmente, garantir com isso a própria participação nas decisões de nossos destinos.
A resenha aqui publicada faz parte da pesquisa de pós-doutorado realizada em 2014 no Departamento de Filosofia da Universidade de São Paulo, sob a supervisão de Pablo Rubén Mariconda.
Notas
1 Tomo aqui por referência a classificação atual das áreas do conhecimento da CAPES (Coordenação Aperfeiçoamento Pessoal de Nível Superior), organizada por Colégios de Conhecimentos (Colégio de Ciências da Vida; Colégio de Ciências Exatas; Tecnológicas e Multidisciplinar; Colégio de Humanidades) e respectivas Áreas do conhecimento
Referências
BASAGLIA, F. A instituição negada: relato de um hospital psiquiátrico. Rio de Janeiro: Graal, 1985.
CANGUILHEM, G. La formation du concept de réflexe aux XVII et XVIII siècles. Paris: PUF, 1955a.
_____. O normal e o patológico. Rio de Janeiro: Forense Universitária, 1995a.
_____. Novas reflexões referentes ao normal e ao patológico, 1963-1966. In: _____. O normal e o patológico. Rio de Janeiro: Forense Universitária, 1995b. p. 203-61.
_____. O conhecimento da vida. Tradução V. L. A. Ribeiro. Rio de Janeiro: Forense Universitária, 2012a.
_____. Estudos de história e de filosofia das ciências, concernente aos vivos e à vida. Rio de Janeiro: Forense Universitária, 2012b.
_____. O novo conhecimento da vida. In: _____. Estudos de história e de filosofia das ciências, concernentes aos vivos e à vida. Rio de Janeiro: Forense Universitária, 2012c. p. 367-400.
CHARLTON, B. G. First a hero of science and now a martyr to science: the James Watson affair: political correctness crushes free scientific communication. Medical Hypotheses, 70, 6, p. 1077-80, 2008.
CLARK, A. G. & Hartl, D. L. Princípios de genética de populações. Porto Alegre: Artmed, 2010.
COOPER, D. Psiquiatria e antipsiquiatria. São Paulo: Perspectiva, 1967.
DEBRU, C. Georges Canguilhem, science et non-science. Paris: Éditions Rue D´Ulm, 2004.
Declaração Universal dos Direitos Humanos. Organização das Nações Unidas. 1948. Disponível em: <http://unesdoc.unesco.org/images/0013/001394/139423p or.pdf>. Acesso em: 20 jun. 2015.
FOUCAULT, M. História da loucura. São Paulo: Perspectiva, 1978.
Garcia, J. L. Dilemas da civilização tecnológica. Lisboa: Imprensa de Ciências Sociais, 2003.
_____. Biotecnologia e biocapitalismo global. Análise Social, 41, 181, p. 981-1009, 2006.
GOFFMAN, E. A representação do eu na vida cotidiana. Petrópolis: Vozes, 2011.
ILLICH, I. A expropriação da saúde: nêmesis da medicina. Rio de Janeiro: Nova Fronteira, 1975.
JONAS, H. El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Barcelona: Herder, 1995.
_____. Técnica, medicina y ética. Barcelona: Paidós, 1997.
LACEY, H. O princípio de precaução e a autonomia da ciência. Scientiae Stududia, 4, 3, p. 373-92, 2006.
_____. Valores e atividade científica 1. São Paulo: Associação Filosófica Scientiae Studia/Editora 34, 2008.
MALLOY, J. James Watson tells the inconvenient truth: faces the consequences. Medical Hypotheses, 70, 6, p. 1081-91, 2008.
MARICONDA, P. R. O controle da natureza e as origens da dicotomia entre fato e valor. Scientiae Studia, 4, 3, p. 453-72, 2006.
MARTINS, H. Experimetum humanum: civilização tecnológica e condição humana. Belo Horizonte: Fino Traço, 2012.
MILMO, C. Fury at DNA pioneer’s theory: Africans are less intelligent than Westerners. The Independent. London. 17 Oct. 2007. Disponível em: <http://www.indepen dent.co.uk/news/science/fury-at-dnapioneers-theory-africans-are-less-inteligent-than-westerners-394898.html>. Acesso em: 20 jun. 2015.
STEPAN, N. L. The hour of eugenics: race, gender, and nation in Latin America. New York: Cornell University Press, 1991.
SZASZ, T. The myth of mental illness: foundations of a theory of personal conduct. New York: Harper & Row, 1961.
WATSON, J. & Crick, F. Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature, 171, 4356, p. 737-8, 1953.
WILSON, E. O. Sociobiology: the new synthesis. Cambridge: Belknap, 1975.
Rodolfo Franco Puttini – Departamento de Saúde Pública. Faculdade de Medicina de Botucatu, Universidade Estadual de São Paulo, Brasil. E-mail: puttini@fmb.unesp.br
[DR]
Gênese e desenvolvimento de um fato científico – FLECK (SS)
FLECK, Ludwik. Gênese e desenvolvimento de um fato científico. Belo Horizonte: Fabrefactum, 2010. Resenha de: CARNEIRO, João Alex. Gênese e recepção do projeto epistemológico de Ludwik Fleck. Scientiæ Studia, São Paulo, v.13, n. 3, p. 695-705, 2015.
Nesta oportunidade completam-se 80 anos da publicação de Gênese e desenvolvimento de um fato científico, livro que exerceu reduzido impacto em seu lançamento. Contudo, após um longo período de ostracismo, ele constitui hoje um ponto incontornável tanto para a compreensão do debate epistemológico do entreguerras, como de suas reverberações contemporâneas. Com um título inusitado, o livro, também conhecido como a “monografia”, causou estranhamento na década de 1930, momento em que a epistemologia europeia era francamente influenciada pelo positivismo lógico de Viena. Seu objetivo central foi o de descrever cerca de meio milênio de desenvolvimento de uma doença, a sífilis. A audácia do empreendimento estava não só no largo escopo temporal analisado, mas principalmente nas formulações teóricas em um quadro conceitual inovador, servindo-se de expressões incomuns à filosofia e à língua alemã.
Luwik Fleck (1896-1961) destoa dos principais epistemólogos de sua época por carecer de formação em física ou matemática, e por não ter exercido a carreira acadêmica em filosofia. Foi, sobretudo, um “pesquisador de bancada” que nutria profundo interesse pela história da medicina e pelo debate filosófico. Formou-se em medicina pela Universidade Jan-Kazimierz de Lwów (Galícia, então território polonês), sua cidade natal. Atuou como clínico e pesquisador em microbiologia e imunologia. Com extensa produção científica, assumiu importantes posições acadêmicas e profissionais. Seu primeiro escrito de caráter epistemológico, redigido em polonês, “Sobre algumas características específicas ao modo médico de pensar” (1927), enfatiza o caráter construtivo e histórico dos conceitos utilizados pela medicina, em especial o de “entidade nosológica” (Fleck, 1927, p. 56). Destaca também a especificidade da atuação médica que, por não ser uma ciência de base, não demandaria uma fundamentação lógica, mas um “estilo de pensamento específico” (1927, p. 57). Dois anos depois, em um esforço de extrapolar tanto as barreiras de sua língua natal como as especificidades do campo profissional, Fleck publica seu segundo artigo epistemológico “Sobre a crise da ‘realidade’” (1929) na prestigiada revista alemã Die Naturwissenschaften. Tendo como pano de fundo a crise epistemológica promovida pelo advento da mecânica quântica, enfatiza não só a dimensão histórica do conhecimento, mas os elementos sociais e antropológicos que estariam presentes em todo ato cognitivo. A própria noção de “realidade” é entendida não de modo absoluto, mas relacional, produto de um certo “estilo de pensamento” compartilhado por uma “comunidade de conhecimento” (Flek, 2011 [1929], p. 54). Destaca ainda a democracia como caráter distintivo da comunidade científica na modernidade.
Em 1933, Fleck estabelece contato com Moritz Schlick. Em carta, busca apoio para a publicação da monografia, cujo esboço intitulava-se A análise de um fato científico – Busca por uma teoria comparativa do conhecimento. Na justificativa, indica as limitações da epistemologia da época, que investigava “não o conhecimento tal como fatualmente se manifesta, mas sua construção ideal imaginária”. Herdeira do empirismo ingênuo, centrava-se nas impressões sensíveis, ignorando os processos comunicativos e seus registros escritos: “nunca se pesquisou com seriedade se o comunicar de um saber, sua peregrinação de homem a homem, de revista especializada a manual, estaria em princípio relacionado com uma transformação direcionada de maneira particular” (Fleck, 2011, p. 561). Em sua resposta, Schlick minimiza qualquer esperança de publicação por seu intermédio. A monografia acaba então lançada na Suíça pela editora Benno Schwabe, que está um tanto distante do debate epistemológico da época, limitando sua difusão.
Gênese e desenvolvimento de um fato cientifico oferece – com base em uma ampla visão do desenvolvimento do conhecimento no curso histórico – um entendimento dos mecanismos responsáveis pela mudança do conhecimento científico no quadro da cultural geral. Trata-se de uma nova incursão no campo da medicina, mas a partir da perspectiva de uma teoria geral do conhecimento.1 Dividido em quatro breves capítulos, o livro ambiciona reconstituir o desenvolvimento da entidade nosológica sífilis desde o Renascimento até o início do século XX, enfatizando o advento da reação de Wassermann (cap. 1, 3). Entretanto, sua maior parte (cap. 2, 4) consiste em uma exposição mais detalhada dos conceitos aplicados em sua análise, alguns deles já apresentados nos artigos que acabamos de citar.
Nesse contexto, uma inovação central diz respeito à noção de “comunidade científica”, entendida de modo mais preciso sob a rubrica de “coletivo de pensamento” (Denkkollektiv):
Se definirmos o coletivo de pensamento como a comunidade de pessoas que trocam ou se encontram numa situação de influência mútua de pensamentos, temos, em cada uma dessas pessoas, o portador do desenvolvimento histórico de uma área de pensamento, de um determinado estado de saber e da cultura, ou seja, de um estilo específico de pensamento. Assim, o coletivo de pensamento representa o elo na relação que procurávamos (p. 82).
A participação em um coletivo de pensamento é amalgamada pelo conceito de “estilo de pensamento”, que “exerce uma ‘força coercitiva’ em seu pensamento e contra a qual qualquer contradição é simplesmente impensável” (p. 84). Genericamente, um estilo de pensamento é entendido como uma “disposição” quase inconsciente que direciona e faz convergir o pensamento dos membros do coletivo. Em um sentido mais específico, expressa a capacidade desses mesmos membros para “um determinar dirigido, voltado para um objeto” nele reconhecendo de modo imediato uma “forma” ou “configuração” (Gestalt) (p. 144). Tal capacidade é designada pelos termos “visão estilizada” ou “percepção de forma” (Gestaltsehen). Com isso, encerra-se o trinômio cognitivo, cujos polos são o indivíduo, o coletivo-estilo que direciona sua percepção, e o objeto a ser percebido. Dentre os exemplos oferecidos está o de reconhecer, após treinamento, padrões visuais distintivos em lâminas microscópicas preparadas com amostras biológicas.
Denominado pelo próprio filósofo como uma “sociologia do pensamento”, “ciência dos estilos de pensamento”, ou ainda, “teoria comparativa do conhecimento”, seu projeto epistemológico posiciona-se como uma resposta crítica ao seu tempo. Dada a ênfase na dimensão concreta, social e histórica, do desenvolvimento do conhecimento em geral, todos os projetos filosóficos que ignoram tais aspectos são caracterizados como “epistemologia imaginabilis” (Fleck, 2011, p. 62). Quanto a isso, é emblemática a crítica à sociologia e à antropologia de então, bem como a defesa de uma visão lógicoaxiomática da linguagem cientifica pelo positivismo lógico.
Outro erro, também muito característico, é cometido pelos cientistas-filósofos. Sabem que não existem “qualidades e condições exclusivamente objetivas”, mas apenas relações dentro de um sistema de referências mais ou menos arbitrário. Mas comentem, por sua vez, o erro de ter um respeito excessivo diante da lógica, uma espécie de devoção religiosa diante das conclusões lógicas” (p. 94).
A axiomatização da linguagem e o reconhecimento de “fatos científicos” seriam apreensíveis como resultados de um longo processo de desenvolvimento, baseado em pressupostos, “acoplamentos ativos” nos termos fleckianos. Suas implicações, os “acoplamentos passivos”, corresponderiam ao que denominamos como “fatos”. De modo geral, a história da ciência é vista como uma sucessão de estilos de pensamento, que atuam como sistemas fechados, autorreferentes. Mesmo a noção de “verdade” é entendida de modo relacional, no sentido de ser relacionada a algum estilo de pensamento. “Em todos os tempos, o saber era, na opinião de todos os envolvidos, sistematizável, comprovado e evidente. Todos os sistemas alheios eram para eles contraditórios, não comprovados, não aplicáveis, fantásticos ou místicos” (p. 63-4). Ao negar a existência de um estilo de pensamento absoluto ou universal, a “teoria comparativa” fleckiana consiste justamente no exercício de elucidar, por meio de uma abordagem comparativa, distintos estilos de pensamento.
Nesse exercício comparativo, grande importância é dada à linguagem. Porém, diferentemente do encaminhamento dado pelos positivistas lógicos, a monografia de Fleck inova ao enfatizar os mecanismos comunicacionais presentes, na atividade científica, em seus coletivos. Um coletivo informal pode ser subsumido pelo mero diálogo de seus participantes. Nos grandes coletivos científicos, porém, há uma estruturação formal, baseada em dois “círculos”: um “esotérico” e outro “exotérico”. O primeiro, caracterizado pela presença de membros profissionais, já iniciados no estilo de pensamento corrente e proficientes em uma língua mais precisa. Esses profissionais participam de polêmicas conceituais e deliberações às quais os demais membros não foram introduzidos ou não dominam por completo. Já o segundo círculo, difuso, possui níveis de participação e engajamento variados (p. 157).
A análise dos processos comunicacionais atuantes nos coletivos seria capaz de justificar tanto a persistência, como a alteração de um estilo de pensamento. Sendo os coletivos de pensamentos relativos às ciências naturais constituídos pela sobreposição de muitos desses círculos, a “circulação de pensamento no interior de um mesmo coletivo de pensamento” – principalmente no interior dos círculos exotéricos – atua no sentido de fortalecer as convicções compartilhadas, produzindo um “companheirismo gerado pela atmosfera comum” (p. 158). Há, porém, uma importante distinção entre esse tipo de circulação e aquela produzida entre coletivos.
A simples comunicação de um saber não é, de maneira alguma, comparável ao deslocamento de um corpo rígido no espaço euclidiano: nunca acontece sem transformação, mas sempre com uma modificação de acordo com um determinado estilo; no caso intracoletivo, com o fortalecimento; no caso intercoletivo, com uma mudança fundamental (p. 162-3).
Essa alteração pode consistir em uma mera “mudança matizada, passando por mudança completa de sentido ou até a aniquilação de qualquer sentido” (p. 143). Assim entendidos, os processos comunicativos intercoletivos alteram a “disposição da percepção direcionada”, resultam em “novas possibilidades de descobertas e cria novos fatos” (p. 144).
No âmbito comunicativo das ciências naturais modernas, Fleck destaca a importância dos meios de comunicação impressa, implicados diretamente na tensão entre fixação e mudança do conhecimento. Há publicações diretamente voltadas ao círculo exotérico, como o livro de divulgação científica (populäres Buch). Este, de linguagem simplificada e apresentação “esteticamente agradável, viva e ilustrativa”, desempenha papel preponderante na construção do que é designado por “saber popular” ou “ciência popular”, bem como na constituição de uma “visão de mundo” comum (p. 166). Do ponto de vista dos círculos esotéricos, o veículo mais emblemático é a “revista especializada” (Zeitschrift). Nela ocorrem os debates especializados, proporcionando a expressão de perspectivas pessoais e fragmentadas, muitas vezes divergentes ou incongruentes. Nesse sentido, a revista especializada constitui o veículo propício para a emergência de novas concepções que, ulteriormente, poderão engendrar novos “fatos” (p. 173). Finalmente, próximo ao limite entre os círculos esotérico e exotérico, encontra-se o “manual” ou “livro-texto” (Handbuch), que consiste na sistematização dos resultados acordados pelos especialistas tendo em vista a formação de novos integrantes para seu círculo.
Entendidas de modo sincrônico, as contínuas alterações sofridas pelos estilos de pensamento devido ao fluxo comunicacional são pouco visíveis. No entanto, em uma análise diacrônica, os resultados são notáveis. Ainda que não descrevam rupturas ou grandes revoluções, as mudanças transcorrem “de uma maneira muito mais rápida do que aquela ensinada pela paleontologia, de modo que assistimos constantemente às ‘mutações’ do estilo de pensamento” (p. 67-8). Contudo, é possível antever a permanência de certas linhas de desenvolvimento conceitual, amalgamadas por “protoideias” (Urideen/Präideen). Trata-se de um conceito de alcance maior que o de “entidade nosológica”, aplicável ao desenvolvimento do conhecimento em geral. Dentre os exemplos de protoideias, são citados o “átomo” e os “micro-organismos patogênicos”, ambos originários da Antiguidade. As protoideias não devem ser entendidas de modo substancializado, mas como uma perspectiva aberta ao desenvolvimento. São “predisposições histórico-evolutivas de teorias modernas e sua gênese deve ser fundamentada na “sociologia do pensamento” (p. 66). Disso resulta seu dinamismo conceitual, pois seu valor “não reside em seu conteúdo lógico e ‘objetivo’, mas unicamente em seu significado heurístico enquanto potencial a ser desenvolvido” (p. 67). Estão, consequentemente, envolvidas no desenvolvimento de novas linhas de pesquisa pois estabelecem o elo do tráfego entre diferentes coletivos e círculos de pensamento.
Dado que a ciência popular abastece a maior parte das áreas do saber de cada pessoa, e dado também que o profissional mais meticuloso lhe deve muitos conceitos, muitas comparações e seus pontos de vista gerais, ela representa um fator de impacto genérico de qualquer conhecimento e deve ser considerada como um problema epistemológico. Quando um economista fala em organismo econômico, ou um filósofo em substância, ou um biólogo no estado de células, todos utilizam em sua própria especialidade do repertório popular do saber. É em torno desses conceitos que constroem suas ciências especializadas (p.165).
Nesse sentido, o círculo exotérico e seu “saber popular”, ainda que distante do debate especializado, cumpre um papel fundamental ao fornecer um repertório de ideias capazes de serem transformadas e aplicadas em diferentes círculos especializados. Um exemplo oferecido é o da identificação do agente etiológico sifilítico, que “não nasceu de maneira imediata dos trabalhos individuais dos periódicos. Surgido em última instância dos pensamentos exotéricos (populares) e extracoletivos, obteve seu significado atual no tráfego esotérico de pensamento” (p. 175).
Ao refletir sobre o trabalho propriamente historiográfico, Fleck resume sua compreensão da história e o desafio que esta exige.
É difícil, quando não impossível, descrever corretamente a história de um domínio do saber. Ele consiste em numerosas linhas de desenvolvimento das ideias que se cruzam e se influenciam mutuamente e que, primeiro, teriam que ser apresentadas como linhas contínuas e, segundo, em suas respectivas conexões. Em terceiro lugar, teríamos que desenhar ao mesmo tempo separadamente o vetor principal do desenvolvimento, que é uma linha média idealizada (p. 55-6).
São justamente as múltiplas linhas de desenvolvimento da sífilis que Fleck busca traçar, ao comparar distintos estilos de pensamento. No Renascimento, havia um forte caráter ético-místico que associava astrologia e valores cristãos, o que configurou a sífilis como “doença venérea por excelência”, resultado de um “castigo pelo prazer pecaminoso” (p. 41). Outra corrente, de natureza empírica, a concebe como uma moléstia passível de cura por meio de certos tipos de metaloterapias. Posteriormente surge uma linha “patológica experimental”, preconizando a inoculação de tecidos e secreções contaminadas, tendo em vista controlar seu mecanismo de contágio. Esse polimorfismo sifilítico acaba por associá-lo a algum tipo de contágio ou corrupção dos humores sanguíneos.2 Desse contexto surge a tese da “alteração sanguínea” (alteratio sanguinis), que abre caminho para sua posterior associação a alguma entidade etiológica patogênica, fomentando a “descoberta” da bactéria Spirochaeta pallida como agente etiológico sifilítico.3 Diante da identificação do agente etiológico específico, boa parte do esforço da microbiologia e da imunologia nas primeiras décadas do século xx concentrou-se no desenvolvimento de algum método de imunorreação sorológica capaz de diagnosticar a sífilis de modo eficaz. A “gênese de um fato científico” a que Fleck se refere no título de seu livro corresponde justamente ao estabelecimento de um teste sorológico padrão: a reação de Wassermann. Esta denominação rende homenagem ao seu principal desenvolvedor, August Paul von Wassermann. Trata-se de uma imunorreação sorológica baseada na técnica de fixação de complemento (desenvolvida por Jules Bordet e Octave Gengou), sendo, por isso, também conhecida como reação de Bordet-Wassermann.
Ainda que de modo abreviado, a narrativa de seu desenvolvimento é também o momento de aplicação de suas inovadoras categorias comunicacionais.
Descrevemos na história da reação de Wassermann, o processo de transformação da ciência provisória e pessoal dos periódicos na ciência universalmente válida e coletiva de manuais: esse processo se manifesta, primeiro, como mudança no significado dos conceitos e na apresentação dos problemas, e, posteriormente, na forma da coleção de uma experiência coletiva, isto é, da gênese de uma disposição peculiar para uma percepção direcionada e de um processo específico do percebido. Esse tráfego esotérico de pensamento se realiza, em parte, já dentro da pessoa do próprio pesquisador: ele dialoga consigo mesmo, pondera, compara, decide. Quanto menos essa decisão repousar na adaptação à ciência dos manuais, ou seja, quanto mais original e ousado o estilo de pensamento pessoal, tanto mais tempo durará até se completar o processo de coletivização de seus resultados (p. 174).
Por fim, Fleck enfatiza que o advento da reação não encerraria a discussão sobre o diagnóstico sifilítico, alentando grande debate na literatura diante dos desafios a serem vencidos. Cabe ressaltar que à época, inexistia a penicilina. Ademais, a reação de Wassermann gerava muitos casos de falsos positivos, indicando baixa especificidade para a interação antígeno-anticorpo.
O ano de publicação da monografia, 1935, marca também o início de dramáticas dificuldades sofridas pelo autor diante da ascensão do nazismo. Em 1937, Fleck é expulso da Associação Médica Polonesa devido a sua ascendência judia. O subsequente domínio nazista na Galícia o faz com que perca outros cargos. Em 1942, Fleck realiza trabalho forçado na Fábrica Químico-Farmacêutica de Laokoon. É deportado em 1943 para o campo de Auschwitz e, subsequentemente, para Buchenwald. Finda a guerra, retorna para a Polônia (já sob influência soviética), onde assume posições de destaque acadêmico-institucional. Embora concentrado na pesquisa científica do entreguerras ao começo do pós-guerra, Fleck não cessou sua produção epistemológica. Seus escritos, porém, publicados em polonês em revistas de divulgação científica ou filosófica de circulação restrita, não ultrapassariam as fronteiras de sua terra natal. No conjunto, visavam reapresentar as principais teses de seu livro, ou melhor detalhar alguns de seus tópicos. Caminham nesse sentido, “Observação científica e percepção em geral” (1935) e “Ver, enxergar e conhecer” (1947), nos quais a relação entre percepção visual, estilo e coletivo de pensamento é apresentada de modo mais elaborado. Já “O problema da teoria do conhecimento” (1936) enfatiza tanto o relacionismo, quanto a possibilidade de haver incomensurabilidade entre conceitos oriundos de estilos distintos.
Redigido em inglês e póstumo, “Crisis in science” (1960) constituiu o último artigo epistemológico de Fleck, trabalho que fora recusado pelas revistas Science, American Scientist, New Scientist e The British Journal for the Philosophy of Science. Nele, os perigos decorrentes da “opinião oficial sobre a natureza da ciência” são indicados de modo contundente. Suas origens residiriam na formação escolar e acadêmica ingênua, que tem “verdade” e “objetividade” como “ideais sagrados”. Essa visão negaria a atividade científica “real”, resultado de convenções, técnicas investigativas, interpretações estatísticas e aquisição de uma linguagem e treinamento específicos. O filósofo explicita ainda suas críticas ao produtivismo e carreirismo por minarem o senso crítico da comunidade científica, já amordaçada pelo oportunismo: “a melhor política é não fazer muitas perguntas e permanecer em boas relações com aqueles que estão no poder” (Fleck, 1986 [1960], p. 154). Com título e linha argumentativa similar à adotada em 1929, o artigo defende que a “crise” não residia na noção de “realidade”, mas na manutenção da “opinião oficial” sobre a natureza da ciência. Mudaram apenas os países e línguas hegemônicas do debate filosófico científico. O antídoto oferecido para ambas as situações continuou sendo o mesmo: desvelar a natureza social e histórica da ciência.
A recepção da monografia seguiu um caminho tortuoso. Mesmo sem despertar grande interesse inicial, não foi ignorada. Da tiragem de 1.000 exemplares, cerca de 450 restavam em estoque até 1940, indicando alguma circulação ainda no entreguerras” (Graf, 2009, p. 65). No pós-guerra, Fleck, em carta de 20 de abril de 1949 ao editor suíço, demonstrava interesse em difundir seu livro nos EUA.4 “Na minha opinião seria muito importante promover o livro no mundo científico americano, onde a problemática da sociologia do conhecimento é discutida vivamente hoje” (Graf, 2009, p. 70). Em outra carta, mais extensa, de 1 de novembro de 1959, Fleck faz referência a um “físico reconhecido” norte-americano, Schilling, citando passagens de correspondência dele recebida, em que a monografia é qualificada como “notável” e “à frente de seu tempo”. Há ainda referência a Michel Polanyi, autor de Personal knowledge, afirmando que o livro conteria um “ponto central comparável” ao da monografia. Fleck indica que havia enviado a Polanyi um exemplar da monografia “por ele desconhecida” (Graf, 2009, p. 71-2). Nesse ínterim, Fleck solicita, ao final da carta, uma nova edição: “meu livro ainda é atual e talvez fosse conveniente pensar em uma nova edição com atualizações”. A proposta não fora deferida pelo editor, alegando baixa vendagem da primeira edição, que rendera 258 exemplares “encalhados” no estoque, descartados pela editora anos mais tarde, como indica uma última carta endereçada ao autor, em 11 de outubro de 1966 (cf. Graf, 2009, p. 74). Fleck falecera em 1961.
É inevitável atentar para o fato de que, um ano após a morte de Fleck, é publicado em solo norte-americano uma obra diretamente associada a sua redescoberta, The structure of scientific revolutions, de Thomas Kuhn. Graf destaca que, ironicamente, essa obra surge como fascículo da Foundations of the Unity of Sciences (último grande projeto associado ao positivismo lógico, lançada em fascículos entre 1938-1969 sob coordenação de Charles Morris, Otto Neurath e Rudolf Carnap). Igualmente irônico é o fato de que foi um positivista o responsável pela tomada de conhecimento de Kuhn da obra de Fleck. Hans Reichenbach em Experience and prediction (1938) faz uma única e marginal referência à monografia, cujo título incomum despertou a curiosidade de Kuhn, que a leu entre os anos de 1949-1950 (cf. Kuhn 2000 [1997], p. 283). Passados doze anos, o prefácio de seu livro rendia homenagem ao polonês: “Um ensaio [monografia] que antecipa muitas de minhas próprias ideias. O trabalho de Fleck, (…) fez-me compreender que essas ideias podiam necessitar de uma colocação no âmbito da sociologia da comunidade científica” (Kuhn, 1970 [1962], p. 11). A alta difusão do livro de Kuhn motivou indiretamente o resgate da obra fleckiana. Contudo, apenas com a edição em língua inglesa da monografia em 1979, seguida pela reedição alemã de 1980, que o público readiquire um contato material com a monografia, há muito esgotada no mercado. Acrescenta-se a isso a publicação da coletânea alemã organizada por Schäfer e Schnelle (1983), contendo os principais artigos epistemológicos de Fleck, posteriormente acrescidos de comentários críticos e traduzidos para o inglês na edição de Cohen e Schnelle (1986). Ambas as publicações possibilitaram uma pesquisa mais ampla de seus escritos.
Esse interesse post mortem por Fleck resume a “segunda fase” de sua recepção, marcada por investigar em que medida suas ideias teriam antecipado ou influenciado Kuhn. Com a ascensão de concepções epistemológicas cada vez mais interessadas pela historicidade de seus elementos, emergiria uma “terceira fase” da recepção. Nesse caso, Fleck passaria a fornecer um instrumental conceitual capaz de lidar com questões atuais, mas já presentes em sua obra: o papel da metáfora, das ilustrações, da instrumentação, das relações interdisciplinares na prática científica. Essa ampla gama de estudos espelha uma direção de pesquisa interessada em separar completamente Fleck de Kuhn.
Pensamos que o atual momento é favorável às contribuições fleckianas, mas o puro exercício de afastamento de Kuhn não parece ser o ponto mais relevante. Fleck merece uma leitura crítica, que aponte para sua originalidade e potencialidade, mas também problematize suas posições. Nesse sentido, a recente coletânea organizada por Werner e Zittel (2011), precedida pela reedição de parte dos artigos originais poloneses pelos mesmos Werner e Zittel (2007), cumpre papel fundamental, pois oferece traduções revisadas, bem como artigos inéditos de Fleck, todos dotados de amplo e consistente aparato crítico. Ademais, não poderíamos deixar de saudar a edição brasileira de seu livro, ora resenhado. Sua tradução, quase sempre fiel ao original alemão, abre novas oportunidades de pesquisa em língua portuguesa. Por fim, mais que um trabalho exegético, a proposta fleckiana de uma teoria comparativa do conhecimento deve ser entendida – para ser consistente com seu próprio espírito democrático, crítico e criativo – como um projeto aberto ao desenvolvimento e aplicação. Já é tempo de (re)visitar Fleck e incorporá-lo aos estudos sobre a ciência e a tecnologia.
Notas
1 Também em 1935 é publicado o artigo “Sobre a questão dos fundamentos do conhecimento médico”. Trata-se de um ensaio que, além de resumir as principais teses da monografia, justifica sua preferência por temas médicos. Fleck indica a permeabilidade oferecida pela medicina a novas técnicas e métodos, ao mesmo tempo em que sedimenta inúmeros conceitos de origem remota. Ademais, a medicina desperta grande interesse social, possuindo volumosa literatura especializada. Esses fatores a tornam um campo especial, capaz de fundamentar de modo “racional” uma nova teoria do conhecimento, interessada em “investigar o condicionamento social do conhecimento”.
2 Sabe-se hoje que a sífilis possui vários estágios clínicos. Principia com ulcerações cutâneas genitais, passa por estágios assintomáticos, assume posteriormente contorno sistêmico, podendo, décadas depois, manifestar-se como neurossífilis. Esse polimorfismo está na base da dificuldade do diagnóstico.
3 Hoje conhecida como Treponema pallidum, isolada em 1905 por Fritz Schaudinn e Paul Erich Hoffmann.
4 Fac-símile das cartas, ora citadas, encontra-se disponível em Graf, 2009, p. 70-5.
Referências
COHEN, R. & Schnelle, T. (Ed.).Cognition and fact: materials on Ludwik Fleck. Dordrecht/Boston: Reidel, 1986.
FLECK, L. O niektórych swoistych cecach myœlenia lekarskiego. Archiwum Historji i Filozofji Medycyny oraz Historji Nauk Przyrodniczych, 6, 1, p. 55-64, 1927.
_____. Zur frage der Grundlagen der mezinischen Erkenntnis. Klinische Wochenschrift, 14, p. 1255-9, 1935.
_____. Genesis and development of a scientific fact. Chicago: University of Chicago Press, 1979 [1935].
_____. Entstehung und Entwicklung einer wissenschaftlichen Tatsache:Einführung in die Lehre vom Denkstil und Denkkolektiv. Frankfurt: Suhrkamp, 1980 [1935].
_____. Crisis in science. In: Cohen, R. & Schnelle, T. (Ed.).Cognition and fact: materials on Ludwik Fleck. Dordrecht/Boston: Reidel, 1986. p. 153-7.
_____. Gênese e desenvolvimento de um fato científico. Tradução G. Otte & M. C. de Oliveira. Belo Horizonte: Fabrefactum, 2010 [1935].
_____. Zur Krise der “Wirklichkeit”. In: Werner, S. & Zittel, C. (Ed.). Denkstile und Tatsachen: Gesammelte Schriften und Zeugnisse. Frankfurt: Surhkamp, 2011 [1929]. p. 52-69.
FEHR, J.; Jas, N. & Löwy, I. (Ed.). Penser avec Fleck: investigating a life studying life sciences. Zurich: Collegium Helveticum, 2009.
GRAF, E. O. Habent sua fata libelli: le destin des livres. In: Fehr, J.; Jas, N. & Löwy, I. (Ed.). Penser avec Fleck: investigating a life studying life sciences. Zurich: Collegium Helveticum, 2009. p. 63-76.
KUHN, T. The structure of scientific revolutions. Chicago: University of Chicago Press, 1970 [1962].
_____. A discussion with Thomas Kuhn. In: Kuhn, T. The road since structure. Chicago: The University of Chicago Press, 2000 [1997]. p. 255-326.
REICHENBACH, H. Experience and prediction. Chicago: The University of Chicago Press, 1938.
SCHÄFER, L. & Schnelle, T. (Ed.). Erfahung und Tatsache: Gesammelte Aufsätze Ludwik Fleck. Frankfurt: Surhkamp, 1983.
WERNER, S.; Zittel, C. & Schmaltz, F.W. (Ed.). Style myœlowe i fakty. Artykuy i œwiadectwa. Varsovia: IFiS PAN, 2007. Werner, S. & Zittel, C. (Ed.). Denkstile und Tatsachen: Gesammelte Schriften und Zeugnisse. Frankfurt: Surhkamp, 2011.
João Alex Carneiro – Programa de Pós-Graduação em Filosofia. Departamento de Filosofia, Faculdade de Filosofia, Letras e Ciências Humanas. Universidade de São Paulo, Brasil. E-mail: joao.alex.carneiro@usp.br
[DR]
Leyes sin causa y causas sin ley – CAPONI (SS)
CAPONI, Gustavo. Leyes sin causa y causas sin ley. Bogotá: Universidad Nacional de Colombia, 2014. BARAVALLE, Lorenzo. O mosaico causal do mundo orgânico. Scientiæ Studia, São Paulo, v.13, n. 3, p. 685-94, 2015.
No princípio – como muitas vezes acontece na filosofia da ciência – era Hume. E, aos olhos dele, o mundo natural era apenas uma coleção de fenômenos. O ser humano, uma criatura dirigida por uma série de hábitos profundamente arraigados, enxerga necessidade onde nada mais há que uma repetição de eventos contingentes similares, espacialmente próximos e temporalmente ordenados, e chama essa repetição de relação causal. Esta não está lá fora, no mundo, como imaginavam os metafísicos da época, mas em nós, nos observadores, e, por isso, nada nos assegura que, amanhã, das mesmas causas seguir-se-ão os mesmo efeitos.
Por quanto impecável do ponto de vista de um empirismo radical como o de Hume, sua caracterização da relação causal possuía algumas implicações indesejáveis para quem, como os empiristas posteriores a ele, pretendiam distinguir entre certas causas “autênticas” – como aquelas postuladas pelas teorias físicas – e outras meramente aparentes. Se qualquer sequência regular com as características acima descritas pode ser considerada como causal, como Hume parece admitir, então muitos eventos que intuitivamente não são tidos como causalmente relacionados, porque meramente correlacionados, passam a sê-lo. Como impedir a proliferação dessas pseudocausas? A solução do problema, geralmente atribuída a Hempel, embora sua paternidade, como mostra Caponi (cf. p. 15), seja disputada por Popper, consiste em dizer que apenas os eventos subsumidos sob uma lei científica podem ser considerados como causalmente relacionados. Em suma, que sem leis não há causas.
As leis científicas são consideradas, nessa tradição de pensamento, como generalizações universais irrestritas, isto é, enunciados válidos em qualquer porção de espaço-tempo e independentemente da existência, contingente, de objetos que as instanciam. Elas jogam um papel fundamental na explicação científica. Para Hempel, como é sabido, a explicação científica é uma inferência que permite derivar um explanandum (o enunciado que expressa o fato a ser explicado) a partir de um explanans (um conjunto de enunciados que constituem as premissas da inferência). Embora Hempel tivesse proposto vários modelos de explicação científica, o primeiro e mais conhecido é aquele chamado de “dedutivo nomológico particular”, no qual o explanandum, constituído por um enunciado que expressa um fato específico, é deduzido a partir de um explanans que, por sua vez, é constituído por outros enunciados de fatos particulares e por, pelo menos, uma lei. É justamente nisso que reside o caráter “nomológico” do modelo hempeliano, pois a presença de leis na explicação garante a validade da relação explicativa entre explanans e explanandum e, em última instancia, sua cientificidade. Embora nem todas as leis expressem relações causais (um ponto sobre o qual, como veremos em breve, Caponi justamente insiste), uma consequência implicitamente aceita do modelo hempeliano é que a possibilidade de falar de relações causais entre os fenômenos estudados por uma disciplina científica está subordinada à possibilidade de produzir, nessa mesma disciplina, generalizações nomológicas. Isto é, só há causas onde há leis.
A simplicidade e a elegância do modelo explicativo hempeliano escondem, na verdade, um sem fim de problemas epistêmicos mais ou menos graves (cf. Salmon, 1989). Notoriamente, ele colocou por um longo tempo os filósofos da biologia em uma situação bastante embaraçosa. Como observaram, entre outros, Smart (1963) e Beatty (1995), na biologia, é extremamente difícil, se não impossível, encontrar leis no sentido requerido por Hempel (isto é, generalizações universais irrestritas). Entretanto, conforme o modelo dedutivo nomológico, não pode haver explicação científica sem leis e, pelo que acabamos de dizer, parece não haver maneira de identificar relações causais se não por meio de explicações científicas, de modo que não parece possível falar de relações causais propriamente ditas na biologia. Mas, se isso for realmente assim, então a biologia seria uma disciplina de alguma maneira subordinada a disciplinas, tais como a física ou a química, cujo caráter nomológico é inegável.
É aqui que Gustavo Caponi entra em cena com seu novo livro, trazendo ar fresco a um debate que por várias décadas dividiu quem parecia estar disposto a abandonar a biologia a seu destino de ciência sem leis e, portanto, “sem causas” próprias, e quem insistia em encontrar um modelo explicativo ou uma definição de lei menos estritos e, portanto, mais adaptáveis às exigências das ciências especiais. Para Caponi, não é preciso abandonar a noção de lei tradicional para constatar que no domínio da biologia há tanto leis como causas. Se outros filósofos, no passado, pensaram diversamente é porque estabeleceram uma infértil e artificial equação entre essas duas noções. Uma equação que, uma vez dissolvida, permite mostrar o pleno potencial da biologia e reconhecer seu lugar entre as outras ciências explicativas. Para esse fim, Caponi, com sua característica prosa agradável e de clareza exemplar, limpa o caminho de uma serie de confusões conceituais sobre o tema e, articulando ativamente a chamada “concepção experimentalista” da causalidade (cf. Gasking, 1955; Von Wright, 1971; Woodward, 2003), retrata uma imagem da estrutura explicativa das ciências da vida original e fiel à prática epistêmica do biólogo. O livro de Caponi é composto por 4 capítulos, que definem o argumento principal, e um Anexo final sobre a explicação teleológica e a noção de desenho na biologia evolutiva. Tendo em conta o espaço a disposição, e com a finalidade de apresentar com a devida profundidade os elementos mais importantes da concepção defendida por Caponi, limitar-me-ei a discutir a primeira parte do texto, convidando o leitor a descobrir por si próprio como o Anexo completa tal concepção.
1 DO CARÁTER NOMOLÓGICO À INVARIÂNCIA
Nos últimos 20 anos, o pessimismo de Smart e Beatty com respeito à possibilidade de individuar regularidades nomológicas em biologia foi deixando o passo àqueles que, como Brandon (1990), Sober (1984) e muitos outros, argumentam que algo do tipo do princípio da seleção natural, segundo o qual “se a é melhor adaptado que b em um ambiente E, então (provavelmente) a terá um maior sucesso reprodutivo que b em E” (Brandon, 1990, p. 11) ou, de modo mais geral, do tipo das fórmulas da genética de populações são, efetivamente, leis oriundas da biologia. Compartilhando apenas parcialmente o entusiasmo desses filósofos, o problema que Caponi levanta no primeiro capítulo de seu livro é o de saber se é suficiente afirmar o caráter nomológico de tais enunciados para certificar-se da existência de explicações causais autênticas no âmbito da biologia? A resposta de Caponi é negativa, mas é justamente a partir desse desanimador começo que, como veremos, ele pode alcançar uma concepção da estrutura teórica da biologia mais madura e sofisticada. Não apenas o caráter nomológico não é suficiente para definir a causalidade, mas tampouco é necessário.
Mesmo Hempel (1965) admitia que nem todas as leis científicas são leis causais, dado que algumas delas expressam apenas uma relação matemática entre variáveis. Muitas leis não causais – as que Caponi (p. 45 ss.), adotando a terminologia de Sober (1984), chama de “leis consequenciais” – sugerem apenas que, entre certas classes de fenômenos, está ocorrendo alguma relação causal, mas não revelam em que consiste, efetivamente, tal relação. Embora também as leis consequenciais sejam informativas, alguns críticos do modelo dedutivo nomológico (cf. Salmon, 1997) argumentaram que somente as leis causais permitem formular explicações totalmente satisfatórias.
Se tomamos em consideração a física, é fácil ver que as leis físicas em sua maioria, e, portanto, as explicações nelas baseadas, são causais porque “dão conta da origem, da fonte, da constituição, de uma força ou agente de mudanças, e elas também nos indicam a intensidade que essa força ou agente de mudanças deverá ter” (p. 46). É assim também na biologia? Consideremos um exemplo clássico de lei na genética populacional (p. 37):
dp/dt = p (wA – W)/W. (1)
Ela nos diz que a frequência de um fenótipo em uma certa população aumenta na medida em que o valor seletivo (wA) de tal fenótipo supera o valor seletivo pro-médio dos outros fenótipos presentes na mesma população. A noção de “valor seletivo” (ou outras equivalentes, como “sucesso reprodutivo”) é meramente quantitativa, isto é, ela não indica por que a frequência do fenótipo em questão aumenta, já que não especifica as características ecológicas que fazem com que tal fenótipo possua, efetivamente, esse valor seletivo, mas apenas como esse valor influirá nas frequências dos outros fenótipos e, definitivamente, na composição da população. Em outras palavras, ele não indica as causas que estão operando na distribuição dos fenótipos na população. Portanto, (1) é uma lei consequencial. Assim como quase todas as leis da biologia, argumenta Caponi, ela é incapaz de ir para além de uma representação a posteriori de como certos efeitos estão inter-relacionados e, como consequência disso, não pode proporcionar explicações causais.
Há, também na biologia, pelo menos um exemplo de lei causal, a saber, a lei de Fisher sobre a proporção de gêneros (cf. Sober, 1984, p. 51 ss.). Estabelecendo que o fenótipo correspondente ao gênero menos difuso em uma população será aquele com maior valor seletivo, a lei de Fisher explicita, de fato, o que em (1) é deixado sem especificar, isto é, a natureza da característica ecológica que, no contexto em exame, causará uma variação na frequência do fenótipo em questão. Caso fosse possível encontrar outras leis análogas, capazes de determinar, com certo grau de universalidade, quais fenótipos possuirão um maior valor seletivo em uma população dadas certas condições ambientais, então o problema de encontrar explicações causais autênticas na biologia estaria virtualmente resolvido. Porém, Caponi (p. 64-8) argumenta, em minha opinião convincentemente, que elas, embora não impossíveis de encontrar, são extremamente raras, devido ao fato de que, dadas certas condições ambientais, as maneiras pelas quais uma população tem de adaptar-se a elas são muitas e potencialmente imprevisíveis. A lei de Fisher seria, então, a clássica “exceção que confirma a regra”: ela funciona bem como lei causal porque, nas espécies sexuadas, os gêneros são variáveis binárias. Todavia, não podemos esperar que ela funcione como modelo para outras leis, já que essa situação é muito pouco frequente no mundo orgânico.
Talvez, e essa é a grande aposta de Caponi – como ele mesmo sugere no segundo capítulo de seu livro –, não é no caráter nomológico que deveríamos procurar o caráter causal da explicação biológica. Opondo-se à tradição neo-humeana, conforme a qual – como lembrei no começo desta resenha – o caráter nomológico é condição necessária para atribuir causalidade, Caponi propõe reconhecer uma prioridade e independência conceitual à noção de causa com respeito à de lei (p. 69 ss.). Adota, ao fazer isso, a que é conhecida como perspectiva experimental ou manipulativa da causalidade (cf. Gasking, 1955; Von Wright, 1971) e, em particular, a proposta de James Woodward (2003). Conforme esta última proposta, “as atribuições causais (…) são feitas (…) com base na ideia de que a causa de um fenômeno é sempre outro fenômeno cujo controle permitiria, ou nos teria permitido, controlar a ocorrência daquele que chamamos seu efeito” (p. 72). Em outras palavras, a causalidade está relacionada com um fazer, mais do que com um saber: é uma noção, em certa medida, pré-teórica e anterior a nossas atribuições nomológicas.
Para esclarecer essa noção, Caponi introduz um dos exemplos mais recorrentes do livro: a da “rádio calchaquí”, uma rádio pequena e velha, perdida no meio dos vales Calchaquis na Argentina, que, devido à ação do tempo, apresenta um funcionamento anômalo (p. 77 ss.). O dispositivo que regula o volume é invertido. Isto é, movendo-o em sentido horário o volume desce e, movendo-o em sentido anti-horário, sobe. Embora sem conhecimento de uma hipotética lei que regeria o comportamento de nossa rádio, depois de um pouco de prática, reconheceríamos sem problemas que há uma relação causal entre o movimento do potenciômetro e as oscilações do volume. Mas como se justifica tal conhecimento se, de fato, não deriva do conhecimento prévio de uma regularidade nomológica? A resposta de Caponi é que ele é determinado pelo fato mesmo de estarmos “em condições de controlar o estado de uma variável X em virtude de nossa manipulação de outra variável Y” (p. 80). Mais especificamente, embora não saibamos explicar por que a rádio se comporta assim, “temos ao menos o começo de uma explicação quando identificamos fatores ou condições cuja manipulação ou mudança produzirá mudanças no resultado que está sendo explicado” (Woodward, 2003, p. 10).
O funcionamento da rádio calchaquí exibe o que Woodward chama uma “invariância”, isto é, uma regularidade local que, embora sem possuir a universalidade própria de uma lei causal (já que, bem ao contrário, é válida até onde sabemos para um só caso), é suficientemente sólida para suportar condicionais contrafactuais. Woodward (2003, p. 133-45), e com ele Caponi (embora não explicitamente), seguem David Lewis (1993 [1973]) na ideia de que é a capacidade de suportar contrafactuais – e não sua nomicidade, a qual seria, eventualmente, uma consequência de tal capacidade – que revela o conteúdo causal de um enunciado. Porém, em lugar de fundar, como Lewis, essa capacidade em uma particular ontologia dos mundos possíveis, Woodward e Caponi identificam essa capacidade – mais prosaicamente, mas também mais eficazmente – com a propriedade, característica de uma invariante, de manter-se estável em certa quantidade de intervenções.1 No nosso exemplo, observando que a oscilação do volume depende da manipulação do potenciômetro, estamos na posição de estabelecer o valor de verdade de séries de contrafactuais e, consequentemente, certificar a relação causal entre os dois fenômenos. Na medida em que uma invariância suporta um maior número de intervenções, ela é mais abrangente e pode ser considerada, eventualmente, uma lei causal. Todavia, o ponto importante para manter em vista é que “Woodward (…) conseguiu colocar em evidência que a efetividade do vínculo causal estabelecido por um invariante não é diretamente proporcional a sua universalidade, mas a sua estabilidade sob intervenções, ainda quando esta última se cumpra apenas dentro de uma esfera muito restrita” (p. 99), a saber, que o caráter nomológico derive da possibilidade de individuar relações causais e não vice-versa.
2 A EXPLICAÇÃO BIOLÓGICA EM UM MUNDO FÍSICO
Até aqui tudo bem. Mas como a concepção experimental nos ajuda, exatamente, a explicitar, na explicação biológica, aquelas relações causais que ficavam ocultas em suas leis consequenciais? Quando se trata de processos evolutivos não possuímos, na maioria dos casos, a mesma capacidade material de manipular variáveis como no caso de nossa velha rádio calchaquí. Podemos, porém, figurar-nos intervenções hipotéticas a partir de outras factualmente possíveis. Não entraremos aqui nos detalhes sobre este ponto mas, com relação a isso, é interessante lembrar que, na formulação de sua teoria, Darwin inspirou-se – entre outras coisas – na seleção artificial dos pombos domésticos, isto é, uma atividade propriamente manipulativa, extrapolando depois as características fundamentais de tal processo a um outro apenas hipoteticamente manipulável, a seleção natural (cf. p. 83-5). Dada essa possível extensão da noção de manipulabilidade, Caponi propõe considerar, no terceiro capítulo de seu livro, as distintas pressões seletivas, tão diferentes entre si – devido às potencialmente infinitas circunstâncias morfológicas, fisiológicas e comportamentais que jogam um papel na evolução de uma determinada população – como invariantes particulares.
Mais uma vez, Caponi (p. 106 ss.) esclarece sua estratégia com um exemplo. Uma das mais conhecidas ilustrações da ação da seleção natural é, sem dúvida, o fenômeno do melanismo industrial em Biston betularia. Devido a certas características ecológicas – a presença de aves predadoras e a coloração das superfícies de pouso, constituídas por árvores obscurecidas pela ação poluente do fumo das fábricas da região –, nas populações dessa espécie de mariposa onde estão presentes uma variante mais clara e outra mais escura, a variante com a coloração mais escura tende a um maior sucesso reprodutivo. A frequência dos fenótipos, nessas populações, corresponde àquela prevista por (1). Não há, todavia, uma lei causal – universal – que explique por que, nessas populações, acontece essa distribuição. Significa isso que não podemos explicar causalmente o fenômeno? Tal conclusão seria completamente insatisfatória, se levássemos em conta que, do ponto de vista de um biólogo evolutivo, é justamente esse tipo de explicação aquela desejada em casos análogos a esse.
Afortunadamente, alinhados com a análise realizada anteriormente, não precisamos de uma lei causal para obter tal explicação. No caso do melanismo industrial, a relação entre a coloração das mariposas e das superfícies de pouso é estável sob várias intervenções. Isto é, manipulando experimentalmente o segundo fator – obrigando, por exemplo, as fábricas a usar filtros que reduzam a poluição –, é possível controlar o primeiro – a cor das mariposas. Por meio de tal manipulação podemos, em última instância, determinar o fenótipo que será mais adaptativo intervindo em sua ecologia. Estamos, em outras palavras, em presença do que Caponi chama de um “invariante seletivo” da forma.
Se, em populações de insetos de ecologia análoga a essas de Biston betularia, nas quais aconteceu o melanismo industrial, ocorrem colorações alternativas tais que uma seja mais contrastante com as superfícies de pouso que as outras, então, nessas populações, as colorações menos contrastantes serão as ecologicamente mais aptas (p. 116).
Tal invariante admite, como é fácil ver, um sem fim de exceções, já que é virtualmente impossível estabelecer todos os fatores ecologicamente relevante em um caso concreto, mas é suficientemente sólido para servir de base a uma série de contrafactuais. E isso é tudo o que ele tem que fazer. Conforme o enfoque experimental, onde há invariância, há apoio de contrafactuais; onde há apoio de contrafactuais, há relação causal; e onde há relação causal, é possível, ao menos em princípio, fornecer uma explicação causal.
A biologia (em particular a biologia evolutiva – que foi a única a ser tratada explicitamente nesta resenha –, mas não somente) constitui-se, explicativamente, sobre um “mosaico de invariantes” – cito Caponi por inteiro – “sempre locais e caducáveis, que, como a mortalha tecida e destecida por Penélope, está em permanente estado de reconfiguração” (p. 120). Nisso, a biologia distingue-se da física. Embora ambas possuam leis consequenciais as quais proporcionam uma unidade teórica bem característica, apenas a física pode contar com leis causais universais. A biologia – ainda que, como vimos, existam exceções como a lei de Fisher – produz explicações causais a partir de invariantes locais e mutáveis.
A imagem do mosaico não satisfaria aquele que, como o próprio Hempel, considera que, em última instância, deve existir uma base causal subjacente, comum a todas as ciências, com uma forma nomológica: uma estrutura oculta de leis eternas e imutáveis (cf. Woodward, 2003, p. 159 ss.). De acordo com essa perspectiva, as ciências como a biologia estariam em um constante estado de heteronomia nomológica, isto é, forneceriam explicações apoiando-se em leis do domínio da física ou da química.
Para elucidar a relação entre propriedades biológicas e mundo físico – e assim reafirmar a autonomia da explicação biológica –, Caponi defende, no último capítulo de seu livro, uma versão clássica de fisicalismo (cf. Stoljar, 2015), que combina superveniência com múltipla possibilidade de realização. Nessa perspectiva, uma propriedade não física é necessariamente instanciada por uma propriedade física, mas não necessariamente pela mesma propriedade física em todas suas instâncias. Isso implica, diz Caponi, seguindo Sober (2010, p. 226), que “não pode haver diferença biológica sem diferença física, mas pode sim haver semelhança biológica sem semelhança física” (p. 151 ss.).
A originalidade de Caponi é que, em lugar de simplesmente contentar-se com essa posição de compromisso entre reducionismo e autonomia explicativa, articula um critério que pode ajudar-nos a entender, em domínios específicos da biologia, quais são os fenômenos que podem ser proveitosamente explicados em termos físico-químicos e quais, ao contrário, deveriam manter a própria autonomia. Tal critério depende da noção de “grau de superveniência” (p. 154 ss.): “dados dois sistemas ou objetos, quanto menos delimitado ou especificado esteja o conjunto de predicados físicos dos quais depende a correta atribuição, a ambos, de um predicado biológico, mais superveniente será esse predicado” (p. 159). Um predicado concernente à atribuição de um determinado traço anatômico-funcional em fisiologia, embora seja multiplamente realizável, está especificado por um conjunto menor de predicados físicos do que um predicado concernente à atribuição genérica de um traço adaptativo em ecologia evolucionária. Isto é, há menos maneiras de realizar fisicamente, por exemplo, um olho, do que uma complexa propriedade ecológica. Segundo Caponi, embora ambas as propriedades sejam dependentes de uma base física, é mais promissor procurar explicações reducionistas no primeiro caso do que no segundo.
Quanto maior é o grau de superveniência das propriedades estudadas, mais liberdade temos para não nos comprometer em tentativas de explicar os fenômenos a elas associadas que obedeçam a uma perspectiva reducionista, e mais incertos são os lucros cognitivos desse compromisso (p. 160).
Esse enfoque não viola, em nenhum caso, a clausura causal da física (cf. p. 162 ss.), já que não nega que exista uma ontologia básica fisicalista, mas coloca em dúvida que usar os óculos das ciências mais básicas seja sempre a melhor maneira para entender os fenômenos naturais.
3 FINAS MANIPULAÇÕES E MARTELADAS
As vantagens do enfoque experimental sobre o hempeliano, e qualquer outro modelo nomológico (cf. Woodward, 2003, cap. 4), são demasiado importantes para que possam ser ignoradas por qualquer filósofo da ciência. Parafraseando Caponi (p. 161), o qual, por sua vez, inspira-se em Suppe, ele tem todas as vantagens das finas manipulações no software sobre as “marteladas” no hardware. Dentre os que estão atualmente disponíveis, nenhum outro modelo, além do modelo de Woodward é, em minha opinião, capaz de oferecer uma análise epistemológica da causalidade e da explicação causal tão acurada. Ele oferece a possibilidade de levar a análise da explicação científica a um grau de detalhe impensável para o modelo hempeliano, o qual, por suas ambições de universalidade, mal se adapta às exigências das ciências especiais. O grande mérito de Caponi é de ter sido capaz de derivar, esclarecer, organizar e desenvolver todas as principais consequências do modelo de Woodward de uma maneira accessível e “pronta para o uso” dos filósofos da biologia de fala espanhola e portuguesa. Seu livro é rico de estímulos e, com certeza, será o ponto de partida de muitos debates futuros.
Notas
1 De Lewis, é importante lembrá-lo, Woodward e Caponi distanciam-se também pelo caráter não redutivo da análise da noção de causa. Isto é, Woodward e Caponi não pretendem definir o conceito de causa a partir do conceito, supostamente mais elementar e primitivo, de manipulação, mas apenas mostrar como este último, que é também essencialmente causal, é elucidativo com respeito a certas relações causais concretas.
Referências
BEATTY, J. The evolutionary contingency thesis. In: Lennox, J. & Wolters, G. (Ed.). Concepts, theories and rationality in the biological sciences. Pittsburgh: University of Pittsburgh Press, 1995. p. 45-81.
BEDEAU, M. & Cleland, C. (Ed.). The nature of life. Cambridge: Cambridge University Press, 2010.
BRANDON, R. N. Adaptation and environment. Princeton: Princeton Legacy Library, 1990.
CAPONI, G. Leyes sin causas y causas sin ley en la explicación biológica. Bogotá: Universidad Nacional de Colombia, 2014.
GASKING, D. Causation and recipes. Mind, 64, p. 479-87, 1955.
HEMPEL, C. G. Aspects of scientific explanation and other essays in the philosophy of science. New York: Free Press, 1965.
LENNOX, J. & Wolters, G. (Ed.). Concepts, theories and rationality in the biological sciences. Pittsburgh: University of Pittsburgh Press, 1995.
LEWIS, D. K. Causation. In: Sosa, E. & Tooley, M. (Ed.). Causation. Oxford: Oxford University Press, 1993 [1973]. p. 193-204.
SALMON, W. Four decades of scientific explanation. Pittsburgh: University of Pittsburgh Press, 1989.
_____. Causality and explanation. Oxford: Oxford University Press, 1997.
SMART, J. J. Philosophy and scientific realism. New York: Routledge, 1963.
SOBER, E. The nature of selection. Chicago: Chicago University Press, 1984.
_____. Learning from funcionalism: prospect for strong artificial life. In: Bedeau, M. & Cleland, C. (Ed.). The nature of life. Cambridge: Cambridge University Press, 2010. p. 225-35.
SOSA, E. & Tooley, M. (Ed.). Causation. Oxford: Oxford University Press, 1993.
STOLJAR, D. Physicalism. In: Zalta, E. N. (Ed.). The Stanford encyclopedia of philosophy, 2015. Disponível em: <http://plato.stanford.edu/archives/spr2015/ entries/physicalism/>. Acesso em: 22 maio 2015.
Von Wright, G. Explanation and understanding. Ithaca, NY: Cornell University Press, 1971.
WOODWARD, J. Making things happen. A theory of causal explanation. Oxford: Oxford University Press, 2003.
Lorenzo Baravalle – Centro de Ciências Humanas e Naturais. Universidade Federal do ABC, Santo André, Brasil. E-mail: lorenzo_baravalle@yahoo.it
[DR]
El Jano de la morfología: de la homología a homoplasia, historia, debates y evolución – OCHOA; BARAHONA (SS)
OCHOA, Carlos; BARAHONA, Ana. El Jano de la morfología: de la homología a homoplasia, historia, debates y evolución. Ciudad de México: Centro de Estudios Filosóficos, Políticos y Sociales Vicente Lombardo Toledano/ Universidad Nacional Autónoma de Mexico, 2014. Resenha de: FARIA, Felipe. As duas faces da morfologia: funcionalismo e formalismo. Scientiæ Studia, São Paulo, v.13, n. 3, p. 679-84, 2015.
O tema da evolução biológica tem amplo impacto no pensamento humano e científico nos séculos XIX e XX e ainda nos dias atuais apresenta reflexos no desenvolvimento do conhecimento produzido pelas diversas áreas das ciências da vida. Ele é o unificador de uma ampla rede de explicações biológicas que relacionam o trabalho de áreas da biologia que a primeira vista podem parecer que pouco tem a ver entre si em um marco explicativo singular. Podemos entender o fenômeno evolutivo sob o enfoque de três perspectivas diferentes: como uma via, como um mecanismo ou como causa. Obviamente, tais enfoques suscitaram e ainda suscitam discussões dentro de vários campos da biologia, como a anatomia, a fisiologia e a morfologia comparadas. Conceitos fundamentais dessas áreas da biologia comparada, tais como, por exemplo, homologia, analogia, homoplasia, paralelismo e convergência, receberam vários enfoques e sofreram modificações ao longo do tempo, na busca de enquadrá-los nas teorias evolutivas surgidas a partir do século XIX.
Tratando destas questões Carlos Ochoa e Ana Barahona escreveram o livro El Jano de la morfología: de la homología a homoplasia, historia, debates y evolución. O título faz uma referência ao deus romano Jano, que na mitologia representa as portas, os começos e os finais, uma vez que, com seus dois rostos pode olhar ao mesmo tempo o início e o fim das coisas. Por sua vez, o Jano da morfologia é uma analogia às oposições de sentido de conceitos fundamentais relacionados aos estudos dessa ciência, muitas vezes encontradas nas discussões ocorridas ao longo do tempo. Uma dessas discussões refere-se à oposição entre o enfoque funcional, que serve de base aos estudos fisiológicos e adaptativos do corpo orgânico como sendo um sistema complexo de regulação, e o enfoque formalista que se centra no descobrimento de planos fundamentais e causalidades internas do organismo, as quais são independentes de sua função. O Jano da morfologia tem um rosto voltado para o enfoque funcional e o outro voltado para o enfoque formalista.
Na introdução do livro, os autores apresentam sua argumentação em defesa da importância do ensino da ciência e de sua história, tomando como referência o desenvolvimento do pensamento evolucionista. Segundo eles, se queremos ter uma melhor compreensão da maneira como o conhecimento científico é produzido, como os critérios de cientificidade são estabelecidos, como as metodologias são validadas e que evidências podem ser consideradas confiáveis, tanto no passado como no presente, devemos dar especial atenção aos momentos de conflito intelectual, como, por exemplo, aos debates analisados. Os estudos das controvérsias científicas são importantes porque produzem informação fundamental para a compreensão dos processos envolvidos na construção e consolidação das disciplinas científicas, uma vez que é nos momentos de conflito intelectual que se tornam evidentes os aspectos mais importantes desses processos. Nesse sentido, os autores propõem-se a analisar os debates sobre as concepções de forma e função, que ocorreram dentro do âmbito da anatomia comparada, desde os tempos da biologia pré-evolutiva até os dias atuais.
E é o que fazem, já no segundo capítulo do livro ao discutir as diferenças sobre a concepção funcionalista de Georges Cuvier (1769-1832) e concepção formalista de Étienne Geoffroy Saint-Hillaire (1772-1844). Os dois naturalistas do Museu Nacional de História Natural de Paris enfrentaram-se em uma polêmica referente a suas concepções de analogia: o principal ponto de divergência entre suas concepções funcionalistas e formalistas. Esse é o momento histórico no qual um dos grandes objetivos da história natural era a elaboração de um sistema de classificação natural, baseado na busca de leis ocultas na forma dos organismos, as quais refletiriam a maneira na qual haviam sido construídos. Para o funcionalismo de Cuvier, o termo “analogia” referia-se às relações de funcionalidade, ou seja, à necessidade funcional, na qual se baseavam os princípios da anatomia comparada, e que seria a fonte geradora das semelhanças. Por sua vez, para Geoffroy, a analogia estaria baseada nas relações de correspondência estrutural entre distintos organismos, a qual seguia um sistema em comum, ou unidade de tipo, ou seja, ao comparar as estruturas animais, poder-se-ia pensar que elas são as mesmas porque foram construídas com o mesmo material orgânico. Denominada de “polêmica dos análogos” o debate entre Cuvier e Geoffroy foi um conflito entre noções teóricas incompatíveis em que cada um dos naturalistas dava explicações diferentes a respeito da origem da forma animal.
No terceiro capítulo, os autores analisam a alteração que os conceitos de analogia e de homologia sofreram no momento em que se instaurou o evolucionismo como orientação teórica da história natural, estabelecendo a ideia de ancestralidade como fator componente de tais conceitos. Tendo Charles Darwin (1809-1882) e Richard Owen (1804-1892) como nomes centrais dos debates que se seguiram após o estabelecimento da ancestralidade, os autores de El Jano de la morfología apresentam as diferentes concepções de evolução biológica desses dois naturalistas ingleses, as quais resultaram em grandes diferenças nas definições dos termos “analogia” e “homologia”.
Essas diferenças ocorreram em virtude de Owen, apesar de defender a ideia de evolução biológica, ser um anatomista da velha escola, que interpretava a estrutura orgânica mediante o argumento da criação, e de Darwin ser um defensor da seleção natural que, com seu elemento variacional fortuito, seria a responsável pela origem da estrutura orgânica. Para Owen, a homologia referia-se ao mesmo órgão, ou parte, que, encontrado em diferentes animais, poderia variar em sua forma e função. É o que poderia ocorrer nas variações de seu “arquétipo ideal dos vertebrados”, uma forma basal idealizada, na qual todos os planos de organização corporal dos vertebrados eram uma variação e que funcionava como uma unidade de tipo. Assim, a analogia, para Owen, referia-se a uma parte ou órgão de um animal, que tem a mesma função de outra parte ou órgão em um animal diferente. Para Darwin, que defendia que a unidade de tipo era originada pela descendência comum, a homologia indicava um órgão, ou parte, em diferentes animais, que compartilhavam uma mesma origem evolutiva. Tais órgãos ou partes, submetidos às condições de existência ocorridas durante cada um de seus processos evolutivos, acabavam por modificar-se para executar funções diferentes. As analogias, para ele, referiam-se às semelhanças estruturais que dependiam da semelhança funcional. Em suma, Darwin desenvolveu uma teoria funcionalista e interpretou os conceitos básicos do formalismo no interior dessa perspectiva funcional.
No quarto capítulo, são introduzidos os termos “homoplasia” e “homogenia”, formulados por Edward Lankester (1847-1929) que procura sintetizar a visão evolucionista com a perspectiva da velha escola da morfologia. De acordo com Lankester, o termo homologia continha elementos do formalismo defendido por Owen, como a unidade de tipo, que ainda prevaleciam na linguagem dos evolucionistas. Como solução ele propôs o termo “homogenia” para referir-se àquelas estruturas que possuem uma continuidade por ascendência comum. Propôs também, o termo “homoplasia” para indicar aquelas estruturas que não surgem por essa continuidade hereditária, mas sim pela ação modeladora do ambiente. Como decorrência dessas propostas, os conceitos elaborados por Lankester promoveriam a origem dos modernos conceitos de paralelismo e convergência, os quais se desenvolveram dentro do debate do formalismo versus funcionalismo.
O quinto capítulo é iniciado com a definição usual do termo “paralelismo”, relacionando esse conceito com a sua utilização para representar a evolução independente de estruturas similares em linhagens com parentesco próximo, enquanto que o termo “convergência” é utilizado para indicar a evolução independente de estruturas similares em linhagens com parentesco distante. A partir de então, o capítulo trata da origem do termo paralelismo, estabelecendo uma relação deste com a teoria da ortogênese e suas articulações propostas por Henry Osborn (1857-1935) e William Scott (1858-1947), segundo as quais os caracteres surgiriam em direções definidas e sem nenhum valor adaptativo. O livro analisa essa teoria mostrando que a ortogênese pode ser vista como um fenômeno de constrição no qual a estrutura se limita ou se canaliza em apenas poucas rotas de transformação, e é assim que os organismos com parentesco próximo produziriam os mesmos caracteres, mesmo que evoluindo independentemente. Osborn reconheceu a constrição como um fenômeno ocorrente, porque a evidência fóssil mostrava isso e indicava linhas estabelecidas em uma só direção. Scott, por outro lado, mencionou que as estruturas permaneciam estáticas e que a ortogênese deveria explicar a limitação das formas mais do que preocupar-se com a variação.
Como conclusão do quinto capítulo, os autores defendem que os termos “homoplasia”, “paralelismo” e “convergência” desenvolveram-se a partir de teorias evolutivas que concorriam para alcançar aceitação entre a comunidade científica com relação à explicação do fenômeno evolutivo. Assim, as ideias de homoplasia e paralelismo foram descritas com base na teoria ortogenética e a ideia de convergência foi descrita com base na herança dos caracteres adquiridos ou com base na interação de diferentes fatores evolutivos, dos quais a seleção natural resultava ser somente um dentre vários deles. Além disso, como os ortogeneticistas sempre tiveram interesse nos assuntos relacionados aos fatores internos e nas limitações estruturais, Scott acabaria por mencionar que as estruturas prevaleciam estáticas e que sua direção evolutiva encontrava-se restringida. Por outro lado, Osborn argumentou que os fatores externos somente trabalhavam para a acomodação das proporções, mas nunca na origem de novas estruturas. Ambos, por meio de suas definições, proporcionaram as bases epistemológicas para o desenvolvimento do conceito moderno de paralelismo. Para tanto, desenvolveram inúmeros trabalhos na área da paleontologia a qual consideraram como uma disciplina autônoma e fundamental que trazia respostas a grandes questões da teoria da evolução.
No penúltimo capítulo, são discutidas as ideias de Arthur Willey (1867-1942) com relação aos conceitos de homoplasia, paralelismo e convergência. Para ele o conceito de convergência tinha um significado mais geral, que explicaria todos os casos da evolução independente e cujas causas seriam relacionadas aos efeitos da seleção natural. Ainda que Willey estivesse seguro de que o meio externo era o responsável pela convergência, ele afirmava que grande parte da convergência era devida a causas internas, no sentido fisiológico funcional. Consequentemente, propôs que muitas das estruturas que consideramos homologias poderiam ser tomadas como convergências. Ele ainda definiu a homoplasia como sendo estruturas semelhantes que se originaram por meio da seleção natural a partir de órgãos homólogos. O capítulo é encerrado com a observação de que o termo paralelismo, surgido das teorias ortogenéticas, adquiriu um novo significado, sendo tomado como um tipo de convergência na qual se descrevia que duas linhagens evoluiriam paralelamente desenvolvendo semelhanças estruturais.
No capítulo final são apresentadas as principais discussões do passado recente e da atualidade, que envolvem, por um lado, o termo “homologia” e, por outro lado, os termos “homoplasia”, “paralelismo” e “convergência”. Sobre a homologia é possível ver que as principais discussões desenvolveram-se a partir da definição clássica, na qual estão implicados os conceitos de semelhança e ancestralidade comum. Isso gerou um debate entre morfologistas e sistematas filogenéticos, desde meados do século XIX, quando o fator evolutivo adentrou as discussões. No debate atual sobre o conceito de homologia, o paralelismo e a convergência foram incluídos no conceito único de homoplasia e, consequentemente, iniciou-se uma disputa contemporânea sobre a distinção entre esses conceitos, a qual poderá ser solucionada mediante os avanços da biologia do desenvolvimento. Assim atualmente, é possível definir a homoplasia como sendo as semelhanças da forma e da função, que surgem independentemente em duas ou mais linhagens durante o curso da evolução. E paralelismo pode ser definido como a semelhança que surge de maneira independente, em linhagens com parentesco muito próximo, em virtude da adaptação por meio da seleção natural.
Enfim, no livro El Jano de la morfologia, os autores mostram a importância dos debates científicos em um contexto de estudos históricos e filosóficos. A história e a filosofia da ciência são instrumentos úteis para entender as teorias do passado, do modo como foram formuladas e as circunstâncias nas quais se desenvolveram. Nos temas abordados neste livro, a história dos conceitos de homologia, analogia, homoplasia, paralelismo e convergência ajuda-nos a entender a problemática atual dos estudos da sistemática filogenética. E, para tanto, o livro conta com um texto eloquente e agradável, além de fornecer um glossário abrangente, assim como notas e tabelas úteis que comparam as ideias, os conceitos e as teorias envolvidos nas discussões ocorrentes até a atualidade. Como dizem os próprios autores: “hoje as duas caras do Jano da morfologia continuam olhando até pontos contrários de interpretação, mas não devemos desistir de guiá-las até um ponto de unificação” (p. 241). E o livro de Ochoa e Barahona é uma excelente iniciativa nesse sentido.
Referência
OCHOA, C. & BARAHONA, A. El Jano de la morfología: de la homología a homoplasia, historia, debates y evolucíon. México: Centro de Estudios Filosóficos, Políticos y Sociales Vicente Lombardo Toledano/Universidad Nacional Autónoma de México, 2014.
Felipe Faria – Departamento de Filosofia. Universidade Federal de Santa Catarina, Florianópolis, Brasil. E-mail: felipeafaria@gmail.com
[DR]
Merchants of doubt. How a handful of scientists obscured the truth on issues from tobacco smoke to global warming – ORESKES (SS)
ORESKES, Naomi; CONWAY, Eric M. Merchants of doubt. How a handful of scientists obscured the truth on issues from tobacco smoke to global warming. New York: Bloomsbury, 2010. Resenha de: LEITE, José Correa. Controvérsias científicas ou negação da ciência? A agnotologia e a ciência do clima. Scientiæ Studia, São Paulo, v.12, n. 1, p. 179-89, 2014.
Na medida em que se torna determinante da dinâmica da economia e da política, a tecnociência passa a mediar as definições e as tomadas de decisão sobre um número crescente de questões. Ela se torna um campo de batalha de interesses contraditórios, onde o avanço do conhecimento científico amiúde questiona diretamente os poderes estabelecidos. Como a ciência fornece as bases para os discursos mais legítimos da sociedade, aqueles que são questionados por ela têm que reagir contrapondo argumentos e teorias supostamente científicos, mesmo quando não o sejam. O caso da relação entre o hábito de fumar e o aumento da incidência de câncer é o exemplo clássico, mas a indução da ignorância ou da dúvida sobre temas onde já existe um consenso científico tornouse uma prática comum na sociedade atual. A leitura de Mooney (2005) e Michaels (2008) permite pôr em discussão dezenas de tópicos de conflito nas mais variadas áreas. Assim, as controvérsias escalam até ganharem a conotação de uma verdadeira guerra cultural no caso da emissão dos gases de efeito estufa, os quais, segundo indicação da própria ciência, produzem o aquecimento global (impacto negado ou questionado pelas indústrias de combustível fóssil e de geração de energia em termoelétricas).
Robert Proctor, historiador da ciência da Universidade de Stanford, cunhou um termo para designar o estudo da negação da ciência com vistas a produzir a dúvida ou a ignorância – em oposição ao estudo do conhecimento pela epistemologia –, a saber, agnotology, que podemos traduzir por agnotologia (do grego agnosis, não conhecimento). O propósito da agnotologia seria “promover o estudo da ignorância, desenvolvendo ferramentas para compreender como e porque várias formas de conhecimento não ‘emergiram’, ou desapareceram, ou foram retardadas ou negligenciadas por longo tempo, para melhor ou para pior, em vários pontos da história” (Proctor & Schiebinger, 2008, p. vii). Leia Mais
Função e desenho na biologia contemporânea – CAPONI (SS)
CAPONI, Gustavo. Função e desenho na biologia contemporânea. São Paulo: Editora 34/Associação Filosófica Scientiae Studia, 2012. Resenha de: BRZOZOWSKI, Jerzy. Quando não ser pluralista é bom. Scientiæ Studia, São Paulo, v.12, n. 1, p. 169-78, 2014.
Longe de constituir um obstáculo epistemológico bachelardiano (cf. Bachelard, 1996 [1938]), o conceito de “função” é partícipe indissociável dos modos pelos quais a biologia contemporânea conhece os organismos e suas partes. A despeito disso, a elucidação filosófica desse conceito tem estado cercada por uma “confusa e emaranhada polêmica” (p. 13) entre a concepção sistêmica e a concepção etiológica de função, polêmica essa que o livro de Gustavo Caponi, Função e desenho na biologia contemporânea, pretende desenredar. A nosso ver, a beleza da solução apresentada por Caponi reside no fato de ela não cair em uma – nas palavras dele – “previsível saída pluralista” (p. 14) como tantas outras que estão em voga na filosofia da biologia.
A solução de Caponi também é atípica no sentido de que toma como mais fundamental uma concepção não hegemônica de função associada à sistêmica: a concepção consequencial. Porém, para entender esses detalhes, já se torna necessário incorrermos em uma apresentação mais pormenorizada das duas posições e do caminho argumentativo realizado por Caponi.
O livro é dividido em quatro capítulos, sendo que o primeiro deles busca caracterizar e imediatamente impugnar a concepção etiológica. Tal concepção remonta à análise do conceito de função proposta por Larry Wright em 1973. De acordo com essa concepção, dizer “a função de x (no processo z) é y” supõe que (1) x produz ou causa y e (2) x está ali (em z) pelo próprio fato de produzir ou causar y (p. 24). Essa visão é dita etiológica porque, nesse esquema, a função (y) de uma característica ou parte (x) de um processo (z) explica a origem e a presença dessa característica nesse processo. Para citar o exemplo mais célebre encontrado nos debates sobre função, do ponto de vista etiológico, dizer “a função do coração é bombear o sangue” significa dizer que o coração é parte do sistema circulatório porque bombeia o sangue.
Por sua vez, a concepção processual ou sistêmica tem origem em um artigo de 1975 de Robert Cummins. Para ele, a exigência de que a caracterização funcional de uma parte ou característica tenha de explicar a presença dessa parte ou característica é injustificada e até mesmo prejudicial. Por isso, a análise proposta por Cummins para o conceito de função é de certo modo agnóstica no que diz respeito à origem do objeto da caracterização funcional. Sob a análise de Cummins, dizer “a função de x (no processo z) é y” significa dizer que (1) x produz y e (2) y tem um papel causal na ocorrência, operação ou funcionamento de z (p. 38). Enquadrando o exemplo do coração nesse esquema, dizer “a função do coração (no sistema circulatório) é bombear o sangue” nada mais significa do que dizer que (1) o coração bombeia o sangue e (2) a circulação sanguínea tem um papel causal no funcionamento do sistema circulatório. À diferença da concepção etiológica, a análise processual não arrisca nenhuma conjectura sobre a história do surgimento do coração.
Para os defensores da concepção etiológica, uma consequência disso é que a concepção processual não é capaz de diferenciar a função própria da função acidental, isto é, essa concepção não tem força normativa. Para usar um exemplo de Caponi (p. 24), o cano superior (que une o guidão ao selim) de uma bicicleta pode ser usado para levar um passageiro extra. O problema, para o defensor da etiologia, é que se pode aplicar a análise processual nesse caso – sendo z o processo “transporte de um passageiro extra na bicicleta” –, ainda que essa parte da bicicleta não tenha sido projetada com esse fim. Suportar um passageiro extra, diriam os defensores da etiologia, é uma função acidental, e não a função própria do cano superior.
Desse modo, conforme salienta Caponi, inspirado em Margarita Ponce (1987),1 a concepção processual reduz o conceito de “função” à ideia de ter um papel causal em um processo. Diante disso, a principal objeção que o defensor da etiologia poderia levantar é se a perda da capacidade de distinguir a função própria da função acidental não é um preço alto demais a pagar pela adoção do conceito processual. A resposta de Caponi a essa pergunta é um “não” qualificado: não somente o preço não é alto demais, como a noção de processo causal é anterior à própria distinção entre função própria e função acidental.
É hora de nos voltarmos sobre os detalhes dessa discussão no contexto específico das atribuições funcionais em biologia. Nesse contexto, a abordagem etiológica de Wright foi reformulada por Karen Neander (1991), Ruth Millikan (1989) e Sandra Mitchell (1995). Resumidamente, a versão biológica do esquema de Wright seria assim: dizer “a função de x (no processo z) é y” implica que “(1) x produz ou causa y e (2) x está ali (em z) porque a seleção natural premiou a realização de y nas formas ancestrais de z” (p. 25).
Caponi vê duas principais dificuldades com essa abordagem. A primeira delas é o fato de que estruturas não selecionadas podem vir a tornar-se funcionais; a segunda é o fato de que as imputações funcionais podem ser feitas independentemente da postulação de histórias adaptativas. No primeiro caso, Caponi cita o exemplo já bastante conhecido do clitóris hipertrofiado das fêmeas de hiena pintada (Crocuta crocuta) (cf. Gould & Vrba, 1982). Embora essa estrutura tenha uma importante função na chamada “cerimônia do encontro”, um ritual social praticado por esses animais, a hipótese mais plausível é que o órgão não deve sua atual configuração a um processo de seleção. O clitóris hipertrofiado das hienas é, com maior probabilidade, um subproduto da alta taxa de hormônios andrógenos secretados por esses animais. Por sua vez, a secreção de andrógenos constituiria, agora sim, uma adaptação relacionada aos comportamentos de agressividade e dominância das fêmeas dessa espécie (cf. Gould & Vrba, 1982).
Em relação à segunda dificuldade, Caponi utiliza um argumento histórico. Fazendo referência à distinção entre a biologia funcional e a biologia evolutiva proposta por Ernst Mayr (1998 [1982]), Caponi nota que o desenvolvimento da fisiologia, que é um ramo da biologia funcional, foi tanto independente quanto anterior ao desenvolvimento da biologia evolutiva (cf. Caponi, 2001). Isso não impediu que fisiologistas préevolucionistas, como William Harvey, fizessem atribuições funcionais. Aliás, conforme salienta Caponi, pode-se dizer que o principal imperativo metodológico do biólogo funcional – desde Harvey, mas melhor evidenciado em Claude Bernard – é algo como se segue: “para todo processo ou estrutura normalmente presente em um ser vivo, devese mostrar qual é o papel causal que este ou esta cumpre, ou tem, no funcionamento total do organismo” (p. 31).
Desse modo, o ponto central da impugnação da concepção etiológica feita por Caponi é o seguinte: a leitura etiológica exige que as atribuições funcionais dependam de explicações selecionistas; ademais, essas explicações só podem ser fornecidas depois que as imputações funcionais (no sentido próximo ao processual) já tiverem sido feitas (p. 34).
Faz-se necessária, portanto, uma concepção de “função biológica” que seja independente de explicações selecionistas, e que com isso seja capaz de distinguir entre as funções e as adaptações (conceitos que são confundidos pela concepção etiológica). A tarefa de diferenciar entre a função própria e a função acidental, conforme argumenta Caponi, não é uma atribuição do conceito de “função”, mas sim das explicações selecionistas (p. 37). Ainda assim, a concepção de função biológica que Caponi propõe como alternativa à etiológica tem um caráter fracamente normativo que permite comparar graus de eficácia do desempenho das funções e que, por isso, torna-se uma condição de possibilidade das explicações selecionais (p. 38). É sobre essas linhas que Caponi encaminha sua discussão no capítulo 2.
Para desenvolver seu conceito de “função biológica”, Caponi recorre à ideia de metas sistêmicas intrínsecas. Pode-se dizer que alguns sistemas estão orientados por metas codificadas em seu próprio desenho. Esse é o caso de termostatos e mísseis teleguiados, mas Caponi fornece um exemplo mais simples. Pensemos nas cisternas que mantêm o nível de água constante por meio da operação conjunta de uma boia e uma válvula que regula a entrada de água. O nível de água para o qual o sistema está regulado é uma espécie de meta intrínseca dele. De modo análogo, “a meta inerente, intrínseca e definidora de todo organismo é estabelecer e preservar sua autonomia organizacional perante as contingências e perturbações do entorno” (p. 46). Caponi traduz esse processo em termos de três outros conceitos clássicos: “autopoiese”, “autorreprodução” e “ciclo vital”. Podemos reunir os três em um único conceito de “função biológica”, de modo que, ao dizer “a função biológica de x é y”, supomos que (p. 46-7): (1) x faz parte do sistema autopoiético/sistema autorreprodutivo/ciclo vital z; (2) x produz ou causa y; (3) y tem um papel causal em z, ou é uma resposta a uma perturbação sofrida por z.
Para Caponi, essa formulação é suficientemente geral para incorporar as duas principais concepções de função biológica que, seguindo Garson (2008), poderíamos chamar de “consequenciais”.2 As concepções consequenciais são aquelas que associam a função de uma entidade à consequência ou efeito que essa entidade produz em um sistema do qual faz parte (cf. Garson, 2008, p. 527), sem entrar na discussão sobre a origem da entidade em questão. As duas teorias consequenciais que a definição de Caponi consegue abarcar são (utilizando a tradução proposta por ele próprio) as “teorias de efeito benéfico” (good-contribution theories) e as “darwinianas” (fitness contribution theories).
As concepções de efeito benéfico são aquelas que fazem referência à contribuição que determinada parte de um ser vivo tem para a realização de seu ciclo vital (o exemplo do coração pode ser caracterizado nesses termos). Por outro lado, algumas características dos seres vivos podem não contribuir diretamente na realização do ciclo vital, mas sim mediante o aumento da aptidão (fitness) darwiniana desses organismos, de modo que tais características são mais bem compreendidas sob a ótica das teorias consequenciais darwinianas.
É importante perceber que, embora façam referência a processos de seleção natural, as teorias consequenciais darwinianas têm um viés diferente das teorias etiológicas. Na visão consequencial, o aumento da aptidão é um efeito da presença da estrutura em questão; na visão etiológica, é a causa. Além disso, para Caponi, a concepção consequencial darwiniana é muito próxima à concepção de função baseada na noção de metas orgânicas intrínsecas: “se por aptidão se entende êxito reprodutivo, teremos que dizer que toda estrutura ou processo orgânico que contribui para a realização do ciclo vital de um ser vivo contribui também para sua fitness” (p. 52).
Em suma, Caponi termina esta primeira metade de seu livro defendendo que sua concepção de função biológica permite abarcar os principais modos de atribuição funcional realizados na biologia. Estão excluídos dessa categoria, conforme já salientado, as explicações selecionistas, pois “explicações selecionistas e análises funcionais são duas operações cognitivas diferentes, que apontam para objetivos cognitivos também diferentes” (p. 60). Porém, essas operações são, de certo modo, complementares; o próximo capítulo do livro explora o modo como essa complementaridade pode ocorrer e extrai dela algumas consequências.
O capítulo 3, “A noção de desenho biológico”, tem dois objetivos relacionados entre si. O primeiro é desemaranhar os conceitos de “parte” e “caráter”, frequentemente confundidos na literatura recente; o segundo é estabelecer a relação entre o conceito de “função” e as explicações selecionistas. Segundo Caponi, a distinção entre parte e caráter é fundamental para que possamos diferenciar as explicações selecionais das atribuições funcionais, essas duas modalidades de cognição que a concepção etiológica havia mesclado.
O ponto da primeira parte do capítulo é que, enquanto partes de organismos podem ser tocadas, dissecadas e, assim, receber atribuições funcionais, o mesmo não pode ser dito sobre os caracteres das linhagens. A distinção é exemplificada por Caponi através da figura do “sovaco da cobra”, na qual a ausência de membros nas cobras é um caráter desse grupo e pode, por exemplo, ser submetido a uma análise filogenética que permita determinar se esse caráter é primitivo ou derivado. Porém, obviamente, a ausência de membros não é uma parte, ou seja, o tipo de coisa que poderia ter um sovaco.
Essa distinção é importante, pois uma explicação selecionista, segundo Caponi, é sempre uma explicação sobre por que um caráter (e não uma parte) apresenta-se no estado derivado e não primitivo em determinada linhagem (p. 72). De acordo com um estudo filogenético recente, a “perda” de membros nos atuais grupos de serpentes é algo que ocorreu cerca de 25 vezes na história evolutiva da ordem Squamata (lagartos e cobras) (Sites, Reeder, & Wiens, 2011). Desse modo, há 25 episódios na história evolutiva dos Squamata em que “ausência” é um estado derivado do caráter “membros”, e cada um desses episódios demanda sua própria explicação selecionista.
Dito isso, Caponi ainda tem de demonstrar que o conceito de “função” participa das explicações selecionistas. A etapa inicial nessa fase da argumentação é definir o conceito de “objeto desenhado”. Caponi apresenta uma definição que pretende contemplar tanto ferramentas quanto seres vivos: “X é um objeto desenhado na medida em que algum de seus perfis seja o resultado de um processo de mudança, pautado por incrementos na eficácia com que as configurações, que exibem esse perfil, cumprem uma função dentro desse objeto” (p. 73). Aqui, “função” deve ser entendida como “papel causal que algo cumpre em um processo”, e “perfil”, no sentido mais amplo e abstrato possível, de modo a aproximar-se do significado de “característica”.
Dois exemplos simples fornecidos por Caponi permitem mostrar que é possível haver funções sem que os objetos que as cumprem tenham sido desenhados para fazêlo, já que “ter uma função” não é o mesmo que estar desenhado ou “ter uma razão de ser” (p. 74). A Lua, por exemplo, tem uma função (papel causal) no movimento das marés, mas não diríamos que essa é sua razão de ser, ou que ela foi desenhada para isso. Da mesma maneira, pedras achatadas são melhores para o jogo de quicar na água que as pedras esféricas, mas isso não quer dizer que o perfil achatado tenha sido expressamente desenhado para cumprir essa função.
Agora, é possível utilizar esse conceito de objeto desenhado para definir sob quais circunstâncias um estado de caráter pode ser considerado um perfil naturalmente desenhado, isto é, resultado de um processo de desenho sem que tenha havido um desenhista. O (estado de) caráter X está naturalmente desenhado para desempenhar a função y se e somente se:
(1) y é uma função biológica das configurações orgânicas x que exibem X;
(2) o estado X é produto da seleção natural, o que significa que as configurações orgânicas que exibiam X foram mais eficientes na realização de y do que aquelas que exibiam outros estados de caráter alternativos a X (p. 76).
Por não confundir parte com caráter, essa formulação apresenta uma clara vantagem em relação a algumas variantes da concepção etiológica que tentam apresentar definições semelhantes (cf. p. 78). Caponi defende que há uma lacuna ontológica entre as configurações orgânicas – designadas como x na definição acima, às quais faz sentido atribuir funções – e os caracteres X, os quais podem ser objetos de explicações selecionistas. Por isso, dizer de determinada parte de um organismo que ela é uma adaptação é, na melhor das hipóteses, um abuso de linguagem. A seleção natural, na visão de Caponi, “não modifica partes de organismos, modifica caracteres de linhagens” (p. 85).
A relação que se pode estabelecer entre os caracteres e as configurações orgânicas concretas é de instanciação, e só pode ser identificada a partir da perspectiva populacional. Determinada configuração orgânica pode até instanciar um caráter, mas isso jamais poderá ser constatado através de um estudo puramente fisiológico:
Por muito que se analise um organismo, se distingam as suas partes e se tente identificar a possível contribuição destas no seu ciclo vital, nem por isso estarão sendo identificadas adaptações. Para que isso seja possível, é necessário que essas partes sejam consideradas como exibindo estados de caracteres. Mas isso só se consegue assumindo uma perspectiva histórica, evolutiva (p. 85-6).
Esse ponto está alinhado a uma tese de Caponi segundo a qual há dois modos fundamentais de individualidade na biologia – os sistemas e as linhagens –, sendo que cada um deles implica uma relação mereológica diferente (cf. Caponi, 2012). Grosso modo, a biologia funcional e a ecologia tratam de sistemas, enquanto a biologia evolutiva trata de linhagens. Os sistemas são marcados por interações causais sincrônicas entre suas partes, coisa que não precisa ocorrer no caso das linhagens (cf. Caponi, 2012).
Ora, se tanto a biologia funcional quanto a ecologia tratam de sistemas, o que nos impede de incorrer em um organicismo em ecologia e conceber os ecossistemas como organismos? É aí que Caponi, uma vez mais e ainda que indiretamente, argumenta contra a concepção etiológica de função. Se admitíssemos que a concepção etiológica de função é a única válida e, ao mesmo tempo, sustentássemos que a ecologia realiza análises funcionais legítimas, seríamos obrigados a aceitar a conclusão de que os ecossistemas resultam de processos de desenho natural. Caponi, ao longo do último capítulo de seu livro, procura desvincular a legitimidade do discurso funcional em ecologia da ideia de que os ecossistemas são objetos naturalmente desenhados.
A ecologia, defende Caponi, faz atribuições funcionais em um sentido que é muito parecido com aquelas efetuadas pela biologia funcional, ou seja, que podem ser diretamente traduzidas em termos dos papéis causais que certas partes cumprem em certos sistemas. Porém, o que justifica a afinidade entre as duas disciplinas, segundo Caponi, não é uma perspectiva organicista sobre seus respectivos objetos de estudo, mas sim algo sobre seus ideais de ordem natural (cf. Toulmin, 1961). Brevemente, um ideal de ordem natural é um princípio, enunciado desde o ponto de vista de uma teoria ou domínio de investigação, que determina quais são os fenômenos que fazem parte de uma “ordem esperada” e que, portanto, não precisam ser explicados. Os fenômenos que, por outro lado, emergem por sobre esse horizonte ideal de regularidade são os que devem ser analisados e explicados por essa teoria.
Caponi explica a proximidade entre a biologia funcional e a ecologia como uma proximidade de ideais de ordem natural. Os ideais de ordem natural dessas duas disciplinas, segundo Caponi, envolvem a pressuposição de que os estados organizados dos sistemas são configurações improváveis, que merecem ser explicadas; a desordem, o aumento da entropia, por sua vez, é o estado esperado ao qual tendem todos os sistemas. Que um sistema mantenha, por homeostasia, um arranjo organizado frente às contingências do entorno é algo que supõe “uma articulação, uma sintonia afinada, de uma multiplicidade de fatores cuja condição de possibilidade e cuja ocorrência é necessário explicar” (p. 108).
Fazendo um trocadilho, Caponi afirma que a sustentabilidade é a questão-chave da ecologia. Os ecossistemas são arranjos frágeis de processos e partes que parecem passíveis de serem desarticulados ao menor desajuste. Assim, os ecólogos estão interessados em saber como esses estados de equilíbrio delicado se sustentam, isto é, como suas diferentes partes e processos contribuem para a manutenção desses arranjos. Desse modo, enquanto o componente maior (z) era, no caso da análise funcional, um sistema autopoiético, nas análises ecológicas ele corresponde à persistência de um ecossistema, de uma comunidade ou população (p. 109).
Julgamos que uma pequena objeção pode ser levantada contra a argumentação de Caponi, mas, ainda assim, essa objeção pode ser resolvida por meio de um esclarecimento. A objeção é a de que pode haver uma circularidade no argumento, pois, se os organismos são sistemas orientados por metas intrínsecas, não seria lícito supor que elas derivam de algum processo de desenho (ainda que natural)? Se sim, há circularidade no argumento, pois um processo natural de desenho precisa, em primeiro lugar, de um sistema orientado por metas intrínsecas para poder ocorrer. Por isso, pensamos que a resposta tenha de ser negativa. A origem dessas metas deve estar em algum processo de auto-organização anterior e complementar à ação da seleção natural. Certamente, podemos dizer que a imensa variedade de modos pelos quais os organismos perseguem essas metas seja resultante de processos de seleção natural; porém, basta que o pontapé inicial, o primeiro sistema autopoiético, tenha surgido por outro processo natural e espontâneo, para que a aparente circularidade da argumentação seja dissolvida.
Ora, talvez pela própria natureza heterogênea e anômala dos fenômenos biológicos, as posições pluralistas são altamente atraentes na filosofia da biologia. É claro que não é possível julgar a legitimidade dessas soluções em abstrato, independentemente dos debates particulares. As soluções pluralistas têm sido consideradas atraentes nos debates sobre os conceitos de “espécie” (cf. Ereshefsky, 2001) e de “gene” (cf. Waters, 2004), para citar dois dos muitos exemplos que podem ser encontrados na literatura. Conforme já mencionamos, o livro de Caponi contraria essa tendência ao mostrar que é possível fazer, com um único conceito de “função”, aquilo que se pensava que só era possível fazer com dois.
Aliás, outra tendência recente da argumentação na filosofia da biologia é que ela tende a ser meramente destrutiva e cética, sem apontar alternativas às posições que pretende derrubar. Nesse ponto, a argumentação de Caponi também é exemplar, pois vai além de uma simples refutação da posição etiológica e constrói efetivamente todo um arcabouço teórico que permite explicar uma série de fenômenos da prática da biologia. Esperamos que parte desse arcabouço possa ter sido vislumbrado aqui com os conceitos de “função biológica” e de “objeto (naturalmente) desenhado”, bem como as distinções parte/caráter e sistema/linhagem. Entretanto, esta resenha não teve a pretensão de substituir a leitura do livro, a qual recomendamos mesmo aos biólogos e filósofos da biologia que não estejam diretamente trabalhando com conceitos afins a seu conteúdo. A forma de argumentar de Caponi já é suficientemente inspiradora a ponto de recompensar a leitura.
Notas
1 Cabe ressaltar que, embora não tenhamos espaço para detalhar esse ponto aqui, em diversos pontos-chave do livro Caponi estabelece discussões com autores brasileiros e latino-americanos. As referências principais nesse sentido são Chediak (2011), El-Hani & Nunes (2009) e Ginnobili (2009).
2 Até aqui, nesta resenha, opusemos a concepção etiológica à processual. Isto é um tanto impreciso e injusto em relação ao livro de Caponi, que sugere desde o início (p. 19) que a distinção proposta por Garson é mais geral e precisa.
Referências
ABRANTES, P. (Ed.) Filosofia da biologia. Porto Alegre: Artmed, 2011.
BACHELAr, G. A formação do espírito científico. Rio de Janeiro: Contraponto, 1996 [1938].
CAPONI, G. Biología funcional vs biologia evolutiva. Episteme, 12, p. 23-46, 2001.
_____. Linajes y sistemas: dos tipos de individuos biológicos. Scientiae Studia, 10, 2, p. 243-68, 2012.
CHEDIAK, K. Função e explicações funcionais em biologia. In: Abrantes, P. (Ed.) Filosofia da biologia. Porto Alegre: Artmed, 2011. p. 83-96.
CUMMINS, R. Functional analysis. The Journal of Philosophy, 20, p. 741-65, 1975.
EL-HANNI, C. & Nunes, N. O que é função? Debates na filosofia da biologia contemporânea. Scientiae Studia, 7, 3, p. 353-402, 2009.
ERESHEFSKY, M. The poverty of the linnaean hierarchy. Cambridge: Cambridge University Press, 2001.
GARSON, J. Function and teleology. In: Sarkar, S. & Plutynsski, A. (Ed.). A companion to the philosophy of biology. Oxford: Blackwell, 2008. p. 525-49.
GINNOBILI, S. Adaptación y función: el papel de los conceptos funcionales en la teoría de la selección natural darwiniana. Ludus Vitalis, 31, p. 3-24, 2009.
GOULD, S. J. & Vrba, E. S. Exaptation: a missing term in the science of form. Paleobiology, 8, 1, p. 4-15, 1982.
KELLERT, S.; Longino, H. & Waters, K. (Ed.). Scientific pluralism. Minneapolis: University of Minnesota Press, 2004.
MAYR, E. O desenvolvimento do pensamento biológico. Brasília: Editora da UnB, 1998 [1982].
MILLIKAN, R. In defense of proper functions. Philosophy of Science, 56, 2, p. 188-302, 1989.
MITCHELL, S. Function, fitness and disposition. Biology and Philosophy, 10, p. 39-54, 1995.
NEANDER, K. Functions as selected effects: the conceptual analyst’s defense. Philosophy of Science, 58, 2, p. 168-84, 1991.
PONCE, M. La explicación teleológica. México: Unam, 1987.
SARKAR, S. & Plutynsski, A. (Ed.). A companion to the philosophy of biology. Oxford: Blackwell, 2008.
SITES, J.; Reeder, T. & Wiens, J. Phylogenetic insights on evolutionary novelties in lizards and snakes: sex, birth, bodies, niches, and venom. Annual Review of Ecology and Systematics, 42, p. 227-44, 2011.
TOULMIN, S. Foresight and understanding. Indianapolis: Indiana University Press, 1961.
WATERS, K. A pluralist interpretation of gene-centered biology. In: Kellert, S.; Longino, H. & Waters, K. (Ed.). Scientific pluralism. Minneapolis: University of Minnesota Press, 2004. p. 190-214.
WRIGHT, L. Functions. The Philosophical Review, 82, p. 139-68, 1973.
Jerzy Brzozowski – Departamento de Filosofia. Universidade Federal da Fronteira Sul, campus Erechim, Rio Grande do Sul, Brasil. E-mail: jerzyab@gmail.com
[DR]
A foray into the worlds of animals and humans/ A theory of meaning – UEXKÜLL (SS)
UEXKÜLL, Jakob von. A foray into the worlds of animals and humans/ A theory of meaning. Trad. J. D. O’Neil. Minneapolis/London: University of Minnesota Press, 2010. Resenha de: BARAVALLE, Lorenzo. Valsa para carrapatos. Scientiæ Studia, São Paulo, v.12, n. 2, p. 379-88, 2014.
Los ojos en que te miras
son ojos porque te ven.
Antonio Machado. Proverbios y cantares, XL.
Um carrapato faminto aguarda paciente, na ponta de um galho, a passagem de sua presa. De repente, a espessa escuridão dessa espera sem eventos quebra-se. Os órgãos receptores do carrapato enchem-se do aroma do ácido butanoico. Suas pequenas pernas abrem-se, e o inseto deixa-se cair entre os pelos de um mamífero. O impacto desperta o carrapato como de um sono. A pele macia e quente de sua vítima é o sinal que chegou a hora de comer.
Com essas imagens começa a incursão de Jakob von Uexküll (1864-1944), brilhante biólogo e precursor da etologia contemporânea, nos mundos (ou, usando a terminologia do autor, nos Umwelten, isto é, os ambientes vitais, os mundos fenomênicos) dos animais e dos humanos. O quesito que acompanha o autor ao longo de sua viagem é o seguinte: pode o carrapato ser uma máquina sem condutor? Em outras palavras, será que ele é apenas um autômato programado para sobreviver? É, para Uexküll, até demasiado evidente que a resposta a essas perguntas é não. Nem a fisiologia behaviorista nem a teoria da seleção natural, com suas ferramentas conceituais fundamentalmente mecanicistas, conseguem explicar a complexidade das respostas comportamentais de um organismo. Para entender porque o carrapato, assim como qualquer outro animal e obviamente também os seres humanos, agem como agem, é preciso explorar o universo de sua interioridade, aquele espaço onde o entremeado das percepções desvela significados ocultos. Esse universo, que o filósofo Gilbert Ryle consideraria povoado apenas por fantasmas, aparece logo cheio de vida nas páginas de Uexküll, inspiradas por um declarado idealismo filosófico.
A nova tradução ao inglês das duas obras clássicas do cientista alemão – que, na verdade, nasceu na atual Estônia –, A foray into the worlds of animals and humans e A theory of meaning, chega talvez tarde mas, ao mesmo tempo, em felizes circunstâncias. Tarde, tendo em conta que as edições originais datam, respetivamente, de 1934 e 1940, e que a primeira tradução do primeiro texto, de 1957, é considerada, pelo tradutor da nova edição, pouco fiel ao cuidado terminológico do autor (cf. O’Neil, 2010). Em felizes circunstâncias, porque hoje, mais do que no passado, o trabalho de Uexküll está na condição de receber o merecido reconhecimento. Seu principal objetivo polêmico era, como já antecipei, a fisiologia behaviorista – cuja figura principal era Jacques Loeb, professor de John B. Watson – predominante na época, em particular nos Estados Unidos, que ao longo do século xx inspirará boa parte da biologia e da psicologia do comportamento (pense-se, por exemplo, nos programas de pesquisa da sociobiologia e da ecologia comportamental). Aliás, Uexküll, embora não explicitamente antidarwinista, não parecia simpatizar com a teoria da seleção natural. Em uma época de grande fervor em torno da nascente síntese moderna da biologia é, portanto, fácil entender por que o trabalho do fisiólogo ultrapassou com dificuldade as fronteiras dos países de língua alemã. Nestes últimos, contudo, a influência dele foi constante e decisiva. Encontramos referências a Uexküll no âmbito da literatura filosófica, por exemplo, em Cassirer (1979, v. 4, p. 242-50) e em Heidegger – a noção de Dasein heideggeriana é reconhecidamente devedora dos Umwelten uexküllianos (cf. Heidegger, 1995, p. 261-7; Agamben, 2006, cap. 10) – e, em âmbito científico, seus trabalhos foram fundamentais na formação de Konrad Lorenz (1974; cf. Baravalle, neste número). Na atualidade, o crescente interesse pelo papel da informação nos processos biológicos tanto moleculares como comportamentais (cf. Godfrey-Smith & Sterelny, 2008; Emmeche & Kull, 2011), em detrimento dos enfoques behavioristas, assim como o questionamento da abrangência do darwinismo e a aceitação da relevância de mecanismos evolutivos alternativos, por exemplo, lamarckianos (cf. Jablonka & Lamb, 2005), são, com certeza, sinais de que chegou o tempo para tentar uma releitura do legado de Uexküll.
Entre A foray into the worlds of animals and humans e A theory of meaning existe uma certa sobreposição de conteúdo. Ambas as obras estudam os fenômenos semióticos no mundo natural e no comportamento animal, a partir da teoria do ciclo funcional. A foray into the worlds of animals and humans deve muito de seu interesse à beleza das descrições e das sugestivas imagens da experiência subjetiva de diversos animais. Não sendo possível reproduzir aqui as características próprias de cada um deles, limitarme-ei a fazer referência a alguns exemplos ao longo da resenha, usando o caso do carrapato como paradigmático e seguindo nisso Agamben (2006, cap. 11). Na seção 1, resumirei os principais resultados teóricos alcançados pelo autor nessa obra, tentando refletir uma ordem conceitual ideal. Entretanto, A theory of meaning é uma obra mais especulativa, que tem em vista oferecer uma visão de conjunto sobre o universo das relações simbólicas. Ela é rica de sugestões filosóficas, nem sempre apresentadas claramente ou discutidas apropriadamente. A seção 2, será portanto dedicada, na medida do possível, a uma exposição dos elementos mais inovadores no pensamento do autor, de maneira a facilitar a tarefa do leitor que queira se aproximar dele.
1 CICLOS FUNCIONAIS E UMWELTEN: OS MUNDOS DOS ANIMAIS E DOS HUMANOS
De modo a poder avaliar ponderadamente a contribuição de Uexküll para o debate filosófico-científico atual, é fundamental compreender o papel que jogam alguns conceitos-chave em sua interpretação dos processos vitais. Antes que tudo, é importante assinalar a insatisfação do biólogo com as explicações mecanicistas causais em fisiologia. Estas tinham como padrão, na época, o modelo do arco reflexo. No caso do carrapato,
as células sensoriais, que ativam a estimulação sensorial, e as células motrizes, que ativam o impulso ao movimento, são conetores que transmitem uma onda de excitação puramente física, produzida pelo receptor nervoso em resposta ao impulso externo. O inteiro arco reflexo funciona por uma transferência de movimento, exatamente como qualquer máquina. Não há evidências da presença de fatores subjetivos em lugar algum (Uexküll, 2010, p. 46, grifo meu).
A esse esquema explicativo, considerado superficial e incompleto em vários trechos de suas obras (cf. p. 46-7, 161-3), Uexküll opõe o já citado modelo do ciclo funcional. A relevância deste último na economia do pensamento do autor é tão grande, que seria possível dizer que o objetivo principal de ambos os escritos aqui discutidos é oferecer sua justificação teórica e estabelecer seu alcance. É, de fato, a partir da plausibilidade científica de tal modelo que Uexküll consegue justificar e articular a noção de Umwelt (traduzido na edição aqui resenhada simplesmente como “mundo” (world), a qual define o horizonte fenomênico, vivencial e simbólico do animal.
Qualquer ciclo funcional de estímulo e resposta é constituído por dois elementos: um sujeito e um objeto. Ambos possuem uma certa estrutura física, porém a interação entre eles não é propriamente física, mas depende de um processo que poderíamos chamar de informacional ou semiótico. O objeto constitui, para o sujeito, um sinal de percepção que ativa conjuntos de células, coordenadas por um “órgão de percepção”, geralmente o cérebro – para tipos distintos mais primitivos de coordenação perceptiva (cf. p. 73-8), nas plantas (cf. p. 150-1). O processamento interno de tal sinal, que é representado como um problema ambiental para o organismo, gera uma resposta comportamental. Esta é, por sua vez, veiculada por outras características do objeto, que constituem, de acordo com a terminologia de Uexküll, o sinal de efeito. A figura 1 ilustra a concatenação de sinais no ciclo funcional:
Mundo da percepção
Mundo dos efeitos
Sinal de efeito
Órgão de efeito
Órgão da percepção Sinal de percepção
Estrutura física
Mundo interno do sujeito
Objeto
Figura 1. O ciclo funcional. O objeto físico, à direita na imagem, é a fonte de informação simbólica captada pelos órgãos perceptivos do animal. Durante a primeira parte do ciclo, correspondente à cauda da seta, o objeto passa a fazer parte do mundo sensível do sujeito, à esquerda da imagem. Isso produz uma estimulação dos órgãos de efeito que desencadeia, por meio de alguma representação no mundo interior do animal, a busca de uma informação ambiental para realizar a ação adequada. Finalmente, o ciclo funcional fecha-se quando o sujeito encontra no objeto o sinal do efeito que estava procurando e torna-se, assim, causa de um evento físico (cf. Uexküll, 2010, p. 49).
A coordenação entre percepção e efeito comportamental não pode ser mecânica nem cega, como acreditam os behavioristas, já que é preciso que nela se dê uma correta interpretação dos sinais produzidos pelo objeto, processo que, é fácil observar na natureza, nem sempre é realizado corretamente. Com relação a isso, Uexküll cita uma série de experimentos dirigidos a dissociar sinais de percepção e sinais de efeito: sobre a chamada de acasalamento nos gafanhotos (cf. p. 88); sobre a recepção dos pedidos de ajuda dos pintinhos à mãe galinha (cf. p. 90-1); sobre o fenômeno do imprinting (cf. 108-13). Tampouco o objeto pode ser simplesmente entendido como objeto físico, já que no ciclo funcional ele não produz certas percepções ou estímulos efetivos apenas em virtude de sua estrutura material e causal, mas também e sobretudo, graças a certas propriedades simbólicas que derivam de sua interação com o sujeito. É relativamente fácil identificar aqui a influência da epistemologia kantiana na teoria de Uexküll. O objeto é principalmente objeto fenomênico, dado funcionalmente ao sujeito conforme suas faculdades perceptivas e efetivas.
No caso do carrapato, o objeto percebido constitui-se a partir do aroma do ácido butanoico. As características que nós humanos consideramos próprias dos mamíferos, assim como as distinções que podemos fazer entre vários deles, são inteiramente desconhecidas para o carrapato. Contudo, ele consegue identificar infalivelmente um mamífero e distingui-lo de qualquer outro animal que não pertença a essa classe, já que nenhum outro animal pode ativar seus receptores (p. 179). Só quando a percepção do ácido butanoico é adequadamente processada o carrapato deixa-se cair entre os pelos da vítima. Aqui ativam-se sinais de efeito de intensidade variada, correspondentes à temperatura e às características da pele do mamífero, que dirigem o carrapato em direção à área melhor para começar a sução de sangue. Esse processo é descrito, com alguma diferença, tanto em A foray into the worlds of animals and humans (p. 44-52) como em A theory of meaning (p. 178-9). Em ambos os textos, Uexküll mostra-se consciente de que um adversário behaviorista poderia questionar esse conhecimento do mundo interior do carrapato. A estratégia de defesa de suas teses é parcialmente diferente nas duas obras. Em A theory of meaning (p. 159), Uexküll invoca as célebres considerações sobre as duas mesas, a física e a fenomênica, de Eddington. O behaviorista, segundo o autor, é ingenuamente antimetafísico por acreditar que toda a realidade é dada em uma teoria física, ou está baseada nela. A observação “ingênua” de como nós e os outros, humanos e animais, interagimos com as coisas deve ser considerada uma evidência, também científica, de que o comportamento não se reduz a mero mecanismo. Em A foray into the worlds of animals and humans, essa tese é apoiada por um grande número de experimentos e experiências diretas.
O mundo interior do sujeito, onde o sinal perceptivo é elaborado e uma determinada classe de efeitos são estimulados, é chamado por Uexküll, como já antecipamos, de Umwelt. O Umwelt é o lugar onde os sinais do mundo exterior se configuram de acordo com uma modalidade fenomênica particular, diferente de animal a animal. Ele é o núcleo do ciclo funcional. Para tentar descrever os distintos Umwelten, Uexküll recorre a metáforas baseadas nas cores ou na música (esta última analogia revelará ter um alcance bem mais amplo ao longo de A theory of meaning). Dados os distintos aparatos perceptivos e as distintas morfologias das espécies animais, os objetos mostramse nos respetivos Umwelten com distintas tonalidades, de acordo com as quais os organismos podem interagir com o ambiente. Um Umwelt manifesta-se primariamente como uma dimensão espaço-temporal (p. 53-72) na qual apenas os objetos funcionalmente disponíveis aparecem ao animal, conforme suas atitudes perceptivas e efetivas. O espaço resulta segmentado de maneira proporcional às necessidades perceptivas do animal – isto é, com um detalhe não superior ao que o ciclo funcional requer para ser ativado – e estende-se conforme os objetos de interesse para o organismo – predadores, comida, refúgio etc. – apresentam-se nele. O espaço característico do Umwelt do carrapato é constituído apenas pela presença ou ausência da tonalidade correspondente ao ácido butanoico. Já a mosca, cuja percepção espacial é atentamente comparada por Uexküll com a nossa (p. 61-9), exibe um comportamento que evidencia a capacidade de localizar várias dimensões de movimento de acordo com a luminosidade. Também o tempo parece influir sobre a capacidade de individuar objetos funcionalmente significativos, como mostram experimentos sobre os diferentes tempos de reação de Betta splendens (o peixe de briga siamês) e dos caracóis comuns (p. 70-2).
Uma vez dadas as coordenadas espaço-temporais, os Umwelten distinguem-se por muitos outros fatores específicos, tais como (1) a arquitetura interna da percepção, seja como soma de estímulos, por exemplo, nas águas vivas ou no ouriço-do-mar (cf. p. 73-8), seja como estímulo centralizado, na maioria dos organismos superiores; (2) o número de tipos de objetos que podem ser considerados como funcionalmente significantes (p. 79-84) e, em particular, (3) a capacidade de representar para si mesmo a interação com o objeto em termos de objetivos e fins (p. 86-92). Esta última não é exclusiva do Umwelt humano, mas, como é mostrado através de uma serie de observações sobre abelhas (p. 84, 180), paguros (p. 93) e cães (p. 93-7), parece estar presente em muitos animais. Obviamente não devemos pensar essa representação em termos conceituais. Ela corresponde, mais concretamente, à capacidade de transformar os sinais de percepção e de efeito em imagens, presentes quando o objeto está ausente (p. 92-8). A abelha que procura a colmeia, o paguro que escolhe sua concha e o cão que obedece às ordens do dono vivem uma situação de, diríamos hoje, soluções de problemas (problem solving), na qual tentam fazer coincidir uma representação, em forma de imagem, com o estímulo real (p. 113-7). A faculdade de representar para si mesmo imagens perceptivas e efetivas abre, para os organismos que a possuem, a possibilidade de ampliar extraordinariamente a extensão do próprio Umwelt. As tonalidades nas quais os objetos se apresentam ao animal tornam-se muito mais variadas, e um mesmo objeto pode estimular diferentes ciclos funcionais.
O Umwelt de boa parte das aves e de quase todos os mamíferos (mas também de alguns insetos) inclui, finalmente, a presença dos companheiros. Os outros animais passam a fazer parte do mundo subjetivo do organismo como possibilidades de percepção e de ação distintas daquela representada pelos objetos inanimados. Dessa maneira, a rede de intersignificação entre os vários habitantes de um certo ambiente ou ecossistema intensifica-se até formar um complexo de relações simbólicas que acaba reinterpretando o ambiente mesmo. Uexküll, a esse propósito, cita o exemplo do carvalho (p. 126-132), que constitui um ambiente compartilhado por um guarda-florestal, uma menina, uma raposa, uma coruja e diversos insetos. O carvalho físico quase desaparece, ocultado pelos inúmeros significados particulares que lhe são atribuídos por cada um dos organismos que interagem com ele.
2 O MUNDO EM UMA CAIXA DE MÚSICA
Se, por um lado, o mecanicismo dos fisiólogos behavioristas, com sua estrita noção de causalidade, não satisfaz Uexküll, por outro lado, como aparece mais claramente em A theory of meaning, também a explicação darwinista das adaptações parece-lhe inadequada. Embora Darwin seja citado apenas uma vez em A foray into the worlds of animals and humans (p. 82), a propósito de um estudo sobre o comportamento das minhocas, é evidente a insatisfação de Uexküll com relação a uma teoria que vê na evolução o fator constitutivo da biodiversidade. Partindo de seus estudos sobre os animais, ele propõe então uma imagem alternativa da vida, baseada na noção de significado. Nessa concepção, a função de um órgão ou de um comportamento é considerada, em certa medida, anterior a sua estrutura, e o conjunto das relações físico-causais é subordinado às regras semânticas que governam as interações entre os organismos.
Diferentemente de um objeto inorgânico, como um sino cujas interações com o exterior estão limitadas a solicitações puramente mecânicas, nós seres orgânicos somos como uma coleção de sinos vivos,
cada um dos quais produz um tom diferente. Podemos formar com eles uma caixa de música que pode operar mecanicamente, quimicamente ou eletricamente, já que cada um dos sinos responde a qualquer tipo de estímulo com seu próprio tom característico. Mas o significado de uma caixa de música viva não consiste nisso, dado que ela seria um mero mecanismo (…), se fosse guiada elétrica ou quimicamente. Uma caixa de música feita por sinos vivos deve possuir a habilidade de tocar sua música não apenas com base em um dispositivo mecânico, mas também guiada por sua melodia (2010, p. 148).
Aliás, os sinos vivos não tocam sozinhos. Eles também produzem música em resposta à música de outros sinos vivos (p. 160).
Deixando a metáfora musical, os organismos desenvolvem-se e evoluem a partir da inclusão, em seus Umwelten, de novos veículos (carrier) de significado (p. 140-1), objetos e sujeitos externos, os quais modificam sua percepção do mundo, seu comportamento e até sua morfologia. Na ontogenia, operam tanto os mecanismos físico-químicos responsáveis do desenvolvimento, quanto os veículos do significado. Como evidência de que os dois processos são distintos, Uexküll cita o experimento de Hans Spemann com transplante de células embrionárias (p. 152-7). Enquanto o processo físico-químico do desenvolvimento determina cegamente certas características morfológicas, a “caixa de música celular”, constituída pelo entorno semanticamente carregado da vida em qualquer nível, determina aquelas características do organismo que o tornam propriamente um sujeito, dotado de um Umwelt e capaz de interpretar os significados para ele relevantes. Na filogenia (p. 170), um processo que Uexküll considera muito menos importante para entender a constituição atual dos seres vivos, age um mecanismo análogo ao que caracteriza a ontogenia. A natureza, contrariamente ao que sustentam os evolucionistas – Uexküll cita, como representante destes, Spencer (p. 185) –, não procura um melhoramento das espécies, uma seleção dos indivíduos mais aptos, mas uma harmonia entre eles e a estabilidade do ecossistema.
A natureza é uma orquestra, na qual cada instrumento encontra seu lugar exato, e toca sua melodia acompanhado pelos outros instrumentos, que constituem seu contraponto (p. 185-7). Os processos físico-químicos, mecânicos, são subordinados a uma regra superior, aquela que Uexküll chama de “regra de significado”, que conecta a totalidade do orgânico de acordo com as capacidades de percepção e de efeito de cada indivíduo (p. 168-73). A música da natureza é aquela que liga o carrapato com o mamífero, o morcego com a mariposa, com a qual compartilha uma mesma frequência de sons (p. 177-8), a árvore de carvalho com a chuva e o sol (p. 173), e todos os seres que ocupam algum nicho no próprio carvalho. É a transmissão de significado entre seres tão diferentes entre si que, do ponto de vista de Uexküll, constitui o verdadeiro mistério da natureza. “Se a flor não fosse abelhada, e se a abelha não fosse florada, a consonância nunca poderia funcionar” (p. 190, grifo no original). A inspiração goethiana é aqui manifesta: “se o olho não fosse ensolarado, não poderia avistar o sol” (Goethe apud Uexküll, 2010, p. 190). Deve existir, além dos ciclos funcionais particulares, um motor universal que coordene as caixas de música vivas, para que o efeito final seja uma harmonia e não uma cacofonia. Nas páginas finais de A theory of meaning, o objetivo do biólogo é claramente caracterizado como a descoberta das “tecnologias da natureza” (p. 192-4, 202-3), entendidas como o conjunto das inúmeras conexões entre os ciclos vitais e de significado. Somente Lamarck, segundo Uexküll, dedicou-se seriamente, até a atualidade, a essa tarefa (p. 194).
Em definitivo, Uexküll abraça sem hesitações uma imagem do mundo orgânico intrinsecamente teleológica, na qual os significados que caracterizam o Umwelt do indivíduo não representam um aspecto secundário e derivado da evolução biológica mas, ao contrário, o verdadeiro elemento característico da vida. A citação de Machado, com a qual abri esta resenha, é ilustrativa. Para Uexküll, a imediatez do mundo vivido, harmonicamente afinado com os objetos da percepção e da ação, é a medida de todas as coisas. O mundo é principalmente Umwelt, e só de maneira derivada mundo físico. O sujeito lança luz sobre a realidade, tornando vivas as coisas mortas, enchendo de significado o que, de outro modo, seria mudo.
Ao leitor contemporâneo, Uexküll poderia parecer um autor anacrônico, devido ao forte elemento metafísico e pré-darwiniano presente em sua obra. Mas essa leitura seria superficial e apressada, já que negligenciaria a grande originalidade e fecundidade científica de alguns temas recorrentes nos textos aqui tratados. Em primeiro lugar, é importante salientar a horizontalidade da visão uexkülliana do mundo orgânico. Não existe, no universo do autor, uma jerarquia de formas de vida, como em boa parte do evolucionismo – biológico e filosófico – do século xix, e ainda do século xx (cf. Lorenz, 1974; Caponi, 2012; Baravalle, neste número). Todo animal tem suas especificidades, nenhum Umwelt é “melhor” que outro. Com certeza, alguns são mais articulados e abrangentes, mas não faz sentido comparar os mundos vividos. Em minha opinião, essa horizontalidade é mais compatível com o darwinismo que a imagem progressivista e antropocêntrica que, ainda hoje, é muito difundida.
Em segundo lugar, a noção uexkülliana de “regra de significado” não tem o propósito de escamotear a recusa da noção de causalidade dos behavioristas, o que faria dela uma complicação supérflua para justificar a irredutibilidade de processos não mecanicistas. Ela é antecipadora, em certa medida, da noção de “informação” que, a partir de Shannon (1948), adquirirá cada vez mais relevância em biologia e que, hoje em dia, joga um papel fundamental na explicação da relação entre os organismos e o ambiente (cf. Godfrey-Smith & Sterelny, 2008). Em particular, ela representa um dos conceitos fundamentais, juntamente com as noções de ciclo vital e de Umwelt, da biosemiótica (Hoffmeyer, 2008; Emmeche & Kull, 2011), uma área disciplinar que se encontra hoje em rápida expansão. Entendida como a confluência da semiótica peirciana com a teoria uexkülliana, a biosemiótica “já não é uma escola de pensamento marginal (…) mas uma nova biologia a ponto de encontrar seu próprio fundamento teórico” (Emmeche & Kull, 2011, p. 4).
Finalmente, a defesa que a obra de von Uexküll oferece do papel da filosofia em biologia é, por si só, louvável. Contrariamente à tendência reducionista dos fisiólogos seus contemporâneos, e longe da epistemologia fisicalista do empirismo lógico, Uexküll marca uma continuidade com o pensamento romântico oitocentista e reivindica o dever intelectual à busca de perguntas mais profundas que as que a ciência atual pode responder, principalmente graças à indagação metafísica. A música esconde estruturas desconhecidas para quem não sabe escutá-la com a devida atenção; as dinâmicas da vida têm a mesma tendência a ocultar-se, até em um carrapato. Só o espírito livre das imposições dos modelos aceitos pode desvendá-las.
Referências
AGAMBEN, G. Lo abierto. Buenos Aires: Hidalgo, 2006.
BARAVALLE, L. Animalidade transcendental: o problema da naturalização do a priori em Konrad Lorenz. Scientiae Studia, 12, 2, p. 285-305.
CAPONI, G. Tipología y filogenía de lo humano. Ludus Vitalis, 20, 37, p. 175-91, 2012.
CASSIRER, E. El problema del conocimiento. Ciudad de México: Fondo de Cultura Económica, 1979. 4 v.
GODFREY-SMITH, P. & Sterelny, K. Biological information. The Stanford encyclopedia of philosophy. 2008. Disponível em: <http://plato.stanford.edu/archives/fall2008/entries/information-biological/>. Acesso em: 30 jul. 2014.
EMMECHE, C. & Kull, K. Towards a semiotic biology. Life is the action of signs. London: Imperial College Press, 2011.
HEIDEGGER, M. The fundamental concepts of metaphysics: world, finitude, solitude. Bloomington, Indiana: Indiana University Press, 1995.
HOFFMEYER, J. Biosemiotics: an examination into the signs of life and the life of signs. Scranton, Pennsylvania: University of Scranton Press, 2008.
JABLONKA, E. & Lamb, M. J. Evolução em quatro dimensões. DNA, comportamento e a história da vida. São Paulo: Companhia das Letras, 2005.
LORENZ, K. L’altra faccia dello specchio. Milano: Adelphi, 1974.
O’NEIl, J. Translator’s introduction. In: Uexküll, J. von. A foray into the worlds of animals and humans / A theory of meaning. Minneapolis/London: University of Minnesota Press, 2010. p. 35-8.
SHANNON, C. A mathematical theory of communication. Bell Systems Technical Journal, 27, p. 279-423, 623-56, 1948.
UEXKÜLL, J. von. A foray into the worlds of animals and humans / A theory of meaning. Minneapolis/London: University of Minnesota Press, 2010.
Lorenzo Baravalle – Centro de Ciências Naturais e Humanas. Universidade Federal do ABC, Brasil. E-mail: lorenzo_baravalle@yahoo.it
[DR]
A vast machine: computer models, climate data, and the politics of global warming – EDWARDS (SS)
EDWARDS, Paul N. A vast machine: computer models, climate data, and the politics of global warming. Cambridge (MA): The MIT Press, 2010. Resenha de: LEITE, José Correa. A produção dos dados pela grande máquina: computadores, modelagem e sistemas técnicos nas ciências do clima. Scientiæ Studia, São Paulo, v.12, n. 3, p. 607-18, 2014.
Paul Edwards é professor da Escola de Informação e do Departamento de História da Universidade de Michigan. Seu primeiro livro, The closed world: computers and the politics of discourse in cold war America, de 1996, acompanhava o desenvolvimento dos computadores nos Estados Unidos e sua imbricação com o discurso da Guerra Fria. O computador contribuiu para criar a ilusão de que o país era impenetrável, defendido por um sistema automático, donde a metáfora do “mundo fechado”. Os computadores foram, nos Estados Unidos, a tecnologia central das forças militares na Guerra Fria, mas também a metáfora estruturante da teoria psicológica que se desenvolveu nesse período com as ciências cognitivas e as pesquisas de inteligência artificial. The closed world mostra essa trajetória dual nos Estados Unidos durante a Guerra Fria.
A vast machine: computer models, climate data, and the politics of global warming, último livro de Edwards, se insere na trajetória aberta por seu primeiro livro, elaborando agora uma “narrativa histórica da ciência do clima como uma infraestrutura global de conhecimento” (p. 8), um empreendimento já antigo, mas no qual os computadores se transformaram na peça-chave. Trata-se de uma epistemologia das ciências do clima, uma defesa da legitimidade dos modelos de computador como ferramentas de apreensão da dinâmica desses fenômenos. Tem, todavia, um alcance que ultrapassa o âmbito das ciências do clima, aplicando-se para muitas das ciências do sistema Terra.
A obra mostra como o conhecimento do clima tornou-se, desde o século XIX, indissociável dessa “grande máquina”, fórmula que dá título à obra, através da qual Edwards retoma uma ideia lançada na Inglaterra vitoriana por John Ruskin a propósito da Sociedade Meteorológica, cuja influência e poder deveriam ser onipresentes no planeta. O desenvolvimento dessa infraestrutura global de conhecimento é resultado dos avanços nos sistemas nacionais de previsão do tempo, baseados no telégrafo, que se dotaram de uma coordenação internacional frouxa, avançando no século XX com o uso de computadores, depois satélites, até a criação do Observatório Mundial do Tempo.
1 A SIMBIOSE DADOS-MODELOS
O ponto central da análise de Edwards é a crítica da separação entre modelos e dados e a defesa da simbiose entre eles. Céticos do clima e negacionistas desqualificam as análises sobre o aquecimento global antropogênico afirmando que seus defensores apresentam apenas modelos e o que importa são os dados. Mas Edwards enfatiza que sem modelos, não há dados globais. Dados globais, aqueles com que trabalha a climatologia, são produzidos pelos pesquisadores a partir de fontes diversas. “Nenhuma coleção de sinais ou observações – mesmo de satélites, que podem “ver” todo o planeta – torna-se global no espaço e no tempo sem primeiro passar por uma série de modelos de dados” (p. XIII). E como tanto os sistemas de observação do clima que fornecem registros como os modelos de tratamento dos dados evoluem, os dados globais também mudam, existindo a partir daí diversas visões do passado climático da Terra, com dados reverberando permanentemente no que o autor chama de cintilações. É a convergência das imagens oferecidas por essas diferentes séries de dados globais construídas por distintos modelos que permite afirmar que a Terra aqueceu 0,75° desde 1900. Há simulações, mas esses modelos são distintos dos modelos de tratamento de dados que tornam os registros dos diversos instrumentos operacionais. “Tudo o que nós conhecemos sobre o clima do mundo – passado, presente e futuro – conhecemos através de modelos” (p. XIV).
Pode-se estudar a história do clima de duas maneiras: coletando dados do passado, colhidos pelas leituras de instrumentos que começaram a existir no século XVII, se tornaram comuns depois de 1850 e avançaram acima da superfície da Terra depois de 1950 (o que Edwards chama de produção de dados globais), e compreendendo o clima como um sistema físico, o que pode permitir prever sua mudança (uma tarefa enorme e complexa, que envolve muitos sistemas interligados: atmosfera, oceanos, criosfera, superfícies com diferentes solos e albedos e a biosfera com seus ecossistemas e territórios agrícolas). Assim, o que conhecemos do clima advém dos três tipos de modelos de computador estudados por Edwards: os modelos de simulação baseados na física teórica, com simulações numéricas tanto para a meteorologia (a previsão do tempo, em geral modelos regionais ou continentais) como para a climatologia (modelos para longo prazo, anos ou décadas, incorporando mudanças na composição e forçantes da atmosfera); os modelos de análise de dados (resumidamente, os modelos de dados), compreendendo uma grande quantidade de técnicas matemáticas, algoritmos e ajustes derivados das leituras de instrumentos, ambas em constante evolução; e os modelos de reanálise das previsões do tempo, simulações baseadas nas observações reais do tempo passado, que passaram a criar, depois de 1990, uma nova fonte de dados globais do clima.
A climatologia passou a necessitar de muito mais informações do que as providas pela meteorologia. Isso levou a um trabalhoso processo de reanálise dos dados a partir da década de 1970, que Edwards chama de inversão infraestrutural. Desde então, a modelagem climática ultrapassou o conhecimento de base empírica como fundamento da ciência do clima. Com a preocupação com o aquecimento global a partir dos anos 1980, cientistas e governos institucionalizaram um processo de revisão sistemática do conhecimento sobre o clima no Painel Intergovernamental sobre Mudanças Climáticas (IPCC em inglês), hoje a camada mais visível da vasta e complexa infraestrutura de produção de conhecimento da climatologia. Esse processo de revisão, que teve cinco rodadas desde 1990, criou imperativos, estruturas e processos articulando um vasto leque de produtores de conhecimento e trazendo para um projeto comum métodos e produtos os mais diversos. As controvérsias são levadas para dentro do consenso científico, que incorpora o leque de opiniões dos especialistas. E é dentro desse processo que inúmeras versões da história recente da atmosfera – provenientes de diferentes modelos – também convergiram.
2 PENSANDO GLOBALMENTE
Para Edwards, a apreensão da Terra como um todo constitui uma “quarta descontinuidade”, um deslocamento fundamental de perspectiva como aqueles trazidos por Copérnico, Darwin e Freud, uma nova visão do mundo sintetizada na máxima “pensar globalmente, agir localmente”, que “captura toda uma filosofia, com ontologia, epistemologia e ética” (p. 1). O planeta passa a ser visto como um sistema dinâmico, interconectado, articulado e em mudança, mas frágil: uma “rede, ao invés de hierarquia; complexa, com retroalimentações cruzadas, ao invés de controle central; [com] ecologia, ao invés de recursos” (p. 2). Embora a fotografia da Terra tirada da órbita lunar pelos astronautas da Apolo 8 em 1968 possa ser o melhor símbolo da ideia de uma Terra global, essa noção começou a emergir antes, durante a década de 1950, já estando presente no Ano Geofísico Internacional de 1957-58, nos primeiros satélites, na cibernética, na ecologia etc. O mundo estava se tornando um sistema.
Como isso se deu? A resposta que Edwards oferece a essa questão, através da discussão do aquecimento global, é que na medida em que vai se constituindo uma infraestrutura global de conhecimento (de monitoramento, modelagem e memória) isso produz um conhecimento integrado e a necessidade de políticas globais. Isso surge no estudo do tempo e do clima no século XIX, avançando até o presente, em um processo que é repetido em outras disciplinas que vão se interconectando, partilhando dados e marcos teóricos. Se o mundo é um sistema, seu conhecimento terá que se dar por outro sistema.
O “globalismo infraestrutural” é marcado pela proeminência das tecnologias da informação e da comunicação. Edwards recolhe de Hewson o conceito de “globalismo informacional”, que se refere aos sistemas e instituições para criar e para transmitir informações por todo o mundo, um globalismo que emerge com as redes de telégrafos. Eles se articularam, no capitalismo liberal do século XIX, em redes inter-regionais e intercontinentais, refluindo entre 1914 e 1960 e ganhando ímpeto desde então. Para o autor, “o imperativo informacional globalista era já muito mais forte [nos anos 1950] na meteorologia do que em muitos outros supostos sistemas ‘globais’ que emergiram naquele período” (p. 24) – como de outras ciências geofísicas (sismologia, oceanografia etc.), da epidemiologia das doenças infecciosas ou dos mercados financeiros. O globalismo infraestrutural foi um projeto que, ao criar uma vasta infraestrutura, “perdura muito além das carreiras individuais, dos movimentos sociais ou das tendências políticas. Essa permanência legitima, ela própria, o conhecimento que produz e se torna autoperpetuadora” (p. 25).
3 A PREVISÃO METEOROLÓGICA
A vast machine trata, nos capítulos 2 a 5, da história da previsão do tempo e da climatologia até a Segunda Guerra. Tais capítulos são uma síntese da produção acadêmica sobre a história dessas disciplinas, apoiando-se no trabalho dos principais autores da área (cf. Harper, 2008; Nebeker, 1995; Weart, 2008), e não vamos aqui poder fazer jus a eles com a riqueza de detalhes que merecem. Em “Espaço global, tempo universal: vendo a atmosfera planetária”, Edwards nos lembra que hoje mapas do mundo estão por todas as partes e são objetos com os quais pensamos inúmeros problemas, inclusive a ideia de um espaço global. Eles são o principal suporte material para “pensarmos globalmente”. Da mesma forma, o tempo universal é fundamental para a textura da vida moderna. A sincronização dos tempos locais se torna viável com o telégrafo e necessária com as ferrovias. Essas são condições para visualizarmos a atmosfera em movimento.
A representação gráfica do tempo não existia ante de Humboldt publicar, em 1817, a primeira representação de “isotérmicas”, demarcando zonas de temperatura média similar. Dove produz, em 1852, o primeiro mapa isotérmico da Terra, utilizando o método de Humboldt para descobrir a relação entre a pressão atmosférica e a direção do vento durante a passagem de tempestades. A utilização das isolinhas agudizou a consciência da precariedade dos dados existentes. Até meados do século xix nenhuma rede meteorológica tinha durado mais do que vinte anos. Mas havia uma “comunalidade de dados”, com seu compartilhamento entre os estudiosos do tempo e do clima, o que ajudou a transformar a meteorologia em uma ciência aberta e cosmopolita.
A meteorologia tornou-se uma infraestrutura cumulativa, preservando o máximo de informações onde elas poderiam ser armazenadas, analisadas, sistematizadas e distribuídas em grandes bancos de dados. Maury, por exemplo, coletou diários de navios registrando ventos e correntes marinhas, publicando mais de 200 volumes de informações. E também organizou, em 1853, a primeira conferência intergovernamental para tratar da padronização dos sistemas de observação. Esse trabalho permitiu a William Ferrel descobrir o esquema de três células globais de distribuição da circulação atmosférica, comprovado um século depois com o auxílio de sondas, aviões e satélites.
As transformações ocorridas entre 1840 e 1890 produziram uma aceleração das velocidades: temos, pela primeira vez, a circulação de informações em tempo real. Isso revolucionou a meteorologia, que podia agora reunir grandes quantidades de informações em mapas “sinópticos”. Juntando as informações de temperatura e pressão às da direção e velocidade do vento era possível dizer como o tempo estava se movendo, fornecendo uma base racional para a previsão do tempo. Um primeiro sistema europeu de aviso de tempestades surgiu em 1860. Nos Estados Unidos, um serviço federal de meteorologia foi votado em 1870, tornando-se, em 1891, o Escritório do Tempo.
Muitos processos pressionavam no sentido de uma padronização do tempo, como já destacou Peter Galison (2003). Na Inglaterra, o sistema ferroviário adotou o horário do meridiano de Greenwich para suas operações em 1847. Para a meteorologia era necessário adotar a observação sincronizada do tempo segundo a mesma hora universal. Em 1883, os EUA adotaram o mesmo sistema padrão de zonas de hora, com Greenwich como primeiro meridiano.
4 A PRIMEIRA CLIMATOLOGIA
Embora a estrutura geral da atmosfera tenha sido estabelecida em meados do século XIX, a relação geral entre a circulação e o clima permaneceu pouco compreendida. A climatologia era, antes de 1914, dominada por abordagens qualitativas e estudos regionais.
Edwards recupera a análise de Nebeker (1995) mostrando a divisão da meteorologia, no século XIX, em três campos distintos, cada um com uma relação diferente com os dados numéricos. Aqueles voltados para a previsão do tempo desenvolveram métodos que não problematizavam as causas que não afetavam as previsões, priorizando as cartas sinópticas e as isolinhas como técnicas de visualização e valorizando a experiência prática dos meteorologistas. Os físicos aplicados ou meteorologistas teóricos abordavam o tempo dedutivamente, através da física teórica (dinâmica dos fluidos, física dos gases etc.). Aqui também a quantificação permanecia pouco importante porque não existiam métodos numéricos para dar conta do movimento da atmosfera. O terceiro campo era o dos empiristas, que consideravam a atmosfera um sistema muito complexo, que deveria ser abordado dedutivamente, a partir da análise das observações e não dos fundamentos da mecânica do movimento, calor e comportamento dos gases. É desse campo que Edwards vê emergir, através do uso de métodos estatísticos, na virada para o século XX, uma climatologia ligada não à meteorologia, mas à geografia.
Na sequência, Edwards retoma a descrição feita por Spencer Weart em The discovery of global warming para mostrar como o problema das mudanças climáticas vinha sendo estudado com sucesso, no século XIX, pelos meteorologistas teóricos a partir da física e da química. A geologia tinha estabelecido que a Terra era muito antiga e havia passado tanto por diversas eras glaciais, como conhecido climas muito quentes. Fourier, Tyndall e Arrhenius assentaram gradativamente, ao longo do século XIX, as bases para o estudo do efeito estufa, seu impacto na definição do clima e o papel central do dióxido de carbono nisso. Mas entre 1900 e 1905, Angstrom e outros concluíram (incorretamente, descobriu-se depois) que o efeito do vapor d’água sobre a temperatura da Terra seria muito superior ao do CO2. A teoria do dióxido de carbono desapareceu da climatologia até o final dos anos 1930 para reemergir com as pesquisas de Guy Callendar, que apontou de maneira mais precisa seu impacto sobre o clima global.
Mas os climatologistas permaneceram céticos em relação ao trabalho de Callendar. A razão para isso foi, segundo Edwards, a fricção de dados, conceito que ele utiliza para descrever o trabalho necessário para converter os dados em informações úteis. Estamos acostumados a naturalizar a atual capacidade de computação, não levando em conta que ela é muito recente. Antes, computadores eram enormes máquinas frágeis que consumiam vasta quantidade de energia e eram alimentados por cartões perfurados. Antes ainda, computadores eram pessoas com lápis e máquinas simples. “Cada cálculo requer tempo, energia e atenção humana. Esses gastos de energia e recursos limitados no processamento de números pode ser chamado de fricção computacional” (p. 83), por analogia à resistência dos sistemas físicos. “Sistemas de informação transformam dados (entre outras coisas) em informação e conhecimento. A fricção computacional se opõe a essa transformação; ela expressa a resistência que deve ser superada, a luta sociotécnica com os números que sempre precede a recompensa. A fricção computacional reduz a quantidade de informação e conhecimento que pode ser extraída de um dado insumo” (p. 83).
5 O ADVENTO DA PREVISÃO POR CÁLCULO NUMÉRICO
Desde que Vilhelm Bjerknes mostrou que os grandes sistemas de tempo podiam ser descritos por equações de movimento e estado abriu-se a possibilidade da previsão numérica do tempo. Bjerknes criou uma teoria do tempo a partir das leis da dinâmica de fluidos, descrevendo o tempo a partir de sete variáveis: pressão, temperatura, densidade, umidade e as três dimensões do movimento. Dado um estado inicial, essas equações permitiam a sua previsão, não a partir de uma experiência subjetiva analisando mapas sinópticos, mas a partir do cálculo objetivo baseado em leis físicas. Mas, há um século, resolver essas equações era extremamente difícil, dados os métodos matemáticos disponíveis. Bjerknes dirigiu sua atenção, então, para a meteorologia prática, estabelecendo o que é conhecido como Escola de Bergen.
A Primeira Guerra transformou a meteorologia em uma atividade militar importante. Assimilando a experiência prática adquirida na Alemanha, Bjerknes e seus colaboradores redefiniram os conceitos básicos de previsão do tempo. A Escola de Bergen visualizava o tempo como a colisão entre massas descontínuas de ar. Tempestades ocorriam quando duas frentes de massas colidiam; entre 1919 e 1920, a Escola desenvolveu a noção de frente polar. Sua abordagem tridimensional tornou-se particularmente útil com o desenvolvimento da aviação comercial. A Escola de Bergen tinha impulsionado a previsão do tempo com técnicas e conceitos descritivos e não teóricos, uma ironia para o cientista que tinha demonstrado a possibilidade da previsão matemática do tempo.
A Segunda Guerra deu novamente centralidade à meteorologia e, ao final dos combates, até mesmo o controle do tempo passou a ser concebido como uma possível arma, caso se conseguisse manejar os cálculos numéricos (hoje sabemos que isso é ilusório, mas depois da primeira bomba atômica tudo parecia possível aos militares e cientistas norte-americanos). John von Neuman, um dos maiores matemáticos do século XX e um falcão da Guerra Fria, concebeu o uso dos primeiros computadores para esse trabalho. Com respaldo militar e incorporando também o sueco Carl-Gustav Rossby, Neuman usou seu prestígio para impulsionar o Projeto Meteorológico, uma iniciativa que integrava o desenvolvimento do computador digital segundo a arquitetura projetada por ele e a resolução dos problemas matemáticos ainda pendentes para a previsão do tempo. Inicialmente avançando lentamente, o Projeto ganhou impulso quando Jule Charney tomou a frente da parte matemático-meteorológica da iniciativa, em 1948. O projeto tornou-se operacional em 1952: com o novo computador, uma previsão de 24 horas exigia duas horas e meia de tempo de trabalho a toda velocidade. A previsão por cálculo numérico tornou-se operacional nos EUA em maio de 1955 e acurada em 1958. Iniciou-se, então, uma nova etapa da meteorologia, envolvendo novos avanços na teoria e nos métodos matemáticos, mas principalmente uma demanda sempre crescente de capacidade de computação. Dobrar a resolução de uma grade meteorológica tridimensional significava multiplicar por oito o volume de dados processados, um enorme problema para os computadores de então.
Edwards observa que os serviços de meteorologia empenharam-se em uma corrida pela previsão numérica do tempo com computadores porque as velhas técnicas tinham chegado a seu limite, porque representavam uma transição geracional para uma meteorologia cientificamente mais sofisticada e porque Charney, Rossby e von Neuman articularam um programa de pesquisa e desenvolvimento claro para a previsão numérica do tempo. Além disso, os militares ofereciam apoio político e financeiro ao projeto. Os computadores ainda levariam muitos anos para se tornarem comercialmente viáveis. Mas as promessas eram altas – incluindo a inteligência artificial – e seguravam os projetos mesmo quando fracassavam. Em meados dos anos 1960, os computadores tinham propiciado a reunificação da previsão do tempo com a meteorologia teórica.
6 OS MODELOS DE CIRCULAÇÃO GERAL
O capítulo “A previsão infinita” trata do impacto do computador na climatologia. Essa transição não foi liderada pelos climatologistas mas pelos cientistas trabalhando com a meteorologia teórica e a programação de computadores. Esses novos climatologistas não buscavam regularidades estatísticas no clima, mas simular o clima com modelos semelhantes aos utilizados na previsão numérica do tempo. Eles moveram-se gradualmente em direção a simular o sistema Terra como um todo, replicando o mundo em uma máquina.
As consequências eram enormes. “Se você pode simular o clima, você pode fazer experimentos. Como Deus, você pode mover continentes, fazer o Sol brilhar ou empalidecer, adicionar ou subtrair gases do efeito estufa ou encher a estratosfera com poeira. Você pode cozinhar a Terra ou congelá-la e ninguém reclamará. Então você pode observar e ver o que acontece” (p. 139). Como os sistemas são muito complexos, você isola e manipula as variáveis consideradas mais importantes. Mas não há nenhum controle – exceto um ocasional experimento natural, como uma erupção vulcânica capaz de afetar todo o planeta por um ano ou dois. John von Neuman, que veio do Projeto Manhattan, foi um dos poucos que compreenderam o que significava você poder manipular os procedimentos computacionalmente.
Tornou-se, então, possível formular modelos de circulação atmosférica global ou geral (MCG), que representavam o último degrau do programa de pesquisa meteorológica de von Neuman, possibilitando o que ele chamava de previsão infinita. Esses modelos permitiam reunificar as três dimensões da meteorologia separadas no século XIX – previsão do tempo, teoria e climatologia empírico-estatística. Edwards descreve sucessivos modelos de circulação geral produzidos depois dos anos 1950, destacando aqueles que estiveram na origem, depois, de dezenas de outros. Além disso, o desenvolvimento de um MCG pressupunha acesso a supercomputadores, algo inicialmente caro e difícil, e era condicionado pela capacidade de processamento das máquinas, que cresceu exponencialmente. Se o IBM 701, utilizado em 1956-57, tinha uma performance relativa de 1, em 1974 o Texas X4ASC tinha uma performance de três mil. E entre 1978 e 2006 esse avanço foi de 90 mil vezes. A difusão de supercomputadores permitiu a multiplicação dos centros de climatologia que podiam construir seus próprios modelos; nos anos 1990, 33 grupos apresentaram seus MCGs para um projeto de comparação entre eles. A climatologia se tornou uma das grandes usuárias de supercomputadores do mundo, atrás apenas do desenvolvimento de armas nucleares e da física de partículas.
7 DADOS GLOBAIS, GLOBALIZAÇÃO DOS DADOS E GUERRA DE DADOS
Os capítulos 8 a 12 de A vast machine reconstituem o desenvolvimento da infraestrutura informacional sobre o tempo e o clima: como os dados do clima global são coletados (making global data) e como eles são analisados e modelados para serem utilizados pelos climatologistas (making data global). Nos anos 1950, os cientistas trabalhando com MCG perceberam que não tinham dados suficientes, “pelo menos não nos formatos corretos (padronizados e processáveis por computador), dos lugares certos (de grades uniformes em diferentes alturas) e das horas certas (observações tomadas simultaneamente ao redor do globo). O computador… agora também se tornou uma ferramenta para refinar, corrigir e moldar dados para responder às necessidades dos modelos. Enquanto isso, os modelos começaram a moldar as estratégias de aquisição de dados” (p. 187). Isso incluía, por vezes, desenvolver modelos intermediários capazes de criar dados para áreas do mundo onde não existiam observações. “Virtualmente tudo o que nós hoje chamamos de ‘dados globais’ não foi simplesmente coletado; foi checado, filtrado, interpretado e integrado por modelos computacionais” (p. 188).
Os imperativos geopolíticos da Guerra Fria interferiam na circulação de dados sobre o tempo e o clima, cuja estrutura era, nos anos 1950, por quase toda parte, militar. Além disso, os testes atmosféricos de armas nucleares também demandavam previsões acuradas do tempo e dos movimentos das nuvens de poeira radioativa. E o monitoramento deveria ajudar a detectar explosões nucleares a distância e a avaliar a precipitação radioativa, o que estimulou progressos no estudo do ciclo do carbono e das mudanças climáticas, e resultou, por exemplo, na quantificação anual do aumento da quantidade de CO2 na atmosfera (de 315 partes por milhão em 1957 para mais de 400 ppm hoje).
O resultado desse processo conflitivo e colaborativo foi o Observatório Mundial do Tempo da Organização Meteorológica Mundial, a primeira estratégia global de trabalho entre redes. O globalismo infraestrutural foi bem sucedido porque adotou uma estratégia flexível, capaz de impulsionar a convergência de interesses das agências nacionais. Nessa etapa, a “era dos satélites” já trazia novos problemas. Com a utilização cotidiana de dados coletados por sensoriamento remoto, que suprem a falta de dados onde não existem estações meteorológicas terrestres ou em altas altitudes, a climatologia passou a trabalhar com quantidades colossais de dados ainda mais heterogêneos.
A ciência tinha agora que tornar os dados globais, construindo conjuntos de dados completos, coerentes e consistentes a partir de fontes incompletas, inconsistentes e heterogêneas. Produzir dados globais envolve padronizar a coleta e a comunicação dos dados, algo essencial para reduzir a fricção dos dados pela redução da sua variação e da complexidade. Não existem, pois, os dados brutos sobre o clima que reclamam os negacionistas. “Se você quer dados globais, você tem que produzi-los. Você faz isso invertendo a infraestrutura, recuperando metadados e usando modelos e algoritmos para misturar e suavizar dados diversos e heterogêneos que são distribuídos de forma desigual no espaço e no tempo” (p. 321).
8 OS MODELOS E A POLÍTICA DO CLIMA
Os dois capítulos finais tratam da relação entre modelos, dados e a política atmosférica. O autor evidencia como o aquecimento global tornou-se um problema político. Nos anos 1980, emergiam, sob o governo Reagan e seu projeto Guerra nas Estrelas, a questão do “inverno nuclear”, da política para fazer frente ao buraco na camada de ozônio e, após a Conferência de Villach, na Áustria, em 1985, do aquecimento global, que não abandonou mais o terreno da política global. “Juntos e separadamente, essas preocupações manifestaram o tema de que a atividade humana podia afetar a atmosfera da Terra não apenas local e regionalmente – como ‘poluição’ – mas em uma escala planetária. Em 1992, o aquecimento global tinha aterrissado na Conferência das Nações Unidas sobre o Ambiente e o Desenvolvimento, que culminou na Convenção-Quadro das Nações Unidas sobre Mudança Climática” (p. 358). O autor mostra como, ao longo dessas controvérsias, a modelagem se estabelece como uma fonte legítima de conhecimento relevante para orientar a ação política. E conclui que a ciência do clima afirmou-se na política, nos anos 1980, quando os cientistas começaram a estabilizar um conjunto de modelos preditivos ligados principalmente ao aquecimento global. “Consideradas heurísticas, essas figuras, princípios e tendências permaneceram essencialmente as mesmas desde então” (p. 359).
O capítulo final tem como foco o IPCC e a forma como vem se dando o debate sobre o clima desde 1990. O IPCC é uma instituição verdadeiramente global, uma agência intergovernamental sob os auspícios da ONU, conduzida quase que inteiramente por cientistas. Sua tarefa é rever periodicamente o conhecimento produzido na área, envolvendo milhares de colaborares na tarefa e publicando suas conclusões. Conforme críticas são feitas, sua metodologia de trabalho é alterada para reforçar a legitimidade de seus resultados. A análise das controvérsias climáticas descrita por Edwards mostra como as polêmicas públicas e o monitoramento de uma blogosfera crítica terminam por reforçar o processo de ciência, ao trazerem a controvérsia para dentro do consenso. A transparência em um processo tão amplo e sólido como o do IPCC, respaldado não em uma disciplina, mas em um conjunto delas, cada uma com seus próprios métodos, acaba sendo útil para eliminar vieses e fortalecer a pesquisa para além da comunidade científica. Isso permite que um setor amplo da sociedade respalde a atividade científica não como produtora de verdades absolutas, mas do melhor conhecimento possível, com todas as incertezas e conclusões provisórias que lhe são inerentes.
É nesse sentido que Edwards conclui o livro questionando uma corrente contemporânea dos estudos de ciência e tecnologia que, tendo afirmado corretamente o caráter social da construção do conhecimento, mergulha em um relativismo radical, restringindo a ciência a uma forma de conhecimento entre as demais e colocando uma suspeita corrosiva sobre todo o conhecimento por ela produzido. É importante reconhecer o caráter provisório desse conhecimento, mas também reconhecer que a ciência é capaz de incorporar a controvérsia no processo de construção de consensos. É o melhor conhecimento que somos capazes de obter. O livro de Paul Edwards é uma referência obrigatória para a epistemologia da ciência do clima. Seus méritos ficam evidentes. Mas não podemos concluir estes comentários sem pontuar uma lacuna importante, inclusive porque é central para os problemas que o autor trata: o estudo de Edwards não abarca as reconstruções do clima passado a partir da paleoclimatologia, uma área das ciências do clima em grande expansão nas décadas recentes, embora muitos elementos de sua argumentação sobre os modelos também possam ser estendidos para ela. Mas isso não empalidece o brilho da obra de Edwards e sua contribuição para o entendimento de uma das fronteiras da ciência contemporânea.
Referências
EDWARDS, P. N. The closed world: computers and the politics of discourse in cold war America. Cambridge: The MIT Press, 1996.
____. A vast machine: computers models, climate data, and the politics of global warning. Cambridge: The MIT Press, 2010.
GALISON, P. Einstein’s clock, Poincaré’s maps. Empires of time. Norton: New York, 2003.
HARPER, K. Weather by the numbers: the genesis of modern meteorology. Cambridge: The MIT Press, 2008.
NEBEKER, F. Calculating the weather. Meteorology in the 20th century. San Diego: Academic Press, 1995.
WEART, S. The discovery of global warming. Cambridge: Harvard University Press, 2008.
José Correa Leite – Faculdade de Comunicação. Fundação Armando Álvares Penteado, São Paulo, Brasil. Bolsa de pós-doutorado da Fapesp junto ao Projeto Temático (2011/51614-3) “Gênese e significado da tecnociência: das relações entre ciência, tecnologia e sociedade”. E-mail: jcleite@dglnet.com.br
[DR]
Filosofia da tecnologia: um convite – CUPANI (SS)
CUPANI, Alberto. Filosofia da tecnologia: um convite. Florianópolis: Editora da Universidade Federal de Santa Catarina (UFSC), 2011. Resenha de: CRUZ, Cristiano Cordeiro. Desbravando a tecnologia. Scientiæ Studia, São Paulo, v.12, n. 3, p. 601-5, 2014.
David Wallace, romancista norte-americano, inicia um de seus textos com uma passagem provocativa: “dois peixinhos estão nadando juntos e cruzam com um peixe mais velho, nadando em sentido contrário. Ele os cumprimenta e diz:
– Bom dia, meninos. Como está a água?
Os dois peixinhos nadam mais um pouco, até que um deles olha para o outro e pergunta:
– Água? Que diabo é isso?” (Wallace, 2008, p. 105).
Nesse texto, que é um discurso de paraninfo para uma turma de graduandos, Wallace discorre sobre questões existenciais profundas, tão urgentes e presentes ao ser humano, na sua busca por construção de sentido, quanto usualmente por nós negligenciadas.
Não é exatamente desse tipo de questões que Cupani se ocupará em sua obra Filosofia da tecnologia: um convite. Contudo, assim como a água da história de Wallace, a tecnologia, de tão presente em nossas vidas, costuma apresentar-se como se transparente. Com efeito, desde as máquinas que facilitam o nosso dia-a-dia, até as técnicas que tornam a cura de doenças mais eficaz, a tecnologia está por toda parte. Que diabos, no entanto, é de fato a tecnologia? Ela é passível de ser socialmente controlada ou se desenvolve de maneira automática e autônoma? Ela é neutra, estando imune a valores sociais, ou, ao contrário, incorpora-os, alterando-se em função dos valores específicos que a moldam? Se ela incorpora valores, quais questões éticas são ou poderiam ser pertinentemente levantadas com relação ao processo de seu desenvolvimento? Ela impacta a vida humana individual e coletiva? Que nível de controle político, democrático, é lícito requerer em contrapartida? Que tipo de conhecimento fundamenta a atividade técnica?
Dessa forma, no sentido de oferecer ao leitor uma primeira aproximação filosófica ao tema, com algumas alternativas de respostas às questões anteriores, Cupani propõe-nos uma jornada que parte da percepção da complexidade disso que se chama tecnologia, até chegar à análise do que se convencionou chamar “determinismo” ou “autonomia” tecnológica. É assim que, no primeiro capítulo, a tecnologia será descortinada em sua multiplicidade e ambivalência, como um modo de fazer coisas, associado a um saber, diante do qual não apenas cabem, mas urgem serem feitas indagações de ordem ontológica, epistemológica, axiológica e ético-política. Tais questões não são abordadas separadamente nos capítulos que se seguem, à exceção talvez dos três últimos, mas apresentadas de modo transversal ao longo da maior parte do texto, valendo-se, para isso, também de contribuições vindas da história e da sociologia.
Ao iniciar sua análise sobre o fenômeno tecnológico, Cupani apresenta, no segundo capítulo, os estudos clássicos da área, de autores que escreveram antes da criação do ramo de filosofia da tecnologia, que se consolida apenas nos anos 1970. Os três primeiros – Ortega y Gasset, Heidegger e Gehlen – abordaram o fenômeno tecnológico a partir de suas compreensões de mundo mais amplas, buscando apontar, a partir delas, tanto a causa da gênese da tecnologia e sua transformação ao longo do tempo (mormente a transformação trazida com a modernidade), quanto seus impactos benéficos e maléficos sobre o ser humano. O quarto é o francês Gilbert Simondon, que, além de filósofo, também era engenheiro. Sua análise é considerada pioneira na área, esmiuçando a tecnologia a partir de dentro, ou seja, a partir do olhar do engenheiro. Sua compreensão é que desconhecemos a tecnologia, razão que nos leva a julgá-la de maneira inadequada, demonstrando, com isso, mais a tacanhez de nossa cultura do que propriamente consequências de fato negativas do desenvolvimento tecnológico. A tecnicidade, ou seja, a essência da tecnologia, deve ser concebida, segundo o autor, como um modo de relação do homem com o mundo (ao lado do estético, do religioso etc.), que caracteriza a maneira com que fomos aprendendo a lidar com a natureza. Assim, para Simondon, faltar-nos-ia uma educação tecnológica desde a infância que nos ajudasse a nos colocarmos no mundo no mesmo nível que as máquinas, elevando-nos em nossa cultura, segundo as possibilidades oferecidas por elas.
No terceiro capítulo, Cupani apresentará a visão do historiador Lewis Mumford sobre a tecnologia. Este, ao analisar transformações significativas por que passa a Europa no final da Idade Média, compreende a máquina moderna como a conjugação de duas importantes disposições humanas da época: a vontade de dominar o ambiente, aliada à vontade de poder. Dessa associação adviria a ruptura com o passado cultural, a crescente exploração do trabalhador e a poluição ambiental, a que se somarão, posteriormente, a forte colaboração da ciência e o surgimento da figura característica da sociedade industrial, o técnico especializado. Nosso desafio atual seria, então, o de superarmos o mito da máquina, assumindo-nos não como homo faber, mas como homo sapiens, seres que, em sendo capazes de pensar, são capazes de conceber e utilizar ferramentas, além de serem capazes de diversas outras coisas. Desse modo, ao imperativo clássico da técnica – o de que há uma única velocidade eficiente: mais rápido; um único destino atraente: mais longe; uma única medida desejável: maior; uma única meta quantitativa racional: mais – precisamos responder com o desenvolvimento das outras incalculáveis potencialidades de autoatualização e autotranscendência que temos em nós.
Daí em diante, Cupani apresentará as análises e reflexões de diversos filósofos da tecnologia. É assim que o quarto capítulo traz a análise conceitual de Mario Bunge; o quinto mostra a interpretação do significado da experiência humana condicionada pela tecnologia segundo Don Ihde, Hubert Dreyfus e Albert Borgmann (estudos de inspiração fenomenológica e hermenêutica); e o sexto expõe a relação entre tecnologia e o exercício do poder de acordo com Langdon Winner e Andrew Feenberg. Em síntese, Bunge propõe uma tecnologia axiologicamente não neutra, calcada em conhecimento técnico e científico irredutíveis um ao outro, e desenvolvida por tecnólogos eticamente imputáveis pelas consequências do uso dos artefatos por eles projetados. Os fenomenólogos, em seu esforço por descrever pormenorizadamente todos os matizes do fenômeno tecnológico, sublinham aspectos importantes usualmente não percebidos de nosso ser-tecnologicamente-no-mundo, alertando-nos, dentre outras coisas, com respeito à tendência desumanizadora de nos “tecnologizarmos”. Por fim, Winner e Feenberg, ainda que por caminhos e análises distintas, sustentam que a tecnologia também é vetor de valores sociais, de sorte que o controle político e democrático sobre o seu desenvolvimento é não apenas possível, dentro de certos limites, como altamente desejável.
Nos três últimos capítulos, ao expor o entendimento de distintos autores, Cupani aprofunda alguns aspectos epistemológicos (capítulo 7), sociais, políticos e existenciais (capítulo 8), e ontológicos (capítulo 9) da tecnologia, em boa medida já tocados nos capítulos anteriores. Insiste então na existência de um conhecimento técnico irredutível ao científico, ainda que possa existir significativo grau de interdependência entre eles, sendo ambos necessários para o desenvolvimento tecnológico. Além disso, malgrado diversos indícios do forte impacto da tecnologia em nossa vida, que afeta nossa forma de experimentar e significar a existência individual e coletiva, o juízo positivo ou negativo disso está em boa medida relacionado às ideologias às quais se vincula aquele que o emite. O cuidado na análise crítica da tecnologia deve ser, então, o de buscarmos sempre despirmo-nos de nossas preconcepções, de modo a, por exemplo, não tomarmos como certo, geral ou universal – e, por isso, potencialmente terrível –, aquilo que é de origem múltipla, local ou circunstancial. Por fim, no que tange ao argumento da impossibilidade de se controlar o desenvolvimento técnico, a partir do momento em que ele é posto em movimento, tal coisa parece dar-se menos por um poder irresistível e inato da tecnologia, do que por uma progressiva adesão muitas vezes inconsciente de nossos semelhantes ao “projeto tecnológico”. Assim, ainda que pareçam existir aspectos essencialmente inalteráveis na tecnologia, não está dado nela que sejamos obrigados a prestar-lhe culto e/ou a nos adequarmos a todos os seus propósitos (supostamente) despóticos.
Na leitura de Filosofia da tecnologia: um convite, é importante que tenhamos em mente uma advertência expressa de Cupani com relação ao que ele pretendeu com a obra: ser uma iniciação para quem não conhece o tema e não domina outras línguas (de modo que não teria condições de recorrer a outros bons livros introdutórios e à boa parte dos autores por ele aqui tratados, que não contam ainda com traduções para o português). Nesse sentido, o autor realiza bastante bem sua tarefa, apresentando diversos dos aspectos essenciais relacionados à reflexão filosófica sobre a tecnologia de modo usualmente claro, sucinto e provocativo. Trata-se, entretanto, de um livro de filosofia. Dessa forma, o leitor deverá estar ciente de que, para compreendê-lo, não poderá proceder a uma leitura meramente mecânica: ele precisará estar disposto a refletir.
A característica marcante da obra é que ela oferece um amplo panorama sobre o tema, uma coletânea de pontos de vista nem sempre contraditórios, mas muitas vezes potencialmente complementares. A ideia, também explicitamente expressa, do autor não é fechar uma definição e uma compreensão canônicas acerca da tecnologia, até porque tal coisa continua em ampla disputa. Sua intenção é suscitar em nós a inquietação que nos fará buscar aprofundarmos nossa compreensão e nossa análise sobre o assunto. Cupani logra, em diversas partes de seu livro, um feito notável: possibilitar ao leitor não apenas enxergar e ser capaz de analisar de forma crítica a “água” tecnológica em que habita, mas, tão importante quanto isso, questionar suas próprias preconcepções. Com efeito, ainda que apresente o tema majoritariamente a partir da ótica de pensadores críticos, sua abordagem se dá segundo uma perspectiva “desarmada”, que possibilita ou fundamenta um diálogo, muito mais do que mune fundamentalistas de dogmas, verdades ou intransigências. Em um tempo no qual nossa dificuldade de dialogar com o diferente, de escutá-lo, torna-se mais evidente ou mais potencializada pelas redes sociais, tal obra cumpre um papel bastante interessante, mostrando-nos não apenas a característica multifacetada do fenômeno técnico, como as possibilidades de enriquecimento de nossa compreensão dele a partir de uma abordagem plural, que conjuga argumentos tradicionalmente atribuídos às esquerdas e às direitas ideológicas, em um todo menos panfletário do que aquilo que usualmente encontramos. Exatamente por isso, mais afeito à honestidade intelectual.
Seu texto, então, ajuda-nos a compreender melhor o fenômeno tecnológico, abandonando as certezas próprias daqueles que desconhecem; a percebermos possibilidades de afetá-lo, de incidirmos sobre ele, sem demonizá-lo; e a buscarmos aprofundarmo-nos na compreensão da tecnologia, superando preconceitos, naturalizações e fatalismos. Dessa forma, o livro fornece mais consciência acerca da realidade técnica em que estamos inseridos. Ao fazer isso, se não nos lança diretamente nos mesmos tipos de questões existenciais apresentadas por Wallace, nem por isso ajudanos menos na tarefa de construirmos, individual e coletivamente, uma vida que valha realmente a pena ser vivida, sem aprisionamentos ou apequenamentos contingentes, vendidos ou assumidos como inevitáveis ou insuperáveis. Talvez, como afirma Feenberg (2002), a tecnologia não seja destino, mas construção, opção. E se é de fato assim, faz-se mister, antes de tudo, aprofundar-se no assunto.
Referências
CUPANI, A. Filosofia da tecnologia: um convite. Florianópolis: Editora da Universidade Federal de Santa Catarina, 2011.
FEENBERG, A. Transforming technology: a critical theory revisited. New York: Oxford University Press, 2002.
WALLACE, D. F. A liberdade de ver os outros. Revista Piauí, 25, p. 105, 2008. Disponível em: <http:// revistapiaui.estadao.com.br/edicao-25/despedida/a-liberdade-de-ver-os-outros>. Acesso em: 04 fev. 2014
Cristiano Cordeiro Cruz – Programa de Pós-Graduação em Filosofia. Pesquisa de doutorado, financiada pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Processo 2013/18757-0. Departamento de Filosofia, Faculdade de Filosofia, Letras e Ciências Humanas. Universidade de São Paulo, Brasil. E-mail: cristianoccruz@yahoo.com.br
[DR]
Lévi-Strauss e as Américas: análise estrutural dos mitos – DOMINGUES (SS)
DOMINGUES, Ivan. Lévi-Strauss e as Américas: análise estrutural dos mitos. São Paulo: Edições Loyola, 2012. Resenha de: SILVA, Evaldo Sampaio da. O grau zero da diferença? Scientiæ Studia, São Paulo, v.12, n. 3, p. 591-9, 2014.
Quando publicou O grau zero do conhecimento, Ivan Domingues se defrontava admiravelmente com um objeto ao qual iria destinar toda a sua carreira desde então, a saber, o problema da fundamentação das ciências humanas, não por acaso o subtítulo dessa obra inaugural. Oriundo de uma tese de doutorado defendida na Sorbonne, o livro era inspirado por uma senda aberta sobretudo por As palavras e as coisas, cujo autor, Michel Foucault, Domingues teve a oportunidade de acompanhar in loco em dois cursos ministrados no Collège de France. Os cursos, intitulados “Le souci de soi” e “L’usage des plaisirs”, foram ministrados por Foucault, respectivamente, em 1981 e 1983, na cátedra de História dos Sistemas de Pensamento. Em 1982, Domingues também teve a oportunidade, no mesmo Collège de France, de acompanhar o último curso que Claude Lévi-Strauss ministrou, antes de sua aposentadoria, na cátedra de Antropologia social. Mas Domingues (1991) não pretendia simplesmente dar continuidade ao instigante programa de estudos entrevisto por Foucault, senão subvertê-lo em seu próprio solo conceitual ao propor que a noção de episteme – moderna – que surge das investidas genealógicas e arqueológicas do mestre francês não seria apenas uma, mas várias, e que, por isso, quanto às ciências humanas cultivadas entre os séculos XVII e XIX, poderíamos discriminar pelo menos três estratégias discursivas epistemicamente díspares, no caso, a “essencialista”, a “fenomenista” e a “historicista”. A estratégia essencialista se edificaria em torno da metafísica e do método lógico-metafísico (Port Royal) e metafísico-matemático (Spinoza); o discurso fenomenista fora instituído pela física, sobretudo com o método empírico-dedutivo (Montesquieu) e o matemático-experimental (Smith); já a terceira estratégia discursiva viria a lume dos estudos históricos conduzidos pelo método positivo-comparado (Bopp) e dialético-hipotético-dedutivo (Marx). Para justificar tais desconfianças, empreendeu-se ali uma leitura ampla e erudita por áreas como a economia, a linguística, a política e a história. O resultado foi “um ensaio sobre as diferentes formas de pensar que conformaram a Episteme moderna” (Domingues, 1991, p. 9) no qual se buscou explicitar, com base naquelas estratégias discursivas e seus respectivos métodos, o nascimento do “espírito geométrico”, do “espírito positivo” e do “espírito histórico”, os quais representam as distintas e irredutíveis figuras de pensamento que constituíram as ciências humanas no período. Dessas figuras de pensamento, o espírito ou consciência histórica, com sua inclinação relativista e niilista, instauraria uma conjuntura na qual o problema mesmo da fundamentação do conhecimento e, por conseguinte, da fundamentação das ciências humanas, cai em descrédito, sendo preciso doravante pensá-lo em “bases absolutamente novas” (1991, p. 10).
Após alguns trabalhos nos quais aquilatou e repercutiu as conclusões daquela primeira grande investida (por exemplo, O fio e a trama: reflexões sobre o tempo e a história, de 1996, reeditado posteriormente em francês em 2000), Domingues publica o Epistemologia das ciências humanas, Tomo I: positivismo e hermenêutica, fruto de sua tese de habilitação para o cargo de Professor Titular do Departamento de Filosofia da Universidade Federal de Minas Gerais. Se a obra O grau zero visava o problema da fundamentação das ciências humanas quando de sua “pré-história” moderna e concluía pela necessidade de uma reconsideração de toda a problemática, chegara o momento oportuno de procurar tal reconsideração nos paradigmas e modelos das ciências do homem no século XX. Nesse ínterim, tratou-se ali das “formas de racionalidade e estratégias discursivas” (Domingues, 2004, p. 17) pelas quais Émile Durkheim (o “positivista”) e Max Weber (o “hermeneuta”) delinearam duas das principais vias das chamadas “ciências sociais” e, por conseguinte, de como a concretização destas contribui decisivamente para repensar a questão fundacional. Obteve-se assim um estudo de fôlego no qual o leitor se depara com duas concepções paralelas de “construtivismo social”, a saber, o projeto durkheimiano para instaurar a sociologia como ciência empírica autônoma, especialmente com seus estudos sobre o suicídio, e o projeto weberiano para fundar a sociologia como uma “ciência compreensiva objetivante”, principalmente com suas pesquisas de sociologia da religião. Mas o fio condutor para tal investigação adveio de “uma pequena e instigante passagem de Lévi-Strauss segundo a qual o grande desafio das ciências humanas é pensar a diferença”, ou seja, conciliar no pensamento fenômenos irredutíveis e por vezes conflitantes. Isto levou o epistemólogo à conjectura de que, no domínio do social, “a diferença é primitiva e a identidade derivada” (cf. Domingues, 2004, p. 22). Por tal conjectura é possível esclarecer, sob nova chave de leitura, por que o primado da categoria de identidade impediu as principais estratégias discursivas (essencialista, fenomenista, historicista) que permearam a pré-história das ciências do homem de responderem apropriadamente ao problema do fundamento e como isso levou essa questão a cair em descrédito. Além disso, auferir as várias maneiras distintas de tratar a diferença, a oposição e a contradição no âmbito do social permite ao epistemólogo enfim pensar o problema da fundamentação das ciências humanas em bases absolutamente novas. Para tanto, cunhou-se um repertório de conceitos e perguntas que lhe permitiram apreciar e comparar as doutrinas daqueles protagonistas das ciências sociais, tais como as chamadas tipologias das formas de racionalidade (que discriminam as articulações dicotômicas, triádicas, ramificadas etc., pelas quais são discutidas a diferença e a diversidade social), o tripé metodológico descrição / explicação / interpretação (que permite ponderar as dificuldades de ajuste entre o discurso, a teoria e a pesquisa empírica), a noção de objetividade nas ciências humanas proposta ou apenas pressuposta pelas abordagens examinadas (e como aquela as conduziu à condenação dos expedientes introspectivos e a tratar os fenômenos sociais como um conjunto de “formas objetivadas”) (2004, p. 17-9). A rigor, essa empreita sequer exigia que um Weber ou um Durkheim se comprometessem inteiramente com a primazia da diferença quanto às ciências do homem, sendo o suficiente que naqueles se encontrassem elementos apropriados para justificar conceitual e historicamente essa orientação.
Com Lévi-Strauss e as Américas: análise estrutural dos mitos, Domingues alcança o ponto nevrálgico de sua iniciativa epistemológica através de uma leitura abrangente e penetrante do maior antropólogo francês. Previsto inicialmente como o segundo tomo de Epistemologia I – e enfim escrito e publicado de modo independente –, este novo trabalho continua o projeto de refletir sobre a fundamentação das ciências humanas a partir do primado da diferença, porém tomando por objeto uma disciplina em particular, a antropologia, ou, mais precisamente, a antropologia estrutural. Mas por que, após um livro dedicado às estratégias discursivas exemplares das protociências humanas e outro concentrado nas principais abordagens positivistas e hermenêuticas das ciências sociais, Domingues escreve um terceiro ato que consiste em um estudo tão somente da antropologia estrutural de Lévi-Strauss? Em primeiro lugar, porque, como dito, fora uma passagem de Lévi-Strauss que fornecera a gazua para adentrar nas abordagens positivistas e hermenêuticas, sendo ele, portanto, uma referência primordial no percurso ora ensejado. Em segundo lugar, porque, como se verá a seguir, a urdidura do livro pretende mostrar como a antropologia estrutural lévi-straussiana – da qual a análise dos mitos representa o coração selvagem do sistema – parece fornecer ao epistemólogo o caminho mais fecundo, a despeito de seus obstáculos e riscos, para a fundamentação das ciências humanas.
O cerne de Lévi-Strauss e as Américas é composto por uma introdução de caráter programático e metodológico, seis capítulos temáticos e uma breve conclusão. A introdução repõe o problema da fundação das ciências humanas e, se é verdade que em nada contradiz ao programa geral redigido nos prefácios dos trabalhos anteriores, alcança um esclarecimento metódico superior. Novas perguntas sobre a questão fundacional incitam à distinção entre o “fundamento histórico ou arqueológico” (archaios), diacrônico e facultado à história ou sociologia da ciência, e o “fundamento epistemológico ou arquitetônico” (arché), conduzido pela ideia de princípio ou ponto de partida e da alçada da epistemologia da ciência (p. 15). Enquanto a história ou sociologia da ciência estudam as instâncias sancionadoras de um campo disciplinar sobretudo em seus aspectos públicos e institucionais, à epistemologia cabe inquiri-las em função do âmbito conceitual e sincrônico. O exame epistemológico dessas instâncias sancionadoras quando de uma ciência empírica requer uma atenção não apenas para o seu modus cognoscendi, porém igualmente para seu modus operandi (cf. p. 11), uma vez que a coerência interna do discurso precisa ser equilibrada com os procedimentos pelos quais os cientistas levam adiante suas pesquisas e assim constituem seus procedimentos de prova e contraprova. Daí que o problema da fundação das ciências humanas tenha por objeto um discurso científico e não somente proposições ou cadeias linguísticas, o que incita o epistemólogo a adotar uma via alternativa e polêmica àquelas comumente franqueados pela filosofia analítica, o positivismo lógico ou a filosofia da ciência de orientação popperiana. Dissonante ao exame “externalista” das instâncias sancionadoras públicas e institucionais ou às análises “internalistas” das proposições e das cadeias linguísticas, a pergunta pela cientificidade de uma ciência humana conduz a um estudo sobre como a coerência (conceitual) de um campo disciplinar se constitui em meio aos procedimentos pelos quais os próprios cientistas ratificam instâncias sancionadoras (históricas). Uma tal epistemologia histórica e conceitual da ciência se aproxima de autores como Bachelard, Canguilhem, Kuhn e permite refletir tanto o percurso já concluído por Domingues em trabalhos anteriores quanto aquele porvir, a saber, o estudo da cientificidade da antropologia estrutural.
Enquanto metadiscurso, a epistemologia reivindica que seu discurso-objeto tenha obtido certa estabilidade em sua prática teórica e institucional, a despeito de seus antagonismos. Constata-se que “houve um tempo (…) em que a antropologia foi considerada uma disciplina exótica e uma espécie de chiffonière das ciências humanas” e que, posteriormente, “já consolidada e com bastante lastro, a disciplina ganhou aura de prestígio e o status de ciência-piloto das ciências humanas” (p. 18). Que tal prioridade se tenha obtido sobretudo pela contribuição de Lévi-Strauss ratifica que o problema da fundamentação seja então posto em particular para essa disciplina-piloto e sob a perspectiva de seu mais destacado representante. Como nos seus primórdios a antropologia estrutural competia com a antropologia social britânica (cujos principais expoentes eram Malinowski e Radcliffe-Brown) e a antropologia cultural americana (com Boas, Kroeber, Tylor, Löwie e Morgan), dedica-se um primeiro capítulo (“O estruturalismo e as ciências humanas”) a explicar como o paradigma estrutural impactou as ciências humanas e, em particular, a antropologia lévi-straussiana. Retoma-se, inicialmente, a distinção entre a noção de “estrutura”, já registrada em francês desde o século XVI a partir do latim structura, que significava “construir, edificar e erigir (sentido próprio e figurado), e também, desde os tempos romanos, empilhar ou dispor em camadas”, e a noção de “estruturalismo”, que “ao incorporar novas e importantes significações, como disposição, forma, ordem e organização, chega às ciências humanas e sociais” (p. 27-8). Desse modo, pode-se resguardar a anterioridade e independência da noção de estrutura quanto ao estruturalismo, o que permite equilibrar a flutuação semântica deste termo e recontar o seu surgimento por três etapas: a proto-história, que, nos anos 1940, associa correntes díspares e sem relação direta umas com as outras, como a Gestalt, o Círculo linguístico de Praga ou a Escola formalista de Copenhague; a fase histórica, que registra a consolidação e apogeu do paradigma estrutural entre os anos de 1950 e 1980 e teria como marco regulador As estruturas elementares do parentesco, de Lévi-Strauss, bem como um conjunto de artigos e estudos de Jakobson no campo fonológico e literário; o pós-estruturalismo, cuja origem nos anos 1980 é uma consequência do lento e gradual processo de esgotamento e declínio institucional do paradigma que se seguiu ao “maio de 1968” (cf. p. 30-1). Após diferenciar nessa conjuntura quatro paradigmas estruturalistas (a saber, linguístico, antropológico, psicanalítico e semiótico-literário), Domingues discute como Lévi-Strauss constitui o paradigma antropológico por uma apropriação bastante peculiar da linguística estrutural e como tal apropriação obteve tanto êxito que, em seguida, a própria linguística estrutural será substituída pelo paradigma antropológico, como disciplina modelo e única capaz de conduzir o ambicioso projeto então em voga de unificação das ciências do homem. Para certificar como Lévi-Strauss transpõe para a antropologia os operadores da linguística estrutural, o capítulo reserva suas últimas seções a ilustrar como essa apropriação original ocorre de modo exemplar no estudo das estruturas do parentesco e dos mitos.
Uma vez dilucidado como se desenvolveu o paradigma estrutural a partir da noção mais ampla e anterior de estrutura, bem como se firmou o estruturalismo antropológico com base no paradigma estrutural das ciências humanas, o segundo capítulo, “Lévi-Strauss, a etnologia e a fundação da antropologia estrutural”, revela como o antropólogo francês encontra nos componentes que definem o programa estruturalista das ciências humanas – o “construtivismo epistemológico”, o paradigma da linguagem, o “modelo” e o tripé (metodológico) descrição/explicação/interpretação – uma alternativa às abordagens antropológicas de cunho social e cultural, afastando-se destas a tal ponto que se poderia falar mesmo de uma “refundação” desse campo disciplinar. A originalidade de Lévi-Strauss estaria em retomar temas tradicionais das antropologias concorrentes, tais como a análise do parentesco e da organização social, bem como do mito e das religiões primitivas, sob a hipótese de que “a estrutura será o elemento comum e o traço de união que permitirá ao antropólogo operar o diverso das comunidades humanas, reconhecendo as diferenças que as apartam e as semelhanças que as aproximam” (p. 94). Mais precisamente, em vez de buscar a cientificidade dos estudos do parentesco e dos mitos pelo inventário das gêneses e repertoriar as mudanças que estabelecem as funções das coisas, trata-se antes de “descobrir e evidenciar as estruturas que as abrigam e subjazem à diversidade dos fenômenos”. Como a noção de estrutura se constitui acima de tudo enquanto um sistema de diferenças e oposições, Lévi-Strauss não visará, portanto, a busca por semelhanças e sim “a tarefa de analisar e interpretar as diferenças” (p. 95). Diante de tais procedimentos, pode-se explicar como a antropologia estrutural conquista para a ciência um conjunto de temas até então difusos e mesmo disputados por diversas áreas, dentre os quais os sistemas mitológicos e as representações religiosas dos povos primitivos ocupam lugar de destaque. Enquanto tradicionalmente se recusou aos mitos qualquer racionalidade ou uma suposta racionalidade facultada pela sociedade ou pela natureza, Lévi-Strauss consegue com o paradigma estrutural obter “a chave [para a análise científica] do mito no próprio mito, em cuja base ele vê o trabalho do pensamento simbólico, em um processo que se passa por inteiro no interior do pensamento” (p. 151).
Ao garantir ao mito, ou, melhor dizendo, aos sistemas mitológicos, uma lógica interna que lhes atesta inteligibilidade própria e enfim torná-los objeto de investigação científica, Lévi-Strauss assegura a efetividade das ciências humanas num âmbito no qual até ali qualquer procedimento racional parecia arbitrário e extrínseco. Por isso, o terceiro capítulo, “A análise estrutural dos mitos: vias e variantes”, é decisivo para indicar como a antropologia estrutural tem no exame dos mitos a pedra de toque para a fundamentação das ciências humanas. Trata-se de elucidar em pormenor como LéviStrauss faz “ciência de uma coisa tão disparatada, em que a imaginação e o arbitrário” parecem se impor sobre “a lógica e a regularidade (…) onde imperam o tudo pode e as histórias contadas dão lugar a um verdadeiro breviário da estupidez humana” (p. 139). Após reconstituídas as mais influentes concepções sobre o estatuto do mito desde a Antiguidade até o estruturalismo francês, classificam-se e hierarquizam-se os vários trabalhos de Lévi-Strauss quanto ao tema, reconstituindo-se a intenção e os resultados por ele obtidos em seu itinerário. Para melhor precisar tais intenções e resultados, o quarto capítulo, “Um mito paradigmático: A Gesta de Asdiwal”, toma como exemplar uma série de formulações e reformulações do antropólogo francês em torno de um estudo alentado, inicialmente objeto de um curso proferido na École Pratique. A vantagem epistemológica de tomar a Gesta como paradigma e não, por exemplo, as Mitológicas, principal obra de Lévi-Strauss no estudo dos mitos, deve-se a que aquela, diferente da extrema fragmentação do corpus desta, oferece um mito completo e suas variantes, o que permite ao epistemólogo melhor avaliar a fecundidade e as adversidades da antropologia estrutural. Trata-se, portanto, de uma prioridade arquitetônica, a qual autoriza lançar luz sobre trabalhos historicamente anteriores e até mais relevantes, porém menos fecundos epistemologicamente.
Os quatro primeiros capítulos constituem o primeiro arco do livro, seguindo uma direção que vai do mais geral para o particular – da noção de estrutura ao estruturalismo, do estruturalismo ao estruturalismo nas ciências humanas, deste ao estruturalismo antropológico de Lévi-Strauss, e deste último a um estudo paradigmático de LéviStrauss, a Gesta. Os capítulos seguintes traçam outro arco no qual se trata de pensar a singularidade archeológica do que fora até aqui obtido, e assim a questão fundacional retorna ao primeiro plano em definitivo. O quinto capítulo, “As dualidades fundadoras da antropologia estrutural: o caso do sistema mitológico ameríndio”, para além das intenções e resultados manifestos pelo antropólogo em seus estudos sobre os sistemas mitológicos, oferece uma interpretação do pensamento lévi-straussiano segundo a qual este opera primordialmente com díades e instala um conjunto de operações binárias, mas também mediações pelas quais incorpora tríades e figuras mistas, extrapolando assim o binarismo inicial e constituindo enfim um “sistema aberto e plural” (p. 255). A hipótese de Domingues é que a maneira pela qual Lévi-Strauss articula essas categorias epistemológicas subjacentes, já avultadas quando do estudo de Weber e Durkheim no Epistemologia I, permite mostrar e justificar a superioridade da antropologia estrutural para “pensar a diferença”, de modo que seu exame oferece, no âmbito epistêmico, as tais novas bases para o problema da fundamentação das ciências humanas.
O sexto capítulo aborda “O impacto da obra de Lévi-Strauss: legados, críticas e caminhos”, complementando as incursões conceituais do capítulo anterior por um balanço das repercussões da antropologia lévi-straussiana, em especial dos principais desafios por ela enfrentados. Nesse ponto, alguns apreciadores e adversários do eminente antropólogo francês são trazidos à baila e suas contribuições avaliadas, as quais auxiliam o epistemólogo na tarefa de indicar os limites e as carências do projeto antropológico-estrutural. Dentre esses, merecem destaque as críticas de filósofos como Claude Lefort, para quem “Lévi-Strauss é um platônico [que] despreza a história e apreende na sociedade regras em vez de comportamentos” (p. 365); Paul Ricouer, segundo o qual Lévi-Strauss “esvazia o sentido dos mitos [e] professa um estranho kantismo” ao “instalar um sistema de categorias sem o sujeito transcendental” (p. 365); e Jacques Derrida, que acusa a antropologia lévi-straussiana de “logocentrismo” (p. 366). Por outro lado, há antropólogos da escola anglo-saxã, como Edmund Leach, para quem os métodos de Lévi-Strauss conduzem para “onde tudo é possível e nada é verdadeiro”, apreciação que é complementada pelo influente Rodney Needham, o qual vê nas categorias que vigoram nas Estruturas elementares do parentesco uma “generalização abusiva” (p. 367-8). Afora o debate mais amplo da obra de Lévi-Strauss, Domingues documenta o conflito especializado para com hipóteses e trabalhos específicos, como o “mito de Édipo” e, obviamente, as Mitológicas e A gesta de Asdiwal.
As virtudes e vícios do projeto antropológico-estrutural dão azo para um balanço final que confirma a fundação da antropologia – e, por conseguinte, das ciências humanas – e aponta os novos desafios que lhe são reservados. Em primeiro lugar, a despeito do fim da “moda estruturalista”, a obra de Lévi-Strauss parece ainda conservar o seu vigor, de modo que Domingues, rejeitando alguns seguidores do mestre francês, como Eduardo Viveiros de Castro, que o leem como um “pós-estruturalista” avant la lettre, defende que Lévi-Strauss manteve-se sempre fiel a sua orientação original, sendo, portanto, um “estruturalista da velha e boa cepa” e, seguramente, o último “epígono” e “fortaleza” do movimento (cf. p. 80). Em segundo lugar, para além dos estudos dos chamados povos primitivos e da temática do selvagem, a antropologia se volta agora para outras linhas de pesquisa, tais como a antropologia simbólica (Geertz), a antropologia da performance ou pragmática (V. Turner), a antropologia desconstrutivista pós-moderna (J. Clifford e G. Marcus) e a antropologia cognitiva (D. Sperber). Sem dúvida essas novas vias também se preocupam em “pensar a diferença”; todavia, parece que aqui há um dissenso quanto ao significado dessa máxima que chega às raias da antonímia. Se para essas antropologias recentes pensar a diferença significa tratar de assuntos e/ou grupos restritos e até marginalizados, para Lévi-Strauss a diferença precisa ser cogitada num âmbito mais primordial. A consequência direta disso é a contraposição consciente que o antropólogo francês entreviu entre seu projeto de “aderir às coisas mesmas” pela busca do “sentido virtual e de posição” e a empreita pós-moderna de perquirir o “sujeito” e o “sentido por trás dos sentidos” (cf. p. 395-6). Para o epistemólogo, essa bifurcação da antropologia – e, por que não dizer, das próprias ciências humanas – encena as variantes pelas quais os pensadores procuraram lidar com a diferença irredutível dos fenômenos humanos. Uma hipótese que Domingues não escancara, mas também não disfarça, é que essas linhas pós-modernas – sobretudo hermenêuticas segundo a avaliação de Lévi-Strauss – descenderiam justamente do abandono da questão fundacional após o advento do espírito histórico, já apresentado no desfecho de O grau zero. Assim, acompanhar a antropologia estrutural lévi-straussiana significaria caminhar junto daquele modo de pensar a diferença que ainda conserva consigo a relevância da questão fundacional.
Lévi-Strauss e as Américas é o desenlace de uma trilogia iniciada com O grau zero do conhecimento e seguida por Epistemologia das ciências humanas. Embora cada um desses trabalhos possa ser lido separadamente, a sua conjunção constitui o audacioso projeto de fundamentação das ciências humanas cumprido por Ivan Domingues nas últimas três décadas. Felizmente, a sensação do leitor não é a do esgotamento, porém a constatação das peças dispostas sobre o tabuleiro à espera de um vindouro lance inaudito. O livro prova que Domingues deixou o melhor para o final. Uma última consideração, talvez extemporânea. Com a consolidação da pesquisa filosófica de pós-graduação no Brasil – da qual o professor Domingues é parte efetiva no plano acadêmico e institucional –, o novo desafio (nem tão novo assim) é consolidar uma produção filosófica local e que ouse desbravar caminhos para além dos cânones da metrópole ideal. Há quem pense que isso significa fazer história da filosofia de pensadores nacionais, tratar de temas ditos “regionais” ou buscar desesperadamente por gêneses “tupiniquins”. Falta aqui alcançar a sagacidade de um Machado de Assis, o qual, numa fórmula célebre, atestara que um pensador pode ser “homem do seu tempo e do seu país, ainda quando trate de assuntos remotos no tempo e no espaço” (Assis, 1979, p. 804), espezinhando aqueles que “só reconhecem espírito nacional nas obras que tratam de assunto local” (p. 803). Ora, assim como Lévi-Strauss não deixa de ser francês ao escrever os seus Tristes trópicos, no qual reflete antropologicamente sobre suas experiências com os índios brasileiros, Domingues não deixa de ser brasileiro ao refletir epistemologicamente sobre Lévi-Strauss. Ou seja, tanto como pareceu atual e pertinente aos europeus o que um antropólogo teria a dizer sobre os ameríndios, para nós é atual e pertinente ouvir o que um epistemólogo tem a dizer sobre o olhar antropológico projetado em nossos conterrâneos. A questão, portanto, talvez não seja de base “histórica ou arqueológica” (archaios), mas quem sabe “epistemológica ou arquitetônica” (arché). Nesse sentido, o projeto epistemológico que culmina com Lévi-Strauss e as Américas não estaria também a nos ensinar um caminho para o nosso amor à sabedoria?
Referências
COUTINHO, A. (Org.). Obra completa de Machado de Assis. Rio de Janeiro: Aguilar, 1979. 4v.
ASSIS, M. Notícia da atual literatura brasileira: instinto de nacionalidade. In: Coutinho, A. (Org.). Obra completa de Machado de Assis. Rio de Janeiro: Aguilar, 1979. v. 3, p. 801-9.
DOMINGUES, I. O grau zero do conhecimento: o problema da fundamentação das ciências humanas. São Paulo: Loyola, 1991.
_____ O fio e a trama: reflexões sobre o tempo e a história. São Paulo: Iluminuras, 1996.
. _____. Le fil et la trame: refléxions sur le temps et l’histoire. Paris: L’Harmattan, 2000.
_____. Epistemologia das ciências humanas. Tomo I: positivismo e hermenêutica. São Paulo: Loyola, 2004.
_____. Lévi-Strauss e as Américas: análise estrutural dos mitos. São Paulo: Loyola, 2012.
Evaldo Sampaio da Silva – Departamento de Filosofia. Universidade de Brasília, Brasil. E-mail: evaldosampaio@unb.br
[DR]
El camino desde Kuhn. La inconmensurabilidad hoy – LORENZANO; NUDLER (SS)
LORENZANO, Pablo; NUDLER, Oscar (Org.). El camino desde Kuhn. La inconmensurabilidad hoy. Madrid: Biblioteca Nueva, 2012. Resenha de: O’LERY, María de las Mercedes. Discusiones actuales acerca de la tesis de inconmensurabilidad. Scientiæ Studia, São Paulo, v.11, n.2, p.437-42, 2013.
La idea de que las teorías separadas por una revolución científica son inconmensurables fue sugerida, de manera independiente, por Thomas S. Kuhn (1962) y Paul Feyerabend (1962) a inicios de la década de 1960. Desde entonces y hasta nuestros días, la tesis de inconmensurabilidad, así como sus polémicas implicancias, han ocupado un papel protagónico en las discusiones en torno a los estudios acerca de la ciencia.1 Un variado número de problemas derivados de la tesis de inconmensurabilidad, tales como el cambio de significado, la referencia de los términos teóricos, la racionalidad y los aspectos cognitivos del cambio científico, sus implicancias para las concepciones realistas y anti-realistas acerca de las teorías científicas, entre otros, pueden encontrarse analizados en una importante compilación de trabajos de un número de distinguidos investigadores editada por Paul Hoyningen-Huene y Howard Sankey, y publicada por primera vez hace ya más de una década bajo el título Incommensurability and related matters (Hoyningen-Huene & Sankey, 2001).
El libro, El camino desde Kuhn. La inconmensurabilidad hoy, que aquí se reseña, y que apareció publicado en los últimos meses de 2012, constituye una nueva colección de artículos de reconocidos investigadores pertenecientes a Brasil, Colombia, España, Estados Unidos, México y Argentina, organizados en torno a un eje temático principal que recorre la obra como un todo: la noción de “inconmensurabilidad” en la obra de Thomas S. Kuhn. En este caso, la compilación y edición de los doce trabajos que componen la obra estuvo a cargo de dos destacados investigadores argentinos: Pablo Lorenzano, doctor en Filosofía por la Universidad Libre de Berlín, y Oscar Nudler, doctor en Filosofía por la Universidad Nacional de la Plata, ambos pertenecientes al Consejo Nacional de Investigaciones Científicas y Técnicas de Argentina.
El primero de esta serie de trabajos lleva por título “Inconmensurabilidad y dominios de aplicación” y su autor es Otávio Bueno. El autor se ocupará del problema de la inconmensurabilidad en tanto fenómeno asociado con cambios en el dominio de aplicación de las teorías y en tanto desafío para las concepciones realistas sobre el desarrollo de la ciencia (realismo científico estándar y realismo estructural). Con respecto de cómo entender la noción de dominio de aplicación, Bueno analiza dos enfoques: la concepción orientada a objetos y la concepción contextualista. Ésta última, junto con el enfoque de estructuras parciales, son propuestas como posibilitando una noción de dominio de aplicación sensible a los detalles de la práctica científica, dando cuenta de los aspectos centrales de ésta última y reconociendo la presencia de una inconmensurabilidad exenta de conclusiones relativistas.
El segundo trabajo pertenece a José A. Díez quien, en “Inconmensurabilidad, comparabilidad empírica y escenas observacionales”, tendrá por objetivo defender que ni desde una perspectiva lingüística ni desde una modeloteórica es posible elucidar satisfactoriamente la comparabilidad y rivalidad empíricas apelando exclusivamente a los conceptos de las teorías (tanto T-teóricos como T-no teóricos) que usan en la formulación de sus leyes. Si se desea elucidar de modo general la idea de que dos teorías son rivales o se ocupan de lo mismo, no podemos restringirnos a los recursos conceptuales internos a las teorías mediante los que las teorías formulan sus leyes, es decir, hay que buscar en otra parte, hay que buscar fuera de las teorías por así decir. Para ello, Diez apunta brevemente dos direcciones en que se puede dirigir la búsqueda para la identificación de dichos elementos.
El tercer artículo es “Comparación epistémica de teorías inconmensurables, sin fundamentismo”. A lo largo de este trabajo, José L. Falguera considerará condiciones ontosemánticas para la comparabilidad entre dos teorías inconmensurables rechazando la consideración de que las experiencias perceptuales sean suficientes para dar cuenta de las porciones compartidas entre las teorías inconmensurables.
El cuarto trabajo pertenece a Luis Fernández Moreno quien, en “Consideraciones críticas sobre la tesis de la inconmensurabilidad de Kuhn”, propone dos líneas de crítica a la tesis de la inconmensurabilidad de Kuhn, una basada en la noción de traducción y otra en la de referencia. De la lectura del análisis de Fernández Moreno parecería concluirse que los seguidores de la tesis de la inconmensurabilidad de Kuhn tendrían algunas tareas pendientes: la defensa del idealismo relativista y de una versión fuerte de la teoría descriptiva de la referencia, por lo que concierne a los términos (de género) centrales de las teorías científicas, o, al menos, la formulación de una teoría de la traducción diferente de la propuesta por Kuhn y que permita hacer de la tesis de la inconmensurabilidad de teorías una tesis interesante y plausible.
El quinto es el de Adriana Gonzalo: “Patrones de descubrimiento, inconmensurabilidad y clases. Un caso ejemplar”. En él puede encontrarse un análisis de la inconmensurabilidad teórica, en relación a los problemas en la organización taxonómica, implicada en la actividad científica. El interés de la autora está puesto en brindar apoyo a la tesis de la inconmensurabilidad teórica, a la que denominará “versión débil”, sobre la base de los argumentos de la conformación taxonómica del mundo y del rol del lenguaje en la constitución categorial de las clases que posibilitan dicha organización. El trabajo pone a consideración un caso histórico que ejemplificaría como un elemento de juicio a favor de la tesis kuhniana acerca de que existen elementos a-priori, que operan en nuestro conocimiento, pero que no son del tipo kantiano trascendental, sino culturales y, en general, históricamente determinantes.
El sexto artículo es “¿Es compatible la idea de inconmensurabilidad no trivial con la de progreso científico? Algunas razones a favor de su compatibilidad”. Su autor, Juan Manuel Jaramillo Uribe, aborda el problema del progreso científico en los casos de teorías separadas por una revolución científica, o sea, el llamado “progreso revolucionario” mostrando algunos de los intentos tendientes a establecer que, pese a los cambios semánticos radicales cuando se produce el desalojo de una teoría, la posibilidad de comparar teorías inconmensurables y, en consecuencia, hablar de “progreso científico” no es algo imposible e injustificado. Uribe apela al llamado “giro semántico” en filosofía de la ciencia defendiendo que los problemas metateóricos planteados por Kuhn sólo alcanzan una satisfactoria y precisa comprensión adoptando una nueva forma de concebir la naturaleza y evolución de las teorías, tal como lo constituye la concepción estructuralista de las teorías científicas.
En séptimo lugar, en su trabajo “Acerca de la inconmensurabilidad”, César Lorenzano ofrece un análisis de la noción de inconmensurabilidad tanto en sus orígenes matemáticos como en Kuhn, mostrando su razonabilidad desde el punto de vista del lenguaje común y del científico. En este trabajo, el autor defiende la existencia de un supuesto ontológico y epistémico en las críticas a la inconmensurabilidad el cual comportaría un platonismo.
Siguen, entonces, dos artículos pertenecientes a los editores de este volumen. En el primero de estos, Pablo Lorenzano presenta “Estructuras y aplicaciones intencionales: inconmensurabilidad teórica y comparabilidad empírica en la historia de la genética clásica”, donde explora la posibilidad de tratar la historia de la genética clásica en términos de los tipos de fenómenos diacrónicos identificados como de “cambio intratéorico” (ciencia normal) y de “cambio intertéorico” (revolución inicial, cristalización y revolución científica). El autor presenta los conceptos “inconmensurabilidad teórica” y “comparabilidad empírica”, productos de establecer una relación entre la noción kuhniana de inconmensurabilidad y la concepción estructuralista de las teorías, y muestra como dichas categorías pueden ser exitosamente aplicadas al caso particular de la genética. A continuación, Oscar Nudler, escribe “Inconmensurabilidad y metáfora”, trabajo en él cual, a partir de un análisis acerca de la tesis de inconmnensurabilidad – en lo que respecta a su primera caracterización, sus cuestionamientos y posteriores reformulaciones por parte de Kuhn –, el lector encontrará un acabado intento por distinguirla de otra forma de inconmensurabilidad, también a nivel lingüístico, que se produce entre dos teorías cuando sus conceptos y, por lo tanto, las teorías mismas, están estructurados por metáforas diferentes.
El décimo artículo de la serie lleva el título “Recuperando la inconmensurabilidad axiológica” y, en él, Ana Rosa Pérez Ransanz, asumiendo la intuición original de “falta de una métrica común” entre paradigmas rivales como el núcleo de la idea kuhniana de inconmensurabilidad, traza una distinción entre inconmensurabilidad semántica (o más propiamente, ontosemántica) e inconmensurabilidad axiológica. La autora intenta argumentar que ambas dimensiones de la inconmensurabilidad están en la base de un genuino pluralismo epistemológico, capaz de deslindarse de los relativismos estériles.
El penúltimo trabajo pertenece a Andrés Rivadulla quien, en su artículo “La tesis de la inconmensurabilidad y el desarrollo de la física”, ofrece una discusión acerca de la viabilidad de la tesis de inconmensurabilidad a partir del análisis de los términos teóricos “planeta”, “flogisto” y “masa” y su supuesta inconmensurabilidad. El autor asume que la tesis conocida como de dependencia contextual del significado se encontraría a la base de la noción de inconmensurabilidad, y se muestra cómo el análisis dimensional posibilitaría el uso simultáneo de “teorías inconmensurables” en un mismo dominio, lo que aportaría una dificultad difícilmente salvable para la teoría filosófica de la inconmensurabilidad.
La serie de trabajos culmina con el artículo de Mauricio Suárez, “Hacking Kuhn: los límites de la inconmensurabilidad”. El lector podrá encontrar, en este caso, una lectura de la obra de Kuhn en clave del movimiento del nuevo experimentalismo o escuela de Stanford. Si bien el análisis ofrecido no se centra sobre la noción de inconmensurabilidad, las implicaciones deben ser obvias para cualquier lector con una familiaridad mínima con la obra de Kuhn. La implicación importante y decisiva que se sigue de este trabajo es que los límites de la tesis de inconmensurabilidad vienen dados por el marco formal del conocimiento científico que es asumido y que, en el marco que provee el nuevo experimentalismo, la inconmensurabilidad se vería circunscrita al dominio de las teorías científicas y no afectaría a la mayor parte del conocimiento científico de tipo experimental.
La serie de trabajos publicados, tal como puede verse a lo largo de los breves resúmenes de cada uno de los artículos, retoma la discusión de algunos de los problemas tradicionalmente asociados a la tesis de inconmensurabilidad a la vez que incorpora nuevos elementos al debate.
La oferta, en la colección de artículos, es variada. Pueden encontrarse consideraciones acerca de la tesis de inconmensurabilidad y sus consecuencias en cuanto a la comparabilidad entre teorías empíricamente rivales. En este sentido, puede leerse acerca de la necesidad de considerar elementos externos a las teorías que permitan elucidar en qué consiste el que dos teorías sean rivales o se ocupen de lo mismo (como lo propondrá Díez), así como de establecer condiciones ontosemántica para la comparabilidad entre teorías (como lo considera Falguera).
Otra cuestión a mencionar corresponde al tratamiento de la inconmensurabilidad en vistas de los problemas propios de la organización taxonómica de la actividad científica, en el marco de cuyo tratamiento pueden encontrarse elementos de juicio adicionales a favor de la tesis kuhniana (tal como lo hace Gonzalo).
También se ofrecen nuevas líneas de crítica a la tesis de la inconmensurabilidad kuhniana basadas en las nociones de “traducción” y “referencia” (como ocurre en el trabajo de Moreno), tanto como nuevas consideraciones respecto de los supuestos ontológicos y epistémicos que podrían pensarse a la base de la tesis de inconmensurabilidad (como en el caso del trabajo de Rivadulla) o bien a la base de las críticas más importantes a la tesis de inconmensurabilidad en lo que respecta a la supuesta imposibilidad de traducir el lenguaje de una teoría al de otra (como puede leerse en el trabajo de C. Lorenzano).
A las anteriores discusiones se suma aquella en la que se reflexiona acerca de la inconmensurabilidad en Kuhn y su relación con una inconmensurabilidad en lo que respecta a las metáforas presentes en la ciencia (como lo hace Nudler), tanto como acerca de la distinción entre una inconmensurabilidad ontosemántica y una inconmensurabilidad axiológica (como lo hace Ransanz).
Por último, a partir de varios de los trabajos que la conforman, esta obra incorpora a las discusiones tradicionales acerca de la inconmensurabilidad la consideración de nuevos enfoques que podrían resultar muy útiles para un análisis más acertado de la idea de inconmensurabilidad y sus consecuencias. En tal sentido, puede leerse acerca de la problemática de los dominios de aplicación de las teorías y el análisis de la tesis de inconmensurabilidad en relación con el enfoque de estructuras parciales (como ocurre en el trabajo de Bueno), pero también acerca de una más precisa comprensión de la noción de inconmensurabilidad a partir de considerarla en términos de la concepción estructuralista de las teorías (como puede verse en los trabajos de Jaramillo y de P. Lorenzano) y, finalmente, acerca de la inconmensurabilidad desde el punto de vista del nuevo experimentalismo (como lo hace Suárez).
Finalmente, en cuanto al volumen como un todo, el análisis de la tesis de inconmensurabilidad abordado por cada uno de los autores, sumado a las distintas hipótesis que aparecen esbozadas y que encuentran, a medida que se avanza en la lectura de los trabajos, argumentos que las van precisando y reforzando, convierten a esta obra en un texto de escrutinio necesario debido al acertado ejercicio en cada uno de los artículos por actualizar el escenario de debate en torno a una de las más importantes tesis kuhnianas.
Notas
1 Para introducciones generales acerca de la noción de inconmensurabilidad y de su recepción, en las concepciones tanto de Kuhn como de Feyerabend, pueden consultarse los recientes trabajos de Bird (2011), Preston (2009), Oberheim & Hoyningen-Huene (2009) y Sankey (2006).
Referências
BIRD, A. Thomas Kuhn. In: Zalta, E. (Ed.). Stanford Encyclopedia of Philosophy. Stanford: Stanford University Press, 2011. Disponible en: <http://plato.stanford. edu/archives/fall2011/entries/thomaskuhn/>. Acceso en: 20 feb. 2013.
FEYERABEND, P. Explanation, reduction and empiricism. In: Feigl, H. & G. Maxwell (Ed.). Minnesota Studies in the Philosophy of Science. Minneapolis: University of Minnesota Press, 1962. v. 3, p. 28-97.
HOYNINGEN-HUENE, P. & Sankey, H. (Ed.). Incommensurability and related matters, Dordrecht: Kluwer Academic Publishers. 2001.
KUHN, T. S. The structure of scientific revolutions. Chicago: University of Chicago Press, 1962.
OBERHEIM, E. & P. Hoyningen-Huene. The incommensurability of scientific theories. In: Zalta, E. (Ed.). Stanford Encyclopedia of Philosophy. Stanford: Stanford University Press, 2009. Disponible en: <http:/ /plato.stanford.edu/entries/ incommensurability/>. Acceso en: 20 feb. 2013.
PRESTON, J. Paul Feyerabend. In: Zalta, E. (Ed.). Stanford Encyclopedia of Philosophy, Stanford: Stanford University Press, 2009. Disponible en: <http://plato.stanford.edu /entries/feyerabend/>. Acceso en: 20 feb. 2013.
SANKEY, H. Incommensurability. In: Sarkar, S. & J. Pfeifer (Ed.). The Philosophy of Science: An Encyclopedia. New York: Routledge, 2006. v. 1, p. 370-3.
María de las Mercedes O’Lery – Doctoranda de la Universidad Nacional de Quilmes. Consejo Nacional de Investigación Científica y Técnica. Argentina. E-mail: mercedesolery@yahoo.com.ar
[DR]
Mente, linguagem e significado – SILVA FILHO (SS)
SILVA FILHO, Valdomiro. Mente, linguagem e significado. Organização de Waldomiro Silva Filho. São Paulo: Alameda Casa Editorial, 2010. Resenha de: MARTINS, Paula Mousinho. Autoconhecimento e perspectivas externistas: o compatibilismo em debate. Scientiæ Studia, São Paulo, v.11, n. 2, p. 427-35, 2013.
O livro compõe uma instigante coletânea de textos dos quais – não obstante sua ampla variedade temática, e para salientar apenas seu viés epistemológico – uma das preocupações precípuas é discutir as consequências céticas do externismo em relação ao autoconhecimento. Com efeito, para além do contexto semântico ao qual esteve inicialmente referido,1 o ponto de vista externista cria obstáculos não só para a própria definição de mente, mas também, em sua versão mais radical, para a possibilidade desta última conhecer seus próprios estados intencionais de modo direto, transparente e infalível, tal como sempre defenderam as chamadas “filosofias da consciência” desde Descartes. Essa visão aguda do externismo inviabiliza, portanto, a “autoridade especial” que a primeira pessoa parece intuitivamente deter sobre o conteúdo de seus próprios pensamentos (sejam eles verdadeiros ou falsos), pois põe em xeque a capacidade de atribuirmo-nos e conhecermos de modo privilegiado estados cuja natureza e conteúdo dependem de condições que não podemos conhecer desse mesmo modo. Segue-se que, para ter ciência de minhas próprias crenças, desejos ou intenções, necessito da mediação empírica do mundo, já que o conteúdo intencional desses meus estados mentais depende, pelo menos em parte, das relações que estabeleço com o meu meio ambiente natural e social.
Mas isto não é tudo; além de pretender destruir o tradicional reduto autocognoscível da subjetividade, esta nova e desafiadora modalidade de ceticismo também rejeita a suposição de que meus estados intencionais sobrevenham localmente às minhas disposições físicas ou neurais individuais, isto é, sejam determinados por eventos do meu cérebro. Se a fisiologia cerebral de fato determinasse minhas ocorrências mentais intencionais, qualquer mudança nessas últimas implicaria mudança neurológica ou cerebral concomitante – mas isto é justamente o que o externismo radical recusa ao supor que elementos exteriores à fisiologia intracraniana possam causar a individuação (e a mudança) de conteúdos mentais intencionais. Logo, a estados cerebrais idênticos ou indiscerníveis nem sempre corresponderão pensamentos e crenças idênticos.
Contestar a autoridade de primeira pessoa, o autoconhecimento e a superveniência mente/cérebro foi justamente o alvo maior de Hilary Putnam ao construir, em 1975, o célebre experimento mental das “Terras gêmeas” para fundamentar sua hipótese de que o significado das palavras “não está na cabeça”.2 Putnam lançava, assim, as bases do “externismo natural”, segundo o qual a determinação dos conteúdos intencionais depende da estrutura fisico-química “essencial” (não fenomênica) da realidade material a que os atos intencionais se referem. Em outros termos, o sujeito ignorará o conteúdo ou referência das palavras que usa sempre que ignorar a composição molecular das substâncias naturais a que essas palavras se referem. Quatro anos mais tarde, Tyler Burge (1979), apoiando-se igualmente num experimento mental baseado em situação contrafactual, formula as principais características do “externismo social” (que ele preferiu chamar de anti-individualismo). Sua intenção era demonstrar que a individuação dos estados mentais, intencionais ou representacionais do sujeito depende, de um modo constitutivo, não da estrutura material profunda dos objetos como queria Putnam, mas das relações que tal sujeito mantém com seu entorno linguístico e social. Dos experimentos de Putnam e Burge, em todo caso, é possível extrair a mesma conclusão externista de que, se os meios sociais e naturais de cada um deles diferirem, a dois sujeitos dotados de estados psicofísicos indiscerníveis podem ser atribuídos significados e crenças distintos. Da mesma forma, se tais meios vierem a se modificar, os conteúdos ou significados dos pensamentos e crenças dos sujeitos neles inseridos necessariamente também se alterarão.
Burge, entretanto, não vai tão longe quanto Putnam no que tange à refutação do autoconhecimento. Para ele, os juízos do “tipo cogito”, isto é, os pensamentos de 2ª ordem autoverificáveis devido a sua forma autorreferencial (por exemplo: penso que estou pensando que a água é úmida) são casos inquestionáveis de autoconhecimento privilegiado, de modo que o aspecto externista dos conteúdos mentais deve poder compatibilizar-se com o acesso especial (não empírico, imediato ou direto) que o sujeito tem sobre seus próprios pensamentos, sem que isso todavia implique na adoção do modelo cartesiano.
Os artigos reunidos no livro Mente, linguagem e significado – organizados pelo editor em seis partes ou eixos temáticos: (1) Anti-individualismo, autoconhecimento e ceticismo; (2) compatibilismo e incompatibilismo; (3) do ponto de vista da primeira pessoa e verdade; (4) conteúdo, referência e normatividade; (5) consequências do antiindividualismo; (6) linguagem e consciência – debruçam-se todos, de um modo ou de outro, sobre os problemas epistemológicos acima mencionados e, nessa medida, posicionam-se no interior da polêmica que há mais de trinta anos divide os compatibilistas e os incompatibilistas em relação à questão do autoconhecimento.
Paulo Faria (“Anti-individualismo e autoconhecimento: uma exposição elementar”) inicia a primeira parte meditando, em tom aparentemente simples e pessoal mas que acaba revelando grande complexidade, sobre os paradoxos envolvidos em “se pensar e não se saber o que se está pensando”. Se, para saber o que penso quando penso que “há água nos arredores”, preciso saber de antemão que se encontram satisfeitas determinadas condições objetivas sem as quais, ao pensar “há água nos arredores”, eu não estaria pensando precisamente em água e sim em outra coisa, então de fato não sei o que eu mesmo penso. Entretanto, por que eu deveria supor que o antecedente (há água nos arredores) desse condicional é verdadeiro? Descartada a obrigatoriedade de uma tal suposição, resta que me é dado apenas querer que tal antecedente seja verdadeiro e, a partir de então, estipular a ocorrência de um “fato novo”, a ser explicitado por uma nova teoria etc. Dada a inevitável insuficiência do procedimento, o autor nos leva a concluir que a premissa externista incompatibilista em questão não pode determinarse sem dogmatismo. Plínio Junqueira Smith (“Ceticismo e autoconhecimento”) fecha a primeira parte mostrando, de modo muito claro e preciso, que um autêntico ceticismo pode perfeitamente aceitar o autoconhecimento e a autoridade de primeira pessoa, desde que coloque em xeque as diversas teorias filosóficas inventadas para explicálos. O exame dessas teorias não mostrará que o autoconhecimento é ilusório, mas sim como é difícil para a razão filosófica explicá-lo satisfatoriamente. A afirmação de que não sabemos o que estamos pensando ou desejando quando pensamos ou desejamos algo parece, de um lado, absurda, pois nega um fato óbvio de nossas vidas, e, de outro, comprometida com pressupostos filosóficos, uma vez que supõe o “externismo” – seja como teoria semântica do significado, seja como teoria de que o conteúdo mental depende do mundo. A inexistência de uma explicação filosófica satisfatória para o autoconhecimento e a autoridade de primeira pessoa não nos leva à conclusão que uma pessoa não sabe o que pensa.
O artigo de Carlos J. Moya (“Reflexões sobre anti-individualismo e autoconhecimento”) abre a segunda parte, recordando os dois grandes problemas presentes no debate acerca do compatibilismo: (1) o problema do logro, ou de como conhecer de modo privilegiado conteúdos dependentes de condições que não podem ser conhecidas deste modo; e (2) o problema da consequência, ou a aparente (e paradoxal) necessidade de o compatibilista admitir que é possível conhecer a priori proposições (empíricas) sobre o entorno objetivo, dando ensejo a uma inaceitável “redução ao absurdo” do argumento compatibilista. Para o autor, o problema do logro parece a princípio poder resolver-se apelando-se para o “modelo de inclusão” defendido por Davidson, Burge e John Heil. Já o problema da consequência, foco principal do texto de Moya, pode ser enfrentado com êxito pelo compatibilista pela simples razão de que este último não tem por que se comprometer com a indesejada possibilidade de conhecer a priori seu entorno objetivo. O pretenso conhecimento a priori de fatos substantivos sobre o mundo é, na verdade, uma ilusão derivada dos pressupostos fortemente realistas implícitos nos experimentos mentais de Putnam e Burge, e são eles que nos conduzem ao erro de “pressupor o enunciado na conclusão”. O pretenso conhecimento a priori de fatos empíricos (a posteriori) nada mais é que o enunciado explícito de estados de coisa que não são a priori senão no sentido de que são pressupostos nos experimentos mentais que levam ao externismo e o sustentam.
No capítulo seguinte, Edgar Marques (“Conteúdo e autoridade da primeira pessoa”) analisa o externismo semântico enfatizando uma de suas intuições fundamentais: a postulação de um vínculo entre a determinação da identidade dos objetos dos pensamentos e crenças, por um lado, e a individuação dos pensamentos e crenças acerca desses objetos, por outro. O autor baseia-se em McKinsey (1998) para mostrar a inconsistência da pretensão compatibilista de Burge, que implica a indesejável tese de que fatos empíricos podem ser conhecidos a priori, ou seja, de que o sujeito pode saber a priori coisas relativas ao mundo objetivo pelo simples conhecimento direto dos conteúdos de seus pensamentos e crenças subjetivos. O argumento de McKinsey aponta para a necessidade de uma delimitação mais precisa do escopo do conteúdo dos pensamentos e crenças que o sujeito conhece a priori – uma estratégia de estreitamento desse conteúdo, a qual, todavia, para Edgar Marques, ainda permanece um tanto obscura. No último artigo da segunda parte, Cristina Borgoni (“Quando externismo e autoconhecimento são compatíveis”) trata da querela do compatibilismo em dois contextos privilegiados: os casos de transferência entre mundos e os argumentos de redução ao absurdo. O objetivo da autora é defender uma posição compatibilista que reconhece algumas exceções. Por um lado, a autora sugere que o incompatibilismo alcançado por meio dos experimentos mentais de transferência entre mundos pode sustentar-se apenas se mantivermos uma visão específica, porém problemática, acerca do autoconhecimento; por outro, o incompatibilismo alcançado por meio dos argumentos do tipo “redução ao absurdo” pode sustentar-se apenas se mantivermos uma visão estreita acerca do externismo. Em outras abordagens, o compatibilismo consegue resistir. Uma boa abordagem do autoconhecimento deve dar espaço tanto ao modo privilegiado de sua aquisição, como ao modo indireto e empírico segundo o qual conhecemos parte de nossas mentes. Esse duplo aspecto é ignorado pelo cartesianismo.
Ernesto Perini-Santos inicia o primeiro capítulo (“Da autoridade sobre os próprios atos”) da terceira parte observando que o abandono da imagem cartesiana de autoconhecimento, hoje corriqueiro, vem de par com a recusa da assimetria entre o ponto de vista da primeira pessoa e o da terceira pessoa sobre conteúdos de estados mentais. O que talvez não seja ainda tão corriqueiro é a aceitação de que o externismo leve ao abandono dessa assimetria, nem como ele o faria. A intenção do autor é explorar a conexão entre o domínio que o sujeito tem das próprias atitudes proposicionais e a estrutura da proposição apreendida. Nesse sentido procede à consideração de casos que evidenciam que o sujeito de fato domina um aspecto crucial de seus próprios estados mentais para, em seguida, isolar, na estrutura proposicional, este elemento sobre o qual não parecem se exercer pressões externistas. A teoria sobre a estrutura de proposições proposta pela semântica de situações é, em mais de um aspecto, compatível com essa assimetria na apreensão de elementos do que é avaliado como verdadeiro ou falso. O objetivo de Perini-Santos não é, contudo, argumentar em favor de uma tal semântica, mas ver como um traço da apreensão de proposições parece ser particularmente bem acolhido nesse quadro teórico. O segundo capítulo da terceira parte, de Hilan Bensusan (“Da primeira pessoa, porém não pessoal: pensando de re sobre si mesmo”), considera falsa a tese de David Chalmers (1996) segundo a qual há partes do mundo que são indexicais “até a medula”, não podendo ser acessadas senão em primeira pessoa. A tese de Chalmers interessa apenas na medida em que veicula a ideia de que o mobiliário do universo contém itens indexicais – que são posicionais sem serem “projeções de um sujeito”. Isto leva o autor a explorar, ainda que brevemente, a possibilidade de tais itens serem não subjetivos, isto é, não pessoais. Ele proporá a hipótese de um “eu mínimo” no qual a identidade pessoal não está pressuposta e deve ser, antes, produto de uma “conquista”. Não haveria em pensamentos e estados atribuídos a mim mais do que um eu que os agrega e compõe. Não tendo mais a identidade pessoal como suposição de base, o eu mínimo não constituirá um sujeito da dor, do medo ou da crença, ou seja, não comporá o constituinte inarticulado de expressões tais como “dói meu braço”, “dou-me conta da crença de que faz sol” etc. Nessa tese subsidiária à de Chalmers, portanto, o acesso à primeira pessoa pode ser levado a sério sem se pressupor uma tal primeira pessoa. O texto “Expressivismo, verdade e conhecimento”, de Alexandre N. Machado, conclui a terceira parte, argumentando que na medida em que, para o “expressivismo simples”, as “manifestações” (frases na primeira pessoa do singular com verbo psicológico no presente do indicativo que, quando pronunciadas sinceramente, veiculam autoconhecimento) não são apofânticas, é errado atribuir “expressivismo simples” a Wittgenstein. O caráter deflacionista do expressivismo wittgensteiniano permite manter o caráter apofântico das manifestações, já que dizer que uma frase é verdadeira ou falsa não implica nenhuma “tese epistêmica” específica sobre ela (não implica dizer que esse tipo de frase é de natureza cognitiva, isto é, potencial veiculadora de conhecimento). Na crítica ao neoexpressivismo de Bar-On e às teorias epistêmicas do autoconhecimento, Machado encontra razões para pensar que as manifestações não são mesmo cognitivas, e nesse caso o expressivismo de Wittgenstein parece superior ao neoexpressivismo, mantendo vivo o desafio deflacionista. Mas isto não significa dizer que o expressivismo de Wittgenstein é a melhor abordagem acerca das manifestações: ele também tem problemas, como o fato de não haver expressão natural para certos estados mentais.
Roberto Horácio de Sá Pereira inaugura a quarta parte com o artigo intitulado “O conteúdo exíguo segundo uma ótica anti-individualista”, no qual examina a legitimidade dos chamados “conteúdos exíguos” em filosofia da mente. O objetivo do autor é defender uma concepção de conteúdo exíguo segundo uma ótica anti-invidualista que, embora rejeite a suposição tradicional de que leis intencionais tenham que ser formuladas em termos de conteúdo exíguo, está convencida da importância de tais conteúdos para a explicação da conduta. De acordo com essa leitura, enquanto o conteúdo amplo da ocorrência mental “água” constitui a propriedade semântica de tal ocorrência de representar de dicto H2O como água, o conteúdo exíguo da mesma ocorrência mental constitui a propriedade semântica alternativa de tal ocorrência de representar de dicto tanto H2O como XYZ como substância aquosa em todos os indivíduos indiscerníveis a respeito de alguma propriedade neurológica relevante dos seus cérebros. No segundo capítulo, Jônadas Techio (“Anti-individualismo, autoconhecimento e responsabilidade”) tem por objetivo proceder a uma espécie de resgate das raízes linguísticas do anti-individualismo, pois, apesar de este pretender ser uma teoria da mente, a argumentação anti-individualista depende de um modelo particular de normatividade. A análise estará concentrada num único aspecto da posição anti-individualista que o autor considera problemático: a adoção do modelo impessoal de normatividade linguística, segundo o qual o fundamento de nosso acordo sobre o significado de nossos termos ou frases encontra-se no conhecimento (impessoal) de um conjunto de “fatos objetivos”. A identidade desse conjunto de fatos varia de autor para autor, mas a suposição de que o ônus da correção linguística (daquilo que o sujeito quer dizer com o que diz) incide sobre algum fator externo (tal como o mundo ou as convenções da comunidade) é assumida por todos os anti-individualistas. Para Techio, isto significa uma inversão no próprio modo de conceber o problema da correção linguística, cuja consequência imediata é retirar do sujeito individual, participante da comunidade linguística, a responsabilidade em dar sentido a suas próprias palavras e às palavras dos demais e, assim, fornecer condições para um acordo. O principal interesse do capítulo é esboçar uma imagem alternativa para se pensar a linguagem humana e a normatividade linguística, que esteja livre dos problemas do modelo impessoal adotado pelos anti-individualistas (mas também assumido por seus críticos) e, particularmente, do tipo de evasão que ele acarreta.
No último capítulo da quarta parte, Carlos E. Caorsi (“O argumento de Kripke sobre a linguagem privada: uma perspectiva davidsoniana”) recupera a reconstrução kripkeana do argumento de Wittgenstein contra a linguagem privada, segundo o qual falar uma linguagem é seguir um determinado conjunto de regras – entendendo por regra aquilo que dá significado a uma palavra por determinar o modo como esta deverá ser usada. Wittgenstein nega o “modelo privado” do que é seguir uma regra, porque esse ato não pode ser analisado em termos de fatos acerca de quem segue a regra e só dela: a referência à sua condição de pertencer a uma comunidade mais ampla é necessária. Kripke considera, todavia, que o caráter normativo da linguagem está dado pela comunidade de fala, e nisto ele se equivoca, pois quem realiza a interpretação do falante não é uma tal comunidade, conceito demasiadamente abstrato, e sim os intérpretes concretos. Para Caorsi, o que conta para a comunicação não é o falante e o intérprete usarem as mesmas regras, mas que o falante use as palavras como o intérprete esperaria usá-las. Se a situação é de “interpretação radical” (nos termos de Davidson), a expectativa do intérprete com respeito ao uso do falante dependerá dos usos anteriores da palavra por parte do falante que foram observados pelo intérprete. E o que determinará ao falante falar do modo que o faz será sua intenção de ser interpretado pelo intérprete, não sua intenção de seguir alguma regra em particular que o intérprete também segue. A intenção do falante é usar as palavras do modo que supõe poder o intérprete entendê-las.
A quinta parte inicia-se com o texto de César S. dos Santos (“Exilados da terra Gêmea: os experimentos mentais e a natureza da intencionalidade”), onde se busca caracterizar minimamente o que é um experimento mental e mostrar a estrutura dos principais experimentos mentais presentes nos debates sobre o externismo. Além disso, o autor procura avaliar se esses experimentos mentais foram bem construídos e aplicados, chegando à conclusão que a construção e a aplicação dos mesmos está em perfeita ordem. No capítulo seguinte, Waldomiro Silva Filho (“Deflacionando o antiindividualismo”) expõe duas idéias, encontradas em Gary Ebbs (1996), que lhe pareceram promissoras no debate sobre o anti-individualismo e o autoconhecimento: a interpretação deflacionista do anti-individualismo de Putnam e Burge e um tratamento minimalista do autoconhecimento. Com a primeira, Ebbs pretende desfazer a impressão equivocada de que o anti-individualismo pressupõe teses metafísicas acerca da natureza da relação das nossas mentes com o entorno. Seu deflacionismo é uma forma de antiessencialismo e uma crítica ao realismo metafísico e científico. Tudo o que o anti-individualismo requer é nossa perspectiva como participantes de uma comunidade de praticantes – comuns ou científicos – de uma linguagem. Quanto ao autoconhecimento, dado que para Ebbs o conhecimento é um aspecto trivial da competência no uso de uma linguagem, o único requisito para que um sujeito conheça os conteúdos dos pensamentos que expressa com nossas frases é estar habilitado a usar essas frases em discursos, realizar e avaliar asserções próprias e dos outros, fazer questões, descrever possibilidades, esclarecer confusões etc. A mesma atitude que nos leva a atribuir crenças e pensamentos a um indivíduo também mostra que ele conhece o conteúdo daqueles pensamentos e crenças.
No último capítulo da quinta parte, André Leclerc (“Do externismo ao contextualismo”) analisa a mudança mais recente na trajetória filosófica de Hilary Putnam: o momento em que este abraça o contextualismo, passando a ser um dos maiores críticos do funcionalismo que ele mesmo havia lançado. A principal tese contextualista é a de que o conteúdo de nossas enunciações, “o que é dito”, depende de vários fatores contextuais, e que exemplares (tokens) da mesma frase (type) podem determinar, em ocasiões diferentes, conteúdos vero-condicionais diferentes ou expressar diferentes proposições (ou pensamentos). Embora essa posição já possa ser encontrada em Putnam (1975), Leclerc mostra de modo bastante competente que o externismo não leva diretamente ao contextualismo, pois podemos chegar a este último a partir de uma posição claramente incompatível com o externismo.
Dando início à última parte do livro, João Vergílio Gallerani Cuter reflete sobre a questão dos conteúdos perceptivos que parecem ser independentes de nossas capacidades conceituais e, portanto, nos serem dados independentemente de nosso domínio linguístico. Como não só animais, mas também recém-nascidos são “cegos” para o aspecto conceitual de suas próprias percepções, o autor acredita que os conteúdos não conceituais foram abandonados em algum ponto de nossa trajetória, mais especificamente, perdemos acesso a eles a partir do momento em que aprendemos a falar. A conclusão é que ao aprender a falar ficamos cegos para objetos desvinculados de qualquer determinação, e isto significa que perdemos a memória dos objetos que ainda não podíamos identificar como isto ou aquilo. Fechando a sexta parte e finalizando o volume organizado por Waldomiro Silva Filho, Marco Rufino (“Constituintes proposicionais inarticulados”) debruça-se sobre os dois tipos de expressão linguística que se distinguem por seu mecanismo de significação: as chamadas “expressões eternas” (cuja extensão, uma vez fixadas suas regras de uso, não muda de acordo com o contexto de enunciação), e as “expressões indexicais” (cuja extensão e intensão podem mudar de contexto para contexto por força de suas próprias regras de uso; por exemplo: aqui, agora, hoje, este, eu etc.). Dado que os diferentes elementos da proposição expressa por uma sentença são valores semânticos de elementos gramaticalmente distintos presentes na sentença, há objetos e propriedades que correspondem a expressões eternas, assim como há objetos e propriedades que correspondem a expressões indexicais. Como a estrutura da proposição espelha a estrutura gramatical da sentença, a forma geral pela qual a linguagem funciona é a de que conteúdos não linguísticos sempre refletem a estrutura gramatical dos elementos linguísticos. John Perry (1986, 1998) chamou tal concepção de homomórfica e colocou-a em questão, considerando que há alguns casos em que a proposição expressa por uma sentença inclui algum elemento que não é o valor semântico de nenhuma expressão eterna ou indexical (ou seja, nenhum morfema). Rufino analisa não só a posição de Perry, mas também a de Stanley, Cappelen, Lepore e Recanati, concluindo que não há ainda uma posição satisfatória quanto aos constituintes inarticulados, seja para integrá-los em uma teoria semântica coerente, seja para fazê-los desaparecer de vez da mesma.
Notas
1 O externismo foi defendido explicitamente pela primeira vez por Hilary Putnam (1975). O externismo nasce como uma teoria em semântica filosófica e seu problema principal, como já indica o próprio título do artigo, é a questão da referência e do significado.
2 Esse experimento é minuciosamente examinado ao longo do volume organizado por Waldomiro Silva Filho.
Referências
BURGE, T. Individualism and the mental. In: French, P. A.; Uehling Jr., T. E. & Wettstein, H. K. (Ed.). Studies in metaphysics. Minneapolis: University of Minnesota Press, 1979. p. 73-121.
CHALMERS, D. The conscious mind: in search of a fundamental theory. Oxford: Oxford University Press, 1996.
EBBS, G. Can we take our words at face value?. Philosophy and phenomenological research, 56, p. 499-530, 1996.
FRENCH, P. A.; Uehling Jr., T. E. & Wettstein, H. K. (Ed.). Studies in metaphysics. Minneapolis: University of Minnesota Press, 1979. (Midwest Studies in Philosophy, v. 4).
GUNDERSON, K. (Ed.). Language, mind and knowledge. Minneapolis: University of Minnesota Press, 1975. (Minnesota Studies in the Philosophy of Science, v. 7).
MCKINSEY, M. Anti-individualism and privileged access. Analysis, 51, p. 9-16, 1998. Perry, J. Thought without representation. Supplementary Proceedings of the Aristotelian Society, 60, p. 26383, 1986.
_____. Myself and I. In: Stamm, M. (Ed.). Philosophie in synthetischer Absicht. Stutgard: Klett-Cotta, 1998. p. 83-103. Putnam, H. The meaning of “meaning”. In: Gunderson, K. (Ed.). Language, mind and knowledge. Minneapolis: University of Minnesota Press, 1975. p. 131-93.
Paula Mousinho Martins – Centro de Ciências do Homem. Laboratório de Cognição e Linguagem. Universidade Estadual do Norte Fluminense Darcy Ribeiro. Campos dos Goytacazes, Brasil. E-mail: pmartins@uenf.br
[DR]
Sidereus nuncius – O mensageiro das estrelas – GALILEI (SS)
GALILEI, Galileu. Sidereus nuncius – O mensageiro das estrelas. Tradução, estudo introdutório e notas de Henrique Leitão. Porto: Fundação Calouste Gulbenkian, 2010. Resenha de: SILVA, Paulo Tadeu da. A mensagem, o mensageiro e o tradutor: a propósito da tradução portuguesa do Sidereus nuncius. Scientiæ Studia, São Paulo, v.11, n. 4, p. 937-46, 2013.
A Fundação Calouste Gulbenkian publicou, em 2010, a primeira tradução portuguesa de um dos textos mais importantes da história da ciência e, sem qualquer dúvida, aquele que causou o mais profundo impacto no mundo científico europeu das primeiras décadas do século xvii, a saber, o Sidereus nuncius, de Galileu Galilei. A publicação dessa tradução ocorreu quatrocentos anos após a primeira publicação do Sidereus nuncius, ocorrida em março de 1610 e, como diz Sven Dupré (p. 8), que escreve a nota de abertura à tradução portuguesa, no momento em que o pó de intensas e numerosas atividades e eventos comemorativos do Ano Internacional da Astronomia começava a assentar. Segundo Dupré, diversos estudiosos têm voltado sua atenção para esse pequeno texto, explorando diferentes aspectos, como, por exemplo, a importância do mecenato, a relação entre o contexto artístico e as imagens lunares produzidas por Galileu, os aspectos literários do texto ou, ainda, os aspectos técnicos relacionados com a produção de lentes e a invenção do telescópio. Essa diversidade de abordagens, como afirma Dupré (p. 8), coloca em evidência o caráter interdisciplinar dos estudos dedicados ao texto, bem como mostra a sua importância não apenas no contexto científico mais restrito, mas também no âmbito cultural mais amplo.
Apenas a tradução do texto para a língua portuguesa já mereceria destaque e reconhecimento. Contudo, Henrique Leitão vai além de uma tradução segura e cuidadosa do original latino. Além dela, Leitão oferece ao seu leitor um estudo introdutório e um bom conjunto de notas explicativas que contribuem para uma melhor compreensão dos aspectos históricos, filosóficos e científicos com os quais o livro de Galileu esteve envolvido. Antes de considerar o estudo introdutório, convém destacar alguns pontos do prefácio de Leitão.
Henrique Leitão inicia o prefácio afirmando que o Sidereus nuncius é “uma obra que pode, sem qualquer exagero, ser considerada a mais emblemática, a mais perturbadora, mas também a mais acessível de todas quantas compõem o excepcional panteão dos textos da ‘revolução científica’” (p. 11). Tal importância, entretanto, contrasta justamente com a ausência, em Portugal, de uma tradução desse texto. Como sabe o leitor brasileiro, não se trata da inexistência de qualquer tradução para a língua portuguesa. E, de fato, Leitão não deixa escapar esse detalhe. Depois de uma breve referência no prefácio, Leitão faz uma menção mais detalhada no estudo introdutório, avaliando as duas edições da tradução brasileira, feita por Carlos Ziller Camenietzki, bem como o estudo introdutório e as notas que a acompanham. De acordo com Leitão, a tradução brasileira visou um público bastante amplo, ao passo que a tradução portuguesa, ainda que não esteja endereçada ao especialista na obra de Galileu, tem em vista um público culto e informado. O principal motivo da afirmação quanto ao escopo da tradução portuguesa está no fato de que “o especialista nunca dispensará a leitura do texto de Galileu na sua versão latina original” (p. 12). Não obstante os propósitos alegados por Leitão, cumpre avaliar a natureza e o alcance desta edição do Sidereus nuncius, bem como o lugar deste pequeno texto de Galileu no longo processo que marcou a defesa do copernicanismo.
O primeiro aspecto que chama a atenção é justamente o título da primeira seção do estudo introdutório: “Uma Gazeta Sideral com ‘osservazioni di infinito stupore”. Como Leitão adverte na nota 8 do estudo, bem como na nota 1 da tradução, o termo gazeta foi adotado por Carlos Solís Santos, responsável pela tradução espanhola do Sidereus nuncius. Santos, além de deixar clara sua decisão de romper com a tradição, justifica que o termo avviso,1 além de significar “notícia” ou “noticiário”, pode ser entendido como “gazeta”. A decisão de Santos, como afirma Leitão, pretende colocar em evidência o caráter “sensacional e jornalístico do livro de Galileu”. Leitão, pelo contrário, opta pela tradução que, segundo ele, é a mais habitual. O debate em torno da tradução do título do livro de Galileu é um assunto largamente discutido, sabemos disso. Contudo, gostaria de apresentar algumas rápidas considerações sobre a decisão de Leitão, em contraste com outras soluções de tradução como, por exemplo, aquela adotada na primeira edição da tradução brasileira. Em primeiro lugar, Leitão discute nas notas 1 e 22 da tradução as duas opções quanto ao título (cf. p. 207 e 212), entretanto, ele mesmo reconhece que o sentido que Galileu tinha em mente era de “mensagem”. Em segundo lugar, na primeira nota, Leitão observa que a segunda edição da tradução brasileira apresenta uma alteração com respeito à primeira edição, substituindo “mensagem” por “mensageiro”. Mas é importante notar que essa decisão foi tomada pelos editores da segunda edição da tradução brasileira e não por Carlos Ziller Camenietzki. Como adverte Ulisses Capazzoli na nota de apresentação à segunda edição, a opção por “mensageiro” teve em vista seguir a tradição, ainda que Camenietzki “tenha justificado devidamente a opção que fez” (Galilei, 2009[1610], p. 6). De fato, Camenietzki justifica sua escolha tendo em vista o modo como Galileu referiu-se ao livro em algumas cartas. Mas certamente um dos pontos importantes quanto à tradução “mensageiro das estrelas” está relacionado a Kepler. Como adverte Mourão na apresentação da primeira edição da tradução brasileira, “é a Kepler que se deve o sentido de ‘o mensageiro das estrelas’ para a obra de Galileu que, na realidade, usou a expressão sidereus nuncius no sentido de ‘a mensagem das estrelas” (Galilei, 1987 [1610], p. 6).2 Entre a manutenção daquilo que Galileu tinha em mente e o respeito à tradição, Leitão prefere a segunda alternativa. Mas então qual a razão do título da primeira seção do estudo introdutório de Leitão? Ao referir-se a “Uma Gazeta Sideral com ‘osservazioni di infinito stupore”, o tradutor português não estaria reconhecendo justamente a pertinência do título “A mensagem das estrelas”? Feitas essas breves considerações, voltemos ao estudo introdutório.
Leitão abre sua exposição enfatizando os impactos do livro de Galileu: “é difícil encontrar na história científica um outro exemplo que se lhe compare, quer na estrondosa comoção que causou imediatamente, quer nas dramáticas consequências a que deu origem” (p. 19). Tais impactos serão destacados por Leitão nos parágrafos seguintes, quando ele trata, por exemplo, da propagação das descobertas galileanas não somente no mundo europeu, mas também para além dele, na Índia e na China. A ênfase na relevância dessas descobertas se vê fortalecida na continuidade do texto de Leitão, na medida em que discorre sobre um conjunto de aspectos relacionados à natureza das observações telescópicas de Galileu, sua adesão às teses copernicanas, as consequências da publicação do texto de 1610 para sua carreira e os efeitos das novidades por ele relatadas no meio científico e filosófico da primeira metade do século xvii. Tais aspectos estão presentes nos blocos temáticos do estudo introdutório, os quais poderiam ser resumidos da seguinte maneira: (1) breve exposição sobre a história do telescópio; (2) descrição da estrutura do Sidereus nuncius e das observações telescópicas nele contidas; (3) a redação da obra e sua relação com os Medici; (4) as observações astronômicas de Galileu depois da publicação do Sidereus nuncius; (5) os impactos da obra na comunidade científica e filosófica do período; (6) a recepção das novidades telescópicas de Galileu em Portugal.
O trajeto percorrido por Leitão ao longo desses blocos temáticos conduz seu leitor a compreender, em linhas gerais, o contexto no qual o livro de Galileu está inserido. O destaque inicial, claramente vinculado ao estupor ocasionado pelas novidades anunciadas por Galileu, dá lugar ao desenvolvimento de um panorama que coloca sob nossos olhos os aspectos técnicos, cosmológicos, filosóficos e sociais que cercam a obra em questão. Tal panorama começa com um breve histórico sobre a invenção do telescópio, a maneira como Galileu toma conhecimento do mesmo, seu trabalho na construção de telescópios cada vez mais potentes e as dificuldades práticas envolvidas nesse processo (como, por exemplo, o polimento adequado das lentes). Esse histórico prepara o leitor para o significado das observações contidas no Sidereus nuncius e, consequentemente, fortalece o papel decisivo e revolucionário desse instrumento científico. Como afirma Leitão: “o telescópio é, pois, parte integrante e essencial da ‘mensagem’ que Galileu queria dar” (p. 29). E, de fato, isso se faz notar nas primeiras páginas do texto de Galileu, nas quais encontramos o seguinte.
Grandes coisas, na verdade, são as que proponho neste pequeno tratado para que sejam examinadas e contempladas por cada um dos que estudam a natureza. Coisas grandes, digo, pela própria excelência do assunto, pela sua novidade absolutamente inaudita e ainda por causa do instrumento com o auxílio do qual elas se tornaram manifestas aos nossos sentidos (Galilei, 2010 [1610], p. 151).
Tais grandes coisas, resultado das observações astronômicas de Galileu, serão anunciadas logo após um brevíssimo relato sobre como a notícia do surgimento do telescópio chegou ao seu conhecimento e de como ele construiu esse instrumento. De acordo com Leitão, o Sidereus nuncius contém basicamente dois tratados: o primeiro sobre a Lua e o segundo sobre Júpiter, separados por algumas páginas dedicadas às estrelas fixas. Cada uma dessas partes possui caráter e consequências particulares. Como sabemos, as observações da superfície lunar determinam sérias dificuldades para a cosmologia aristotélica. Se a existência de vales, crateras e montanhas (o que se conclui a partir das imagens obtidas por intermédio do telescópio) demonstra que a superfície da Lua não é “perfeitamente polida, uniforme e exatamente esférica, como um exército de filósofos acreditou” (Galilei, 2010 [1610], p. 156), a natureza da luz secundária que banha o corpo lunar reforça a sua similaridade com a Terra para além das suas semelhanças de relevo.
As páginas que seguem ao relato sobre a superfície lunar, ainda que denominadas por Leitão como uma digressão, abordam outro aspecto importante para a cosmologia e a astronomia do período. A observação telescópica das estrelas fixas revela aos olhos do observador moderno um número muito maior desses astros e o seu papel na constituição de determinadas regiões celestes, como a constelação de Órion (até então compreendida como uma nebulosa) e a Via Láctea. Duas passagens do texto de Galileu ilustram muito bem tais aspectos.
Na verdade, com a luneta poderá ver-se uma tal multidão de outras estrelas abaixo da sexta grandeza, que escapam à vista desarmada, tão numerosa que é quase inacreditável, pois podem observar-se mais do que seis outras ordens de grandeza (…). Aquilo que foi por nós observado em terceiro lugar foi a essência ou matéria da própria Via Láctea que, com auxílio da luneta, pode ser observada com os sentidos, de modo que todas as disputas que durante gerações torturaram os filósofos são dirimidas pela certeza visível, e nós somos libertados de argumentos palavrosos. De fato, a galáxia não é outra coisa senão um aglomerado de incontáveis estrelas reunidas em grupo (Galilei, 2010 [1610], p. 175-7).
A última parte do Sidereus nuncius é dedicada ao anúncio dos quatro satélites de Júpiter, cujas implicações vão desde a sua nomeação de “estrelas mediceias” até seu papel como argumento em favor do copernicanismo. Os comentários de Leitão a respeito dessas implicações são, mais uma vez, bastante esclarecedores. Quanto ao primeiro tipo de implicação, ele dedica atenção não somente na breve análise que faz desta parte do texto de Galileu, mas também em outro momento do estudo introdutório, no qual discorre exclusivamente sobre a relação entre a publicação do Sidereus nuncius e a homenagem de Galileu à família Medici. Quanto ao segundo tipo de implicação, Leitão recupera o processo de observação de Júpiter, evidenciando a crescente importância do fenômeno para a conversão explícita e militante de Galileu ao copernicanismo (cf. p. 82). As observações posteriores à publicação do Sidereus nuncius, como foi dito acima, são brevemente tratadas por Leitão no estudo introdutório. Dentre elas, as observações das fases de Vênus e das manchas solares fortalecem a convicção de Galileu em prol do copernicanismo e, portanto, são elementos igualmente importantes para a sua defesa do novo sistema astronômico. De fato, encontramos na carta endereçada a Benedetto Castelli, datada de 21 de dezembro de 1613 (cf. EN, 5, p. 281-8), o uso de um argumento em defesa de Copérnico claramente vinculado às observações das manchas solares. A fim de demonstrar de que maneira a famosa passagem de Josué é compatível com o sistema copernicano e, por outro lado, não pode ser explicada pelo sistema ptolomaico, Galileu afirma no penúltimo parágrafo da carta:
Tendo eu, portanto, descoberto e demonstrado necessariamente que o globo do Sol gira sobre si mesmo, fazendo uma rotação completa em cerca de um mês lunar precisamente naquele rumo em que se fazem todas as outras rotações celestes; sendo, ademais, muito provável e razoável que o Sol, como instrumento e ministro máximo da Natureza, como que coração do mundo, dê não apenas, como ele claramente dá, luz, mas também movimento a todos os planetas, que giram em torno dele (Galilei, 2009, p. 25-6).
Se as observações astronômicas tiveram consequências importantes no posicionamento adotado por Galileu, o conhecimento daquelas que estão presentes no Sidereus nuncius causaram, por sua vez, profundos efeitos no ambiente científico e filosófico do período. Leitão avalia esses efeitos nos dois últimos momentos de seu estudo introdutório. O primeiro deles apresenta um exame geral desses impactos no mundo científico da época, ao passo que o segundo é particularmente dedicado à análise das novidades telescópicas de Galileu em Portugal. Mas os dois momentos não estão separados. Pelo contrário, aquilo que Leitão descreve acerca do que ocorreu em Portugal está claramente associado às repercussões das observações astronômicas de Galileu na Companhia de Jesus e entre os astrônomos do Colégio Romano. De modo geral, a exposição de Leitão sobre o impacto do Sidereus nuncius procura colocar em evidência a recepção e a avaliação dessa obra por Kepler e pelos astrônomos do Colégio Romano. No primeiro caso, trata-se da aprovação do maior astrônomo do período, a quem Galileu solicita expressamente a opinião. A resposta de Kepler à solicitação de Galileu ocorre alguns dias após receber uma cópia do Sidereus nuncius. A carta enviada por Kepler a Galileu é posteriormente corrigida e ampliada, sendo publicada sob o título Dissertatio cum nuncio sidereo. A avaliação de Kepler é marcada pelo tom elogioso e entusiasmado, não obstante ele advirta que Galileu não inventou o telescópio, como também não foi o primeiro a “falar da natureza rugosa da superfície lunar e que não fora também o primeiro a referir que havia muito mais estrelas no céu” (p. 106). Se a avaliação de Kepler depositava nas mãos de Galileu um trunfo de enorme valor, a confirmação de suas observações por parte dos astrônomos do Colégio Romano lhe conferia crédito importantíssimo no âmbito institucional e científico vinculado ao poder eclesiástico. A resposta às demandas encaminhadas pelo cardeal Roberto Bellarmino (cf. EN, 11, p. 87-8) aos membros daquela instituição não confirma apenas as observações presentes no pequeno texto de 1610, mas ainda as outras que se seguiram à publicação do Sidereus nuncius (cf. EN, 11, p. 92-3). Embora essa fosse uma vitória da maior relevância, ela não significou, no âmbito dos jesuítas, a adoção do sistema copernicano. As dificuldades oriundas das observações astronômicas requeriam uma nova explicação dos céus e dos movimentos planetários e durante algum tempo os jesuítas estiveram envolvidos com os problemas cosmológicos que então se apresentavam, resultantes das observações astronômicas com o auxílio do telescópio. Depois da morte de Clávio, em 1612, os debates continuaram de modo intenso na Companhia de Jesus. Segundo Leitão, “a verdade é que, em 1620, com a publicação da Sphaera mundi seu cosmographia, de Giuseppe Biancani (1566-1624), o sistema de Tycho Brahe passou a ser ‘oficialmente’ adotado pela Companhia de Jesus” (Leitão, 2008, p. 31).
Os reflexos das descobertas astronômicas de Galileu têm, na última parte do estudo introdutório de Leitão, um destaque especial, ainda que não exaustivo. É neste momento que o tradutor português trata particularmente das repercussões da invenção do telescópio e das observações astronômicas de Galileu entre os jesuítas da Companhia de Jesus, mais precisamente na “Aula da Esfera” do Colégio de Santo Antão. A chegada dessas notícias foi favorecida em virtude das relações entre a Companhia de Jesus e o mundo europeu culto daquele período, como, por exemplo, a estreita relação entre a “Aula da Esfera” do Colégio de Santo Antão com a Academia de Matemática de Clávio. Se a chegada dessas notícias a Portugal foi resultado desse tipo de relação, é igualmente o papel desempenhado pela Companhia de Jesus que permite que as novidades astronômicas sejam recebidas em países mais distantes da Europa, como a Índia e a China, nos quais se encontravam, respectivamente, o padre Giovanni Antonio Rubino (cf. p. 118) e o jesuíta Manuel Dias Júnior (cf. p. 120). Mas a atenção de Leitão está dirigida para a recepção e desenvolvimento da astronomia na “Aula da Esfera” do Colégio de Santo Antão, o que o leva a tratar do debate cosmológico que então se desenvolveu naquela instituição com as notícias sobre as observações telescópicas de Galileu. Nesse contexto, dois personagens merecem destaque, Giovanni Paolo Lembo, responsável pela construção de telescópios no Colégio Romano, e o jesuíta italiano Cristoforo Borri, que teve um papel importante nos debates cosmológicos do período (cf. p. 129). O primeiro deles, Lembo, foi o grande responsável pela introdução de Galileu e suas descobertas astronômicas em Portugal, ao passo que Borri foi um notável divulgador das novidades astronômicas naquele mesmo país. Ambos têm passagem pelo Colégio de Santo Antão, no qual lecionaram alguns cursos. Lembo lecionou entre 1615 e 1617, período no qual se desenvolveu o longo e intenso debate cosmológico e teológico em torno das hipóteses copernicanas e, Borri, entre 1627 e 1628. É por meio da trajetória desses dois personagens na “Aula da Esfera” do Colégio de Santo Antão que Leitão oferece ao seu leitor um quadro geral sobre a introdução das observações celestes de Galileu em Portugal, bem como sobre o posicionamento dos jesuítas portugueses frente ao debate cosmológico das primeiras décadas do século xvii. Nesse último contexto, ele mostra que os matemáticos jesuítas, embora abandonem o modelo astronômico ptolomaico (pois ele não se mostrava mais sustentável frente às descobertas feitas com o telescópio), não adotam o sistema copernicano. Como dito anteriormente, os jesuítas optam pelo modelo proposto por Tycho Brahe, ou alguma variante desse modelo.
Como dito no início desta resenha, Leitão afirma que a tradução portuguesa está endereçada ao público culto e informado e que o especialista jamais dispensará a leitura do original latino do Sidereus nuncius. Além disso, no prefácio, ele lamenta que “quase nada do que Galileu escreveu foi alguma vez traduzido em Portugal” (p. 11). Tais declarações merecem agora algumas ponderações, uma vez que a tradução é dirigida àquele público ao qual Leitão se refere. O trabalho de Leitão merece o justo reconhecimento, não apenas pela tradução cuidadosa, mas também pelo estudo introdutório. Trata-se, sem dúvida, de uma leitura fundamental para todos os interessados na obra de Galileu. Contudo, esse mesmo público, culto e informado, não deixará de perceber algumas ausências notáveis naquilo que diz respeito às traduções disponíveis, seja de textos do próprio Galileu, seja de outros que estão diretamente relacionados com a contenda em torno do copernicanismo. Nesse sentido, lamenta-se, por exemplo, a falta de referência a algumas traduções brasileiras, dentre as quais destaco as seguintes: (1) a tradução brasileira de O ensaiador, realizada por Helda Barraco (cf. Galilei, 1978); (2) a tradução brasileira comentada do Commentariolus, de Copérnico, feita por Roberto de Andrade Martins (cf. Copérnico, 1990); (3) a tradução brasileira das cartas relacionadas com o debate teológico e cosmológico com o qual Galileu esteve envolvido, realizada por Carlos Arthur Ribeiro do Nascimento (cf. Galilei, 2009); (4) a tradução brasileira comentada do Diálogo sobre os dois máximos sistemas do mundo ptolomaico e copernicano, feita por Pablo Rubén Mariconda (cf. Galilei, 2011 [1632]); (5) as traduções brasileiras comentadas da Carta de Galileu a Francesco Ingoli e da Discussão a respeito da posição e do repouso da Terra contra o sistema de Copérnico, de Francesco Ingoli de Ravena, realizadas por Pablo Rubén Mariconda (cf. Galilei, 2005; Ingoli, 2005). Essas últimas traduções, feitas por Mariconda, merecem destaque especial tendo em vista a relação dos estudos que as acompanham com a defesa galileana do copernicanismo. A tradução do Diálogo, cuja primeira edição é de 2001, conta com um valioso estudo introdutório, intitulado “O diálogo e a condenação”, a partir do qual é possível compreender, com riqueza de detalhes e profundidade de análise, todo o período no qual Galileu esteve envolvido com a defesa do modelo copernicano. As traduções do texto de Ingoli e da resposta de Galileu são, por sua vez, acompanhadas de um estudo intitulado “O alcance cosmológico e mecânico da carta de G. Galilei a F. Ingoli” (Mariconda, 2005). Tais estudos ampliam significativamente o quadro apresentado por Leitão. Todas essas traduções são anteriores àquela de Leitão e, assim, esperaríamos que estivessem referidas no prefácio, no estudo introdutório ou nas notas à tradução.
Não há dúvida de que trabalho realizado por Leitão deve ser colocado ao lado das traduções acima referidas, bem como da tradução portuguesa de As revoluções dos orbes celestes, de Copérnico, feita por A. Dias Gomes e Gabriel Domingues (cf. Copérnico, 1996 [1543]). De fato, não é difícil notar que a tradução do Sidereus nuncius preenche uma lacuna importantíssima naquela prateleira da estante, nossa e principalmente de nossos alunos. A meu ver, são especialmente estes últimos que ganham uma contribuição de valor inquestionável com o trabalho de Leitão. É por meio da tradução da mensagem enviada por Galileu, que o tradutor português lega ao futuro especialista mais uma peça para montagem do quadro de uma época que ainda reclama nossa atenção. De fato, este novo volume na estante não mostra apenas um retrato do céu que os filósofos naturais da primeira metade do século xvii descobriram, mas nos auxilia a compreender o significado de um dos períodos mais importantes da história da ciência. Cabe ao leitor manter seus olhos atentos aos detalhes desse retrato, bem como às interpretações que dele já se fizeram.
Notas
1 Note-se que ele não utiliza o termo “nuncius”, mas refere-se ao termo italiano utilizado por Galileu em algumas ocasiões como, por exemplo, em uma carta redigida em 30 de janeiro de 1610 e endereçada a Belisario Vinta (cf. EN, 10, p. 280-1).
2 Seguramente Mourão refere-se nesse momento ao texto no qual Kepler apresenta sua avaliação sobre o livro de Galileu, intitulado Dissertatio cum nuncio sidereo.
Referências
COPÉRNICO, N. As revoluções dos orbes celestes. Tradução A. D. Gomes e G. Domingues. Introdução e notas L. Albuquerque. Lisboa: Fundação Calouste Gulbenkian, 1996 [1543].
_____. Commentariolus. Pequeno comentário de Nicolau Copérnico sobre suas próprias hipóteses acerca dos movimentos celestes. Tradução, introdução e notas R. de A. Martins. Rio de Janeiro: Coppe/Mast, 1990.
FAVARO, A. (Ed.) Edizione nazionale delle opere di Galileo Galilei. Firenze: Barbera, 1933 [1891]. 20 v. (EN)
GALILEI, G. O ensaiador. Tradução H. Barraco. 2. ed. São Paulo: Abril Cultural, 1978. (Os Pensadores).
_____. A mensagem das estrelas. Tradução, introdução e notas C. Z. Camenietzki. Revisão crítica A. da G. Kury. Rio de Janeiro: Museu de Astronomia e Ciências Afins/Salamandra, 1987 [1610].
_____. Carta de Galileu Galilei a Francesco Ingoli. Tradução P. R. Mariconda. Scientiae Studia, 3, 3, p. 477516, jul./set. 2005.
_____. O mensageiro das estrelas. Tradução, introdução e notas C. Z. Camenietzki. São Paulo: Scientific American Brasil/Duetto, 2009 [1610].
_____. Ciência e fé: cartas de Galileu sobre o acordo do sistema copernicano com a Bíblia. Organização e tradução C. A. R. do Nascimento. 2. ed. rev. e ampl. São Paulo: Editora Unesp, 2009.
_____. Sidereus nuncius: o mensageiro das estrelas. Tradução, estudo introdutório e notas H. Leitão. Lisboa: Fundação Calouste Gulbenkian, 2010 [1610].
GALILEI, G. Diálogo sobre os dois máximos sistemas do mundo ptolomaico e copernicano. Tradução, introdução e notas P. R. Mariconda. 3. ed. São Paulo: Editora 34/Associação Filosófica Scientiæ Studia, 2011 [1632].
INGOLI, F. Discussão a respeito da posição e do repouso da Terra contra o sistema de Copérnico. Tradução A. M. Ribeiro e L. Mariconda. Scientiae Studia, 3, 3, p. 467-76, jul./set. 2005.
LEITÃO, H. O debate cosmológico na “Aula da Esfera” do Colégio de Santo Antão. In: Leitão, H. (Org.) Sphaera mundi: a ciência na “Aula da Esfera”. Lisboa: Biblioteca Nacional de Portugal, 2008. p. 27-44.
_____. Estudo introdutório. In: Galilei, G. Sidereus nuncius: o mensageiro das estrelas. Tradução, estudo e notas H. Leitão. Lisboa: Fundação Calouste Gulbenkian, 2010 [1610]. p. 19-136.
MARICONDA, P. R. O alcance cosmológico e mecânico da carta de Galileu Galilei a Francesco Ingoli. Scientiae Studia, 3, 3, p. 443-65, jul./set. 2005.
_____. Introdução. O “Diálogo” e a condenação. In: Galilei, G. Diálogo sobre os dois máximos sistemas do mundo ptolomaico e copernicano. Tradução, introdução e notas P. R. Mariconda. 3. ed. São Paulo: Editora 34/Associação Filosófica Scientiæ Studia, 2011 [1632]. p. 15-76.
Paulo Tadeu da Silva – Centro de Ciências Naturais e Humanas. Universidade Federal do ABC, São Bernardo do Campo, Brasil. E-mail: paulo.tadeu@ufabc.edu.br
[DR]
Kant et les sciences – GRAPOTTE et al (SS)
GRAPOTTE, S.; LEQUAN, M.; RUFFING, M. Kant et les sciences. Paris: Vrin, 2011. Resenha de: BARRA, Eduardo Salles de Oliveira. A ciência e o projeto crítico kantiano. Scientiæ Studia, São Paulo, v.11, n. 4, p. 947-57, 2013.
Permitam-me iniciar esta resenha com um relato autobiográfico. Em 2001, concluí a minha tese de doutorado em filosofia, cujo tema foi o envolvimento de alguns filósofos dos séculos XVII e XVIII com as questões científicas de seu tempo. Entre os filósofos focalizados, estava Immanuel Kant (1724-1804). Uma das grandes dificuldades que enfrentei para levar adiante essa investigação era a quase inexistência de comentários contemporâneos sobre os nexos entre a filosofia kantiana e a ciência do seu tempo. No início da década de 1990, quando iniciei meus estudos, podia-se contar apenas com os dois comentários clássicos sobre o assunto: os livros de Gerd Buchdahl (1988 [1969]) e de Jules Vuillemin (1955). Já naqueles anos, surgiram três novas publicações importantes, o novo livro de Buchdahl (1992), a coletânea de artigos organizada por Robert Butts (1986) e o magnífico trabalho de Michel Friedman (1992), que reputo ser o mais esclarecedor e estimulante estudo sobre o assunto até hoje publicado. Nos anos seguintes à finalização da minha tese, seguiu-se um movimento crescente de interesse pelo tema. Os livros mais recentes de Eric Watkins (2001, 2005) e de Michel Friedman (2013) são efeitos desse movimento.
Creio que o mesmo se possa dizer de Kant e as ciências (Kant et les sciences), publicação de 2011, organizada por Sophie Grapotte, Mai Lequan e Margit Ruffing. O livro reúne os trabalhos apresentados na nona edição do Congresso Internacional da Sociedade de Estudos Kantianos de Língua Francesa (SEKLF), ocorrido em setembro de 2009 na Universidade de Lyon III – Jean Moulin, cujo tema central foi o “estatuto da ciência e das ciências na filosofia de Kant” (p. 11). O primeiro aspecto que chama a atenção no projeto editorial de Kant e as ciências é aquele que não deve ter passado despercebido ao leitor atento no próprio enunciado do tema central do congresso, qual seja, a singularidade versus a pluralidade com respeito à ciência (ou seria “às ciências”?). Nisso consistirá grande parte do meu comentário a seguir. Mas, antes dele, devo prosseguir com mais alguns detalhes desse projeto editoral, entre cujas motivações certamente também encontraremos as incursões pioneiras de Buchdahl e Vuillemin e, ainda antes deles, Adickes (1924) nesse campo de estudo.
Para fins da publicação dos seus anais, o tema geral do congresso foi dividido em três eixos: (1) a teoria crítica e transcendental kantiana do conhecimento geral, (2) a articulação entre a primeira Crítica e os Prolegômenos com a pluralidade de ciências particulares e (3) “os saberes científicos que Kant mobiliza e para cujo progresso, eventualmente, contribui, ao realizar seja uma fundamentação seja uma crítica…” (p. 12) Os trabalhos relativos aos dois primeiros eixos foram, então, publicados no primeiro volume dos anais, volume esse intitulado Kant e a ciência (Kant et la science). O segundo volume, justamente este aqui resenhado, intitulado Kant e as ciências (Kant et les sciences), reúne os artigos incluídos no terceiro e último eixo temático.
Sobre os trabalhos reunidos nesse volume, os editores esclarecem que se trata de estudos consagrados às diversas ciências que Kant pretende considerar, [percorrendo esse conjunto] não à exaustão, mas na sua maior completude possível, incluindo metafísica, lógica, matemática, teologia, ciências da natureza (física, química, biologia, geografia física, história natural, cosmologia, astronomia) e ciências do homem e do espírito (antropologia, psicologia, moral, direito) (p. 12).
Um projeto que, em linhas gerais, verifica-se integralmente realizado à simples inspeção do índice dos capítulos e seções em que se dividem as 388 páginas da publicação. Há, ao menos, um capítulo destinado à análise do envolvimento de Kant com cada uma das ciências acima nomeadas. O espaço destinado a cada uma delas é, entretanto, desigual. Questões sobre a lógica e a matemática ocupam quase um terço do livro. As ciências da natureza ocupam outro um terço. O terço seguinte fica dividido entre dois blocos mais ou menos coesos, as ciências da vida (sciences du vivant) e a estética (enquanto se relaciona à teleologia da natureza), de um lado, as ciências do homem, de outro lado. As eventuais desigualdades de espaço destinadas a cada uma dessas grandes áreas são plenamente compreensíveis, na medida em que refletem os interesses desiguais do próprio Kant acerca de cada uma delas. Tomadas conjuntamente com as ciências da vida e teleologia natural, as ciências da natureza ocupam mais da metade da publicação, cerca de 190 páginas. Isso, naturalmente, reflete o estado de amadurecimento que essas disciplinas científicas encontravam-se à época de Kant e, assim, o quanto elas lhe chamaram a atenção em vista dos seus interesses específicos.
Mesmo admitindo que as desigualdades de tratamento reflitam as desigualdades de interesse do próprio filósofo, algo parece ainda desconcertante nessa desproporcionalidade, se a encaramos de um ponto de vista mais conceitual. O aspecto conceitual a que me refiro é relativo ao fato de o tratamento que Kant dispensou às várias ciências não se destinar apenas a reconhecê-las e explorá-las como um dedicado homem das Luzes o faria. Como os próprios autores lembram (p. 12), Kant reprova certas consequências que D’Alembert retira do “mapa mundi das ciências” construído na Encyclopédie em 1751. Longe de Kant, portanto, reduzir o seu interesse pelas ciências a um motivo meramente “enciclopédico”. Suas pretensões vão bem além disso. Ele parece querer mesmo regular o que pode haver de propriamente científico em seja lá qual for o tipo de crença pretensamente justificada e verdadeira. Aqui, as desigualdades deixam de ser de grau ou intensidade e passam a ser de gênero ou de natureza. Certas crenças ou saberes serão científicos não apenas de fato, mas também de direito. Outros talvez o sejam de fato, mas jamais o serão de direito. Essas desigualdades entre as ciências oferecerão à crítica uma oportunidade única para mostrar toda a sua força normativa e terapêutica, fazendo-nos ver, a uma só vez, por que certas crenças não são ciência e por que inevitavelmente nos iludimos a respeito do seu estatuto cognitivo. O caso mais exemplar dessa dupla aplicação da crítica é o da metafísica tradicional. Mas haverá outros. A psicologia e a química são outros dois exemplos que, de um certo modo, deveriam ser tão notórios quanto o da metafísica.
Mas, antes de explicar por que, a exemplo da metafísica, a psicologia e a química deveriam ser (parcialmente) excluídas do âmbito da ciência, vale a pena explorar mais o fato de a força terapêutica e normativa da crítica kantiana ser relegada a um segundo plano diante da expectativa de abertura para “as ciências” e o tratamento isonômico a elas dispensado. A “república das ciências” parece erguer-se à imagem e semelhança da “república das letras”, “que não teme a pluralidade de crenças” (Almeida, 2011, p. 120). O enciclopedismo incidental de Kant pode ter sido a fonte da generalização desse ponto de vista. Ocorre que, embora presente, não é o único ponto de vista sobre a ciência eleito por Kant. Ele pretende também apontar as distâncias que determinadas crenças estão de uma ciência digna desse nome. E seus argumentos não são baseados em contingências factuais. Há razões conceituais para que ele recuse o estatuto de ciência a determinados saberes, tais como a metafisica (da tradição), a psicologia e a química, para ficar apenas com os casos mais notórios. Para que as consequências desse fato possam adiante tornarem-se mais evidentes, façamos aqui uma breve divagação sobre esse último ponto.
Num artigo intitulado “A invenção da crise”, Ribeiro de Moura considera que “se Kant apresentava a razão como origem de ilusões, o que estava em questão ali era apenas o ‘uso especulativo’ da razão, e não a razão ela mesma, que se comportava muito bem no domínio da física e da matemática, ciências que por si sós nunca teriam suscitado o projeto crítico” (Moura, 2001, p. 185). Não é raro encontrar quem pense como Ribeiro de Moura. Não tenciono de modo algum contestar esse juízo sobre a maneira como a razão se comportara, segundo a ótica kantiana, na física e na matemática. Tomo-o pelo seu valor de face com o intuito de explorar a consequência tirada desse fato por Ribeiro de Moura e muitos outros comentadores. A consequência a que me refiro é a que a física e a matemática, por si sós, jamais teriam dado ensejo ao projeto crítico. Suspeito que essa seja a fonte mais imediata de uma visão distorcida sobre o significado do envolvimento de Kant com os temas e as questões colocadas pela ciência de seu tempo.
Tomemos o opúsculo Princípios metafísicos da ciência da natureza, que Kant preparou e publicou no intervalo entre as duas edições da primeira Crítica, mais precisamente em 1786. A título de um argumento inicial, vale dizer que o esquecimento a que essa obra foi submetida nos estudos kantianos – até ao menos meados das últimas décadas do século xx – é certamente um dos efeitos da visão de que as palavras de Ribeiro de Moura servem como uma expressão bem acabada. O esquecimento dos Princípios metafísicos decorre em grande parte da ampla aceitação da imagem de que Kant concebera a ciência e a metafísica como empreendimentos teóricos radicalmente distintos, a ponto de que a ciência por si só jamais teria suscitado o projeto crítico, cujo alvo exclusivo é apenas o “uso especulativo” da razão perpetrado pela malfadada metafísica dos modernos.
Creio que há, no mínimo, dois tipos de objeções que se podem levantar sobre tal enfoque interpretativo do projeto crítico kantiano. O primeiro é histórico-genético e consiste em investigar se, de fato, as questões colocadas pelas práticas científicas em curso à época de Kant não foram responsáveis pelo desencadeamento do projeto crítico. Não me servirei desse tipo de objeção. Minhas preocupações e meus motivos ficarão óbvios a seguir. Um segundo tipo de dúvidas, que eu chamaria aqui precariamente de analítico-conceitual, consiste em analisar os conceitos e os argumentos mobilizados por Kant para a consecução do seu projeto crítico e avaliar se, enfim, eles se destinam apenas a disciplinar o “uso especulativo” da razão ou se eles são, além disso, de alguma serventia para a ciência, sobretudo a física e a matemática.
Em princípio, ambos os tipos de objeções são complementares e mutuamente dependentes, nem que o sejam por razões heurísticas. A situação é semelhante àquela descrita pela famosa fórmula de Hanson – “a história da ciência sem a filosofia da ciência é cega… A filosofia da ciência sem a história da ciência é vazia” (Hanson, 1962, p. 580), que, conforme se sabe, é uma paráfrase de outra fórmula ainda mais famosa proferida pelo próprio Kant na primeira Crítica ao defender o uso solidário de conceitos e intuições. Talvez todas as minhas restrições ao projeto de Kant e as ciências possa ser resumido à sua “cegueira” no sentido de Hanson, justamente por privilegiar a abordagem genético-histórica em detrimento de um tratamento conceitual-analítico. Mas a cegueira em questão não decorre da ausência de uma filosofia da ciência qualquer. Decorre, sobretudo, da atitude de fechar os olhos para uma filosofia da ciência elaborada pelo próprio Kant, particularmente nos Princípios metafísicos de 1786. Afinal, não se pode dizer que a ausência dessa filosofia da ciência específica não seja ela própria o efeito de uma outra filosofia da ciência de uma matriz específica – de modo geral, daquela matriz que pulveriza a semântica do termo “ciência” em fragmentos tão atomizados que o único sentido possível do termo se refugia no seu uso plural, isto é, em “ciências”.
Para saber o que há de tão particularmente determinante em considerar a filosofia da ciência contida nos Princípios metafísicos, basta considerar que ali estão os critérios que Kant elegera para qualquer doutrina que se pretenda como “ciência”. Os critérios kantianos podem ser reduzidos a três: (i) seus conceitos devem ser suscetíveis de uma construção na intuição pura; (ii) seus princípios devem possuir o caráter de autênticas leis da natureza conhecidas a priori; (iii) seus diversos juízos, inclusive aqueles conhecidos apenas mediante a experiência, devem constituir um sistema e não uma mera rapsódia ou agregado doutrinário. O conjunto completo desses critérios está exemplarmente realizado em uma única doutrina, que é justamente aquela cujos conceitos, princípios e sistema teórico realizam mais precisamente a “metafísica especial da natureza material” a cuja exposição os Princípios metafísicos são destinados. Essa doutrina é a física newtoniana, com os seus conceitos de matéria, movimento e força, seus princípios de inércia e de ação e reação e, finalmente, seu “sistema de mundo” sustentado na ideia de uma gravitação universal.
Um dos pontos cegos no projeto de Kant e as ciências já salta aos olhos nessa altura. A obra praticamente ignora os Princípios metafísicos como um dos mais importantes e decisivos momentos do diálogo filosófico de Kant com “a pluralidade dos saberes”. Apenas um único e exíguo capítulo de Henry Blomme sobre a pretensão à cientificidade da química tem essa obra como seu assunto central, muito embora eles sejam mobilizados mais em virtude dos problemas da química do que propriamente daqueles da física. No prefácio aos Princípios metafísicos, Kant contesta a cientificidade da química por essa não cumprir as condições contidas nos critérios (i) e (ii) acima, ou seja, não possuir uma “parte pura”, requisito indispensável para que uma doutrina possa conter leis da natureza genuínas, isto é, “o conceito da necessidade de todas as determinações de uma coisa, inerentes à sua existência” (Kant, 1990 [1786], p. 6). Em uma palavra, a química não pode ser ciência, pois nela não se pode aplicar a matemática, tomada aqui como uma extensão das condições transcendentais da objetividade, “uma pura teoria da natureza acerca de coisas naturais determinadas (doutrina dos corpos e doutrina da alma) só é possível por meio da matemática; e visto que em toda a teoria da natureza se encontra apenas tanta ciência genuína quanto conhecimento a priori com que aí se depare, assim, a teoria da natureza conterá unicamente tanta ciência genuína quanta matemática que nela se pode aplicar” (Kant, 1990 [1786], p. 10). Sendo assim, nada mais coerente que a física newtoniana seja a única a cumprir regiamente esse desideratum. A química pré-lavoisieriana – isto é, a química do flogístico de Becher, Stahl e, finalmente, Priestley –, segundo Kant, estava fadada a permanecer como uma “arte sistemática ou uma teoria experimental”, em virtude de a inteligibilidade das ações químicas não se mostrar por meio de conceitos “que se possa construir”, limitando-se a conceitos que “não tornam minimamente inteligíveis os princípios dos fenômenos químicos segundo sua possibilidade, porque são incapazes da aplicação da matemática” (Kant, 1990 [1786], p. 10).
Tudo isso está muito bem discutido no capítulo de Kant e as ciências assinado por Henry Blomme. Ele não se limita a analisar as palavras acima de Kant retiradas do prefácio dos Princípios metafísicos, tal como se tornou lugar comum, estendendo suas análises às partes internas do livro e, assim, enfrentando o desafio de esclarecer o diagnóstico negativo com respeito à cientificidade da química em contraponto ao diagnóstico positivo para o caso da física. Blomme elege o princípio da “foronomia” como o mais decisivo para esse efeito. O princípio da foronomia estabelece o movimento como sendo o único conceito pelo qual se pode construir a determinação pura da matéria como algo que ocupa um espaço.
O artigo de Blomme ainda se estende ao capítulo seguinte, dos Princípios metafísicos, sobre a dinâmica, mas sua análise declina em vigor e profundidade, deixando inconcluso o modo como deve ser compreendido o veredicto negativo de Kant na transição de um tratamento meramente mecanicista – fundado no conceito de movimento – para um tratamento decididamente dinamista – fundado no conceito de “forças essenciais da matéria” ou as condições sob as quais a matéria não apenas ocupa um espaço, mas também o preenche. Para Blomme,
a química não poderá se tornar uma verdadeira ciência da natureza enquanto as reações químicas não puderem ser representadas a priori como movimentos: o modo exclusivo pelo qual as matemáticas podem ser a ela aplicadas e os seus princípios empíricos podem ser substituídos por uma parte pura na qual seria fundamentada a necessidade das verdadeiras leis químicas” (p. 167),
e termina de modo lacônico com a seguinte hipótese: “talvez se possa chegar assim a uma determinação da matéria apta a apreender a priori a necessidade das reações químicas” (p. 168).
As pequenas – mas marcantes – deficiências da análise de Blomme refletem a pouca atenção dispensada à realização exemplar do modelo de ciência sustentado pelos Princípios metafísicos. Uma cuidadosa consideração da física mostraria, entre outra coisas, que as condições transcendentais para os objetos da natureza material estabelecidas pela dinâmica tampouco se realizam plenamente nessa ciência. O problema, de maneira muito resumida, seria o fato de as “forças essenciais da matéria” serem refratárias a uma construção na intuição pura, comprometendo assim a incorporação do conceito dessas forças em uma autêntica metafísica da natureza e, consequentemente, em uma ciência genuína da natureza material. A simples consideração desse fato, no mínimo, conferiria um caráter contrafatual à hipótese final de Blomme.
Nem por isso, entretanto, Kant recua em sua escolha da física como sendo a ciência da natureza por excelência. É por essa decisão que se sabe, entre outras coisas, que a psicologia não pode ser uma ciência propriamente dita, tal como ocorre com a química. No caso da psicologia, o problema é a impossibilidade de uma “metafísica especial” que fizesse dos objetos do sentido interno, isto é, da psicologia, a contraparte dos objetos do sentido externo, isto é, da física, cuja possibilidade repousa justamente na certeza da necessidade de uma metafísica especial da natureza material ou dos objetos dos sentidos externos. Dito isso, Kant retira esta conclusão acerca da psicologia ou da “doutrina empírica da alma” cujos desdobramentos terão consequências ainda mais amplas:
[a psicologia] nunca pode ser outra coisa exceto uma teoria natural histórica do sentido interno, e, como tal, tão sistemática quanto possível, isto é, uma descrição natural da alma, mas não uma ciência da alma, nem sequer uma doutrina experimental psicológica; eis também a razão por que é que a esta obra (…) demos o título geral de ciência da natureza, porque tal designação convém-lhe em sentido próprio e, por conseguinte, nenhuma ambiguidade assim se origina (Kant, 1990 [1786], p. 17).
Em Kant et les sciencies, que reserva toda uma seção para o tema da antropologia e da psicologia, apenas uma única vez a restrição à cientificidade da psicologia é mencionada . No seu artigo, “L’antropologie du point de vue pragmatique est-elle une psychologie?”, Gilles Blanc-Brude refere-se às palavras de Kant no Prefácio dos Princípios metafísicos acerca da psicologia e delas conclui que “uma teoria natural histórica do sentido interno” aplicada à psicologia deve ser compreendida como uma afirmação do seu caráter sistemático. Vejam que a sistematicidade consta como o terceiro dos três critérios elencados acima para uma ciência genuína da natureza. Por isso, talvez BlancBrude seja tão enfático ao afirmar que
essa questão do lugar sistemático compromete o destino da psicologia como ciência. Situá-la no interior do sistema crítico significa mantê-la sob a dependência de uma metafísica e de um saber. Situá-la no exterior significa justificar de antemão o desenvolvimento de uma disciplina positiva, mas indiferente aos fins (p. 323).
As palavras de Blanc-Brude, nessa altura, assumem um caráter muito enigmático. Mas é possível que o comentador queira nos fazer crer que a sistematicidade – à qual o destino da cientificidade da psicologia parece estar tão estreitamente ligado – significa tão somente a sua inserção no interior do sistema da filosofia crítica kantiano. Nesse caso, a psicologia aproximar-se-ia da metafísica e afastar-se-ia das demais “disciplinas positivas”. Ora, se for isso, nada mais contrário às intenções de Kant. Para ele, o movimento de aproximação e afastamento seria justamente o inverso, quanto mais sistemático, tanto mais científico.
Se essa inversão da equação de Blanc-Brude estiver correta, mesmo contrariando a passagem acima dos Princípios metafísicos, é inegável que destacar o seu caráter sistemático representa um ganho expressivo para o enquadramento da psicologia no conjunto das ciências. Sendo assim, não seria de todo equívoco reunir tanto a psicologia quanto a química sob o título de “ciências”, mesmo reconhecendo que esse título tem aplicação inequívoca apenas a um único caso, a física, por ser a única a cumprir (quase) integralmente as três condições para uma ciência da natureza. Isso também significa admitir um cumprimento parcial das três condições ou, dito de outro modo, que a sistematicidade possa ser suficiente para, ao menos, colocar um tipo de doutrina no “caminho das ciências”. Mas, conforme é amplamente conhecido, os pensamentos de Kant sofreram grandes alterações ao término da segunda edição da primeira Crítica em 1787, sobretudo quando ele passou a cogitar que as determinações do entendimento não deveriam esgotar os componentes constitutivos apriorísticos do nosso conhecimento empírico. Os resultados dessa mudança aparecem na terceira Crítica em 1790, na qual Kant introduz a faculdade do juízo teleológico como responsável pelo fechamento das determinações do entendimento e, assim, pela promoção da máxima unidade sistemática da experiência. A sistematicidade ganha, então, um lugar de destaque no pensamento kantiano, com reflexos na sua concepção da ciência da natureza.
O mais bem estruturado e orientado capítulo de Kant e as ciências trata justamente de uma ciência que ganha lugar de destaque com os novos interesses de Kant nas condições da promoção da máxima unidade sistemática da experiência. Esse capítulo, cujo título é “La place de l’analytique de la biologie dans la philosophie transcendentale”, é de autoria de Philippe Huneman. O autor havia publicado em 2008 um estudo rigoroso sobre as fontes biológicas mobilizadas pela terceira Crítica, com ênfase no conceito de organismo (cf. Huneman, 2008). No seu artigo, Huneman situa o conceito de organismo no centro do esclarecimento do nosso padrão de cientificidade que emerge em torno da exigência de sistematicidade. Mas não é apenas a originalidade da análise de Huneman que merece destaque. Também o merece o cuidado com o qual ele articula suas análises a parcelas mais amplas do corpus kantiano. Para introduzir o novo significado que a sistematicidade adquire para Kant, ele observa que esse conceito tem sua origem na diferença entre
a natureza – isto é, o conjunto de coisas subsumidas a leis, segundo os Princípios metafísicos da ciência da natureza, os quais remetem precisamente aos princípios transcendentais da experiência possível – e a ordem da natureza, segundo a qual as diferentes leis empíricas se combinam em um todo coerente, isto é, a sistematicidade. A própria natureza ergue-se do entendimento (via os princípios do juízo sintético a priori); ela não implica qualquer finalidade e pode-se ter uma natureza sem ordem da natureza. Entretanto, o interesse da razão é precisamente a sistematicidade, sem a qual nenhuma metodologia seria possível (…). Em outros termos, as diferentes exigências de sistematicidade não definem os métodos, mas são o transcendental de toda metodologia. O outro nome da sistematicidade é a finalidade, pois ela significa que a natureza aparece como se estivesse à mercê da nossa faculdade de conhecer. Nesse sentido, essa finalidade é estritamente sinônimo da exigência de sistematicidade da ciência (p. 255-6).
A distinção entre natureza e ordem da natureza vem justamente nos lembrar o quanto as determinações da primeira – basicamente, aquelas decorrentes da aplicações dos critérios (i) e (ii) acima – são insuficientes para uma analítica completa da natureza – sobretudo, daquela que inclui os seres vivos entre os seus objetos potenciais. Isso assegura que pode – e deve – haver uma sistematicidade irredutível à natureza, ela mesma. Para essa sistematicidade de segunda ordem – aquela que conferirá uma unidade orgânica às leis retiradas da experiência –, será preciso mobilizar outras fontes que não apenas a razão pura e os seus princípios a priori. Requer-se para isso a finalidade ou o interesse da razão. O conceito de organismo é, por exemplo, irredutível apenas às determinações do entendimento e não poderia ser, então, construído em uma intuição pura. Para a sua experiência completa, os organismos requerem outras fontes para a sistematicidade, uma vez que não se podem compreendê-los manipulando apenas categorias do entendimento, entre as quais se destaca a causalidade mecânica. Em outras palavras, requer-se uma causalidade teleológica, de tal modo que “mecanismo e teleologia são, então, articulados no juízo biológico completo” (p. 262).
O artigo de Huneman é um exemplo bem acabado do quanto se ganha na compreensão do envolvimento de Kant com a “pluralidade de saberes” encarando-o também do ponto de vista da filosofia da ciência kantiana. Todavia, dado o escopo do seu artigo, ele não pôde prolongar a explicação do que seria a ciência assentada sobre um conceito robusto de natureza – a física. A lamentar, então, que o livro não ofereça em nenhum de seus outros artigos considerações mais detalhadas sobre a física. Sem essas considerações, o leitor menos informado sobre o assunto permanecerá ignorante do único modelo de ciência que oferece um esquema completo para o princípio do mecanicismo. Conforme tentei mostrar acima, não se trata de uma simples omissão de um entre tantos outros possíveis candidatos à “pluralidade dos saberes” aos quais Kant dedicou sua atenção. A omissão da física significa a omissão dos próprios critérios de cientificidade, sem os quais toda “pluralidade de saberes” degenera-se em pura rapsódia sem nenhuma unidade possível – sobretudo sem a unidade sistemática que é uma exigência para toda e qualquer ciência em particular, mas também para todas elas tomadas como uma totalidade. Sem a ideia dessa unidade, a ciência torna-se uma atividade irremediavelmente cega, senão gratuita e destituída de qualquer interesse para o projeto crítico kantiano.
Mas resta saber por que os organizadores de Kant e as ciências não teriam se dado conta dessa desastrosa omissão. Arrisco dizer que, retomando a divisão que sugeri acima, eles produziram um projeto editorial baseado num enfoque histórico-genético e descuidaram acintosamente da sua contraparte analítico-conceitual. Essa escolha, apesar de seus objetivos declarados, é fortemente inspirada pela concepção de que a física e a matemática são “ciências que por si sós nunca teriam suscitado o projeto crítico” (Moura, 2001, p. 185). Paradoxalmente, isso explica por que nenhuma atenção se dá à física (e, em parte, à própria matemática) em Kant e as ciências. Um livro inteiramente dedicado ao diálogo de Kant com as ciências, mas que omite justamente aquela parte do diálogo que poderia nos conduzir ao âmago do projeto crítico e, assim, interferir decisivamente no modo de compreender esse projeto e suas relações de dependência mútua com a “pluralidade de saberes”. Submeter o diálogo a uma reconstrução meramente histórico-genética pode ser ilustrativo, mas não será nada esclarecedor, se não for também reconstruído de modo analítico-conceitual. Valem aqui as palavras do próprio Kant após considerar o projeto enciclopedista de D’Alembert, na seção 4 da Introdução da Lógica: “há de se tornar merecedor da História como um gênio quem a compreender sob ideias capazes de permanecerem para sempre” (Kant, 1992 [1800], p. 61).
Nesse aspecto particular, Kant e as ciências diverge acentuadamente de outras publicações sobre o mesmo tema surgidas nos últimos anos. No prefácio da sua obra mais recente, Friedman, por exemplo, defende que seja atribuído um papel central aos Princípios metafísicos dentro do período crítico da filosofia kantiana. “Estou convencido, em particular, de que não é possível compreender adequadamente esse período crítico sem dedicar uma atenção detalhada e intensiva ao comprometimento de Kant com a ciência newtoniana” (Friedman, 2013, p. xi). Enunciando de modo afirmativo a relação defendida por Friedman, podemos dizer que uma análise do comprometimento de Kant com a ciência newtoniana permite uma melhor compreensão da filosofia crítica kantiana. E isso, pelo que defendi até aqui, justifica-se não apenas pelo que a ciência newtoniana tem em comum com as demais ciências inclusas na pluralidade dos saberes que despertaram o interesse de Kant. Mas, ao contrário, pelo que ela tem de particular, que são, em última análise, os nexos que prendem o interesse de Kant pelas ciências ao restante do edifício crítico.
Referências
ADICKES, E. Kant als Naturforscher Berlin: De Gruyter, 1924. 2 v.
ALMEIDA, M. C. O elogio da tolerância em Pierre Bayle. Cadernos Espinosanos, 24, p. 115-39, 2011.
BUCHDAHL, G. Metaphysics and philosophy of science. The classical origins, Descartes to Kant. Laham: University Press of America, 1988 [1969].
_____. Kant and the dynamics of reason. Oxford: Blackwell, 1992.
BUTTS, R. E. (Ed.). Kant’s philosophy of physical science. Dordrecht: D. Reidel, 1986.
FRIEDMAN, M. Kant and the exact sciences. Cambridge, MA: Harvard University Press, 1992.
_____. Kant’s construction of nature: a reading of the metaphysical foundations of natural science. Cambridge: Cambridge University Press, 2013.
HANSON, N. R. The irrelevance of history of science to philosophy of science. The Journal of Philosophy, 59, p. 574-86, 1962.
HUNEMAN, P. Métaphysique et biologie: Kant et la constitution du concept d’organisme. Paris: Kimé, 2008.
KANT, I. Princípios metafísicos da ciência da natureza. Tradução A. Morão. Lisboa: Edições 70, 1990 [1786].
_____. Lógica. Tradução G. A. de Almeida. Rio de Janeiro: Tempo Brasileiro, 1992 [1800].
MOURA, C. A. R. de. A invenção da crise. In:_____. Racionalidade e crise. São Paulo/Curitiba: Discurso Editorial/Editora UFPR, 2001. p. 185-205.
VUILLEMIN, J. Physique et métaphysique kantiennes. Paris: PUF, 1955.
WATKINS, E. Kant and the sciences. Oxford: Oxford University Press, 2001.
_____. Kant and the metaphysics of causality. Cambridge: Cambridge University Press, 2005.
Eduardo Salles de Oliveira Barra – Departamento de Filosofia. Universidade Federal do Paraná, Brasil. E-mail: eduardosobarra@gmail.com
[DR]
Elegance and enigma. The quantum interviews – SCHLOSSHAUER (SS)
SCHLOSSHAUER, M. (Org). Elegance and enigma. The quantum interviews. Organização de M. Schlosshauer. Berlin: Springer, 2011. Resenha de: JÚNIOR, Olival Freire. Filosofia da ciência e controvérsia científica: um leque de concepções físicas e interpretações filosóficas da física quântica. Scientiæ Studia, São Paulo, v.11, n. 4, p. 959-62, 2013.
Esse livro tem como objetivo fazer uma apresentação do estado da arte das pesquisas sobre o tema dos fundamentos e interpretações da teoria quântica. Como sabemos, este é um tema que mescla a prática da ciência, tanto teórica quanto experimental, com a investigação filosófica. Ademais, é um tema que tem sido objeto de intensa e prolongada controvérsia; de fato, trata-se de uma controvérsia que tem início com a própria criação dessa teoria científica, durando, portanto, mais de 80 anos. Um livro com a pretensão de um balanço atualizado de um tema de pesquisa é prática corriqueira no mundo acadêmico. Nas ciências da natureza, muitas vezes isso é feito na forma de longos artigos de revisão. A singularidade desse livro reside, entretanto, na sua concepção editorial. Ao invés de uma monografia autoral, o livro reúne dezessete entrevistas distribuídas ao longo de dezessete capítulos, mais introdução, apresentação dos entrevistados, epílogo e glossário. Não se trata, contudo, de uma coletânea de artigos escritos por cada um dos entrevistados. Schlosshauer organizou tematicamente as entrevistas, escolheu os entrevistados e escreveu introduções a cada um dos temas sobre os quais os inquiriu. Pode-se, desse modo, inferir opiniões próprias do editor ao longo do texto, tema ao qual retornaremos. Importante, contudo, é notar que a decisão do editor, ao deixar de lado a escrita de um livro texto sobre o tema, foi uma opção adotada considerando que ela era uma “maneira singularmente efetiva de apresentar o campo de fundamentos quânticos como ele se apresenta hoje” (p. IX). O editor observa que tal apresentação constituiu-se em uma lacuna editorial desde os livros de Max Jammer, The philosophy of quantum mechanics, de 1974, e de Bernard d’Espagnat, Conceptual foundations of quantum mechanics, de 1976. A aposta do editor, portanto, reside na superioridade dessa opção face ao que teria sido a solução tradicional de um texto monoautoral. De fato, o ganho mais importante é a possibilidade única de acesso, em um mesmo lugar e ao mesmo tempo, às diversas e conflitantes perspectivas sobre o tema, enquanto a perda deriva do fato de que o livro não pode ser considerado uma introdução ao tema, sendo antes um livro adequado e útil a leitores já com certa familiaridade com o assunto. As introduções em cada capítulo, feitas por Schlosshauer, apresentam de modo mais introdutório os temas que são tratados de modo mais técnico pelos entrevistados.
Os dezessete entrevistados, autores de direito e de fato, são os físicos Caslav Brukner, Anton Zeilinger, Christopher Fuchs, Gian Carlo Ghirardi, Shelly Goldstein, Daniel Greenbeger, Lucien Hardy, Anthony Leggett, David Mermin, Antony Valentini, Lee Smolin, Wojciech Zurek, os filósofos Guido Bacciagaluppi, Tim Maudlin e Arthur Fine, e alguns que comparecem na dupla condição, de físico e filósofo, como David Wallace e Jeffrey Bub. A lista de questões inclui as seguintes: Quais são os problemas mais prementes hoje em fundamentos da teoria quântica? Qual programa interpretativo traz mais sentido à mecânica quântica, e por quê? O que são os estados quânticos? A mecânica quântica implica uma aleatoriedade irredutível na natureza? O problema da medição quântica: sério obstáculo ou pseudoproblema passível de dissolução? O que violações das desigualdades de Bell, observadas experimentalmente, nos dizem sobre a natureza? Qual noção de informação poderia servir como uma base rigorosa para o progresso em fundamentos? Se você pudesse escolher um experimento, independente de sua viabilidade técnica atual, para ajudar a resolver uma questão de fundamentos, qual seria esse experimento? Como crenças e valores pessoais influenciam a escolha de uma interpretação? Qual o papel da filosofia em avançar nosso entendimento dos fundamentos da mecânica quântica? Que perspectivas para os fundamentos da mecânica quântica podem advir da interface entre teoria quântica e gravitação?
Os entrevistados são cientistas e filósofos de gerações e formações bastante distintas e, ainda que se possa discutir diferentes inclusões e exclusões, não resta dúvida de que estamos diante de uma amostra bem representativa da diversidade de opiniões existentes entre pesquisadores de fundamentos da teoria quântica. Essa diversidade reaparece em cada uma das questões, o que pode ser exemplificado na pergunta sobre a interpretação favorita da teoria quântica. Zeilinger e Greenberger defendem a “velha interpretação de Copenhague”, mas por razões levemente diferentes. O segundo vê nessa interpretação fecundidade em termos de interpretação e desenho de novos experimentos, e o primeiro acrescenta que essa interpretação deve ser desenvolvida tendo em conta a centralidade do conceito de informação. Brukner e Bub, com argumentos distintos, privilegiam a relação do problema da interpretação com o conceito de informação, enquanto Fuchs defende uma visão epistêmica dos estados quânticos, mobilizando a visão bayesiana das probabilidades. Goldstein e Valentini inserem-se na tradição que remonta a Louis de Broglie e David Bohm, com a introdução de variáveis adicionais às já adotadas pela teoria quântica. Os dois autores, contudo, têm perspectivas muito distintas quanto ao desenvolvimento dessa tradição, com Valentini prometendo uma diferenciação empírica entre essa abordagem e a teoria quântica. De modo análogo, Wallace e Zurek inserem-se na tradição que remonta a Hugh Everett, mas encontram-se hoje em perspectivas muito distintas, com Wallace defendendo literalmente a ideia de “muitos mundos” e Zurek criticando-a e defendendo a visão everettiana em termos de “estados relativos”. Ghirardi defende sua visão de que a equação de Schrödinger deve ser modificada de modo a explicar a redução do estado quântico em situações de medições. Outro exemplo da diversidade de opiniões pode ser encontrado no capítulo 8, dedicado a saber o que os resultados dos experimentos sobre as desigualdades de Bell nos dizem sobre a natureza. Os entrevistados divergem largamente, incluindo aqueles que concentram as consequências no abandono da localidade e outros que põem em questão formas de realismo.
Tal espectro diverso ilustra bem porque Max Jammer comparou, ainda em 1974, a controvérsia dos quanta com aquela, também na história da física, que contrapôs cartesianos e newtonianos nos albores da ciência moderna. Essa comparação com a disputa entre cartesianos e newtonianos parece-me oportuna para trazer à tona o que me parece ser uma debilidade nas apresentações dos diversos temas e capítulos. O louvável bom humor com que os temas são introduzidos não vem acompanhado de uma reflexão filosófica mais profunda sobre os mesmos. Na introdução do capítulo 3, por exemplo, o editor clama pela excepcionalidade na história da física da necessidade de interpretações para uma dada teoria física. Afirma que a mecânica clássica “parece livre de problemas neste aspecto”. Ora, quando Jammer lembrou da comparação com a disputa entre cartesianos e newtonianos certamente ele tinha em mente que a gravitação requeria ser interpretada em termos do mecanicismo, e essa era uma das razões da recusa dos cartesianos à gravitação newtoniana. Prevaleceu historicamente uma interpretação da gravitação centrada na sua eficácia preditiva. O que não é tão diferente do êxito da atual teoria quântica e seu pendant interpretativo associado a Bohr e Heisenberg. Um pouco de história da ciência e da filosofia traria à tona que as resistências persistiram de modo mais sofisticado na obra de Ernst Mach no século XIX, e que essa obra contribuiu para a abertura de horizontes epistemológicos ao criador da teoria da relatividade. Outros exemplos poderiam ser aventados para mostrar a persistência de problemas de interpretação e de fundamentos na história da física. A controvérsia sobre a fundamentação da segunda lei da termodinâmica e do conceito de entropia tem atravessado os séculos XIX, XX e adentra o XXI em boa forma. No caso da controvérsia dos quanta, o que demanda explicação, extrapolando o domínio da filosofia e adentrando o terreno da sociologia da ciência, seria a dimensão que a controvérsia tem adquirido, mas esse problema não é tratado pelo editor.
Ao longo das mesmas linhas, o editor encerra a introdução desse capítulo perguntando-se se a “floresta de interpretações concorrentes será desbastada com o passar do tempo” (p. 63), mas não oferece uma resposta significativa ao problema. Novamente, uma mobilização maior da filosofia poderia nos sugerir, com a tese da subdeterminação das teorias pelos dados empíricos, que tais situações de rivalidades entre teorias ou interpretações podem ser fenômenos duradouros e inerentes à prática da boa ciência. O editor retoma a questão no capítulo 11, inquirindo os entrevistados pelo experimento dos seus sonhos, que poderia levar a uma drástica redução dessa controvérsia. Pierre Duhem, se vivo estivesse, reagiria com ceticismo a tal perspectiva, porque o experimento ideal é um parente próximo dos experimentos cruciais e estes não existem em ciência porque as hipóteses e as teorias não comparecem ao tribunal da experiência isoladamente, mas sim sempre em conjunto. Também Willard Van Orman Quine, se pudesse acompanhar tal debate, agregaria argumentos lógicos sólidos em apoio à posição de Duhem. Concluindo, embora o livro em tela tenha lidado explicitamente com a dimensão filosófica do debate sobre os fundamentos da teoria quântica, as contribuições que a filosofia da ciência pode trazer a esse debate são ainda maiores e mais profundas que o que foi expresso nesse livro.
Olival Freire Júnior – Instituto de Física. Universidade Federal da Bahia, Brasil. E-mail: olival.freire@gmail.com
[DR]