Reconstructing Reality: Models, Mathematics/ and Simulations | Margaret Morrison

The plans which are formed, the principles which man projects as guides of reconstructive action, are not dogmas. They are hypotheses to be worked out in practice, and to be rejected, corrected and expanded as they fail or succeed in giving our present experience the guidance it requires.

John Dewey

Reconstruction in Philosophy

Margaret Morrison ha estado a la vanguardia de la nueva ola sobre epistemología de los modelos científicos, especialmente desde que editó Models as Mediators junto con Mary Morgan allá por 1999. En su último libro, Reconstructing Reality: Models, Mathematics, and Simulations, podemos encontrar las versiones más refinadas de sus reflexiones acerca del rol de los modelos en la práctica científica y los desafíos que éstos presentan tanto a los filósofos de la ciencia como a los mismos científicos. El libro consta de tres partes, que cambian apenas el orden señalado en el subtítulo de la obra, en tanto van del caso más general de la matemática hacia el más específico de las simulaciones computacionales, con los modelos como intermediarios, como era de esperarse. De hecho el concepto de modelo es el que le permite articular la noción de prácticas reconstructivas que motiva el título.

La primera parte es “Matemática, explicación y entendimiento”. En sus dos capítulos la autora intenta exponer su mirada de cómo es que un modelo matemático puede proveernos de entendimiento genuinamente físico sobre el mundo, incluso cuando se trata de modelos que sólo son posibles gracias a una abstracción. Su noción de entendimiento es más bien simple, tanto como “tener una descripción/imagen teórica de cómo está constituido un sistema o un fenómeno que nos permita resolver problemas y explicar por qué los fenómenos investigados se comportan como lo hacen” (p. 15). No profundizará en esta noción ya que—según su diagnóstico—entender un fenómeno es una actividad que no puede considerarse fuera de un contexto particular, por lo que nunca podría darse una descripción canónica de entendimiento científico. Explicación, concepto que en la literatura filosófica aparece constantemente atado a entendimiento, también sufriría de esta inescapabilidad contextual, aunque ambos conceptos no estarían ligados más que en un nivel intuitivo según el cual podemos demostrar nuestro entendimiento del mundo dando explicaciones, las que serán mejores tanto mejor sea nuestro entendimiento. Ahora bien, en muchos contextos las explicaciones que podemos ofrecer recurren a modelos, es decir, a estructuras matemáticas que nos permiten conocer más acerca de los fenómenos ya que pueden funcionar como intermediarios entre nosotros y el mundo, permitiendo manipulabilidad y acceso a ciertas propiedades que nos serían inalcanzables de otro modo. Esto se logra pese a que estas estructuras matemáticas implican procesos de idealización y abstracción que a veces parecen hasta ir en contra de nuestra capacidad de entender el comportamiento “real” del mundo. Por ello, una de las preguntas importantes es cómo se relacionan el entendimiento y la abstracción matemática, lo que nos lleva al corazón del primer capítulo. Introduciendo una clara distinción entre casos de idealización y de abstracción, Morrison argumenta que muchas de las razones por las que los filósofos han atacado a la matematización como una fuente de entendimiento sobre el ámbito empírico se deben a que han confundido casos de abstracción por casos de idealización. Esta última debería ser entendida sólo en términos galileanos—como un proceso de aproximación que puede ser eliminado agregando factores de corrección—mientras que la abstracción implica describir un fenómeno de una manera que no puede efectivizarse en el mundo físico.

El resto del primer capítulo es una muestra de la estrategia expositiva que tomará en casi todo el libro: un largo y detallado recorrido por uno o dos ejemplos puntuales de la práctica científica—histórica o contemporánea—sobre el que pesará la prueba de la argumentación. El primer ejemplo es la explicación de la presencia de superconductividad en algunos metales recurriendo a modelos que contienen como supuesto fundamental la ruptura de invariancia gauge interna, como es el modelo de Bardeen–Cooper–Schrieffer o BCS. Esta ruptura de simetría es una transición de fase que sólo puede ser entendida si se recurre a una técnica matemática conocida como “tomar el límite termodinámico”, técnica que implica asumir que el sistema finito que queremos explicar es, cuanto menos matemáticamente, infinito. Para Morrison este paso matemático es ineliminable para poder dar cuenta del mecanismo que produce dicho fenómeno, por lo que constituye una abstracción y no una idealización. Lo mismo ocurre cuando en biología se recurre a poblaciones infinitas para dar cuenta del equilibrio entre las frecuencias de alelos y genotipos mediante el principio de Hardy-Weinberg. No se puede comprender esta relación matemática sin que la población sea infinita y panmíctica (que presente apareamiento aleatorio) mientras que sí se puede obtener el mismo principio si se relajan los supuestos como las ausencias de selección, mutación y migración, que deben ser entendidos como idealizaciones. El caso más representativo es el de la formulación matemática de la selección realizada por R.A. Fisher, en cuyo marco la selección se torna un fenómeno irreduciblemente estadístico—en contraste con el mero “tratamiento estadístico” que había hecho Pearson—y que permitió establecer resultados que no podían ser captados por métodos empíricos, “lo que sin duda aumentó nuestro entendimiento de los procesos evolutivos” (p. 41). Lo que muestran estos ejemplos es que, si bien entender y explicar es relativo a cada contexto, incluso en disciplinas distintas, es la abstracción matemática la que define cómo hay que entender y explicar. Adelantando algunas de las lecciones de los capítulos siguientes, Morrison ya plantea en su forma de exponer estos ejemplos que el modelado matemático puede ser mucho más provechoso, epistémicamente hablando, cuando la matemática no funciona como un mero recurso representacional sino como un marco interpretativo. De aquí, la otra pregunta importante que surgía más arriba, que es la de cómo una herramienta que es netamente matemática puede proveernos de información física, y que será la guía principal en la extensión de esta misma discusión en el capítulo siguiente.

En el segundo capítulo nos encontramos con un interesante aporte a la discusión sobre el rol que pueden jugar las explicaciones propiamente matemáticas en física. Dicha discusión ha recibido nuevo ímpetu, especialmente desde contribuciones originales como Batterman (2001) y Pincock (2007), en las que se plantea un novedoso cruce entre las filosofías de las matemáticas y de las ciencias, con reflexiones sobre casos en los que el trabajo explicativo no corre por cuenta de la física que se pueda colar en la representación matemática, sino que se trata de explicaciones netamente matemáticas, como la demostración de la imposibilidad de un camino euleriano por los puentes de Königsberg. La exposición de Morrison se concentra en cómo una técnica matemática, como los métodos de grupo de renormalización (RG), nos puede proveer información sobre el comportamiento de un sistema en un punto crítico que no está disponible en las leyes físicas que regulan a estos fenómenos. El énfasis está en que en tanto técnica no forma parte de los modelos subyacentes sino que se aplica sobre ellos y no como mera herramienta de cálculo. Lo que permite dicha técnica es redescribir un sistema en términos de cómo éste cambia a medida que varía la escala de distancia, a efectos de conseguir una descripción del mismo en términos de la simetría que se pueda conservar pese a esas transformaciones escalares. Los casos que comenta Morrison son los más conocidos, los de su aplicación en teoría cuántica de campos y en mecánica estadística. Un problema físico que se torna accesible mediante su aplicación es el de cómo una dinámica microscópica puede generar comportamientos macroscópicos universales sobre puntos críticos. Se dice que son universales porque fenómenos muy distintos— fluidos, imanes y hasta redes—se comportan de manera similar en la cercanía de estos puntos, lo que hace que esta técnica sea un recurso muy valioso en el estudio de sistemas complejos.2 Las dos conclusiones más importantes que extrae la autora sobre la aplicación de RG son que (1) nos provee información física en tanto explica cómo es que elementos locales pueden interactuar y hacer emerger comportamiento ordenado de alto nivel, mostrándonos en el proceso la independencia ontológica entre estos niveles (p. 74); y (2) nos permite desplazarnos hacia una categoría de análisis de orden estructural, en tanto podemos dejar de hablar del estudio particular de un sistema para pasar a sus propiedades de escala, lo que nos obliga a estudiar un nuevo espacio de modelos (p. 75). Lamentablemente Morrison no profundiza sobre este interesante punto—al que tampoco regresará en el resto del libro—y concluye el capítulo remarcando que la capacidade explicativa de la técnica es fruto exclusivo de su poder matemático, ya que es independiente de la teoría que gobierna estos fenómenos.

En cada uno de los capítulos que conforman la segunda parte—“Donde los modelos se encuentran con el mundo: problemas y perspectivas”—Morrison encara desde una segunda perspectiva los problemas tratados en la sección anterior, atendiendo ahora al caso puntual del conocimiento empírico que puede ser obtenido cuando se usan modelos como intermediarios. El énfasis deja de estar en el carácter netamente matemático de los mismos y se traslada al rol representacional que puedan tener. El capítulo 3 es una inmersión al subterráneo y maravilloso mundo de las ficciones, al que muchos filósofos como Roman Frigg y Peter Godrey-Smith han viajado, intentando usar para con los modelos científicos una postura similar a la propuesta originalmente por Walton (1990) para explicar cómo es que una obra de arte puede ser representacional. En el contexto de modelos, la motivación para usar un recurso similar es que muchas veces el modelo mismo es claramente una ficción, o recurre a elementos que parecen estar más cerca de existir en 221B Baker Street que en el mundo real. Nuestra autora sostiene que, si bien puede ser un paso válido considerar a la práctica de modelado como un juego de fantasía [make-believe] entre los científicos que lo usan, dicha consideración no aporta ninguna solución al problema epistémico de cómo es que un caso concreto de un modelo ficcional puede ayudarnos a producir entendimiento sobre aquello que está pretendiendo modelar. A fin de cuentas esto dependerá del contexto y de modelos específicos, y no de una teoría general de cómo es que las ficciones funcionan en ciencia.

Su manera de ilustrar este punto es mediante el modelo mecánico del éter al que recurrió Maxwell como herramienta para facilitar su investigación de los fenómenos electromagnéticos, modelo que él mismo sabía que no podía tener una conexión directa con la naturaleza pero que era mucho más fácil de investigar. Lo importante—según Morrison—no es que Maxwell haya podido derivar sus ecuaciones de un modelo falso sino que las restricciones que estaban en juego en su modelo mecánico provenían de las teorías que él sabía que se aplicaban al caso que estaba modelando y no meramente de su imaginación. Cualquier evaluación del rol heurístico de esta clase de modelos debe considerar específicamente qué características juegan un rol en la transmisión de información (p. 110), que en este caso, y sólo en este caso, era la capacidad del modelo de representar la función que le corresponde a la corriente de desplazamiento, a la que Maxwell recurre unos años más tarde cuando publica su ecuación de onda electromagnética. Los modelos ficcionales deben interpretarse como una heurística y siempre en su contexto particular, cuidando de distinguirlos de los modelos idealizados y de aquellos que recurren a la abstracción. Así, estas distintas representaciones irrealistas no deberían ser consideradas todas bajo una mirada waltoniana ya que hacerlo no nos permite identificar el rol epistémico específico que tienen estas representaciones.

Esto marca el tono que tiene el capítulo cuarto, en el que encontramos una defensa de la centralidad del rol representacional de los modelos científicos pese a que una teoría filosófica general de esta capacidad sería tan inviable como una teoría similar para la representación científica a secas. Morrison se declara deflacionaria en este sentido. Cualquier teoría que se proponga tan sofisticada como para lograr algo similar no tendría la capacidad de alumbrarnos cuando queramos encontrar los pormenores de un modelo específico. Nuevamente el argumento es que el análisis epistémico es siempre dependiente del dominio de acción y de sus usos pretendidos. Ahora bien, esto está acompañado por una apuesta sobre la centralidad de la representación, a tal punto que Morrison parece sugerir que si un modelo no representa—necesariamente con cierto grado de imprecisión—no puede ser considerado como un modelo propiamente dicho. Como algunas veces la mejor defensa es una buena ofensiva, Morrison ataca la interpretación que hace Cartwright (1999) del modelo BCS de superconductividad en términos de modelos interpretativos y modelos representacionales, en la que Cartwright les otorga prioridad a los primeros. Una cuidadosa reconstrucción de los avances que permitieron llegar al modelo BCS le permite a nuestra autora defender que, si bien hay algo así como “modelos interpretativos”, en tanto forman parte de un trasfondo teórico, sólo pueden cumplir este rol después de que un modelo representacional les indique cómo aplicar los conceptos abstractos que provienen de la teoría (p. 132).

En “Sacando el mejor provecho”—título del quinto capítulo—, encontramos otro complemento a la discusión sobre la representación, de la mano de los casos en los que un mismo fenómeno tiene muchos modelos que pueden ser incompatibles entre sí, lo que inmediatamente nos obliga a preguntarnos por la veracidad con la que estarían hablando del mundo estos modelos tan diferentes, más allá del éxito predictivo o explicativo que puedan tener por sí mismos.3 El debate filosófico gira en torno al perspectivismo propuesto por Ronald Giere para dar cuenta de esta multiplicidad de miradas, mientras que el debate científico lo hace alrededor de dos circunstancias en las que se recurre a modelos distintos pero cuya interpretación es muy diferente: los flujos turbulentos y la física nuclear. En el primer caso estamos frente a un fenómeno que es extremadamente difícil de tratar, dado que las ecuaciones de Navier-Strokes son un tanto complicadas y sin soluciones analíticas para la gran mayoría de los casos. Si bien el problema se suele sortear recurriendo a distintos modelos, no estaríamos frente a un caso de incompatibilidad ya que lo que se hace es describir distintas secciones del fluido bajo estudio con modelos separados; cada uno está representando secciones en las que el fluido no tiene las mismas propiedades. Dado que no hay un cambio fundamental en los supuestos acerca de la naturaleza de lo que se está modelando estaríamos en condiciones de hablar de “modelos complementarios”. Esto es lo que no sucede con los distintos modelos del núcleo atómico, que deben ser interpretados como incompatibles. Por ejemplo, un modelo que tiene la capacidad de explicar muchas propiedades de los núcleos atómicos es el modelo de gota líquida, desarrollado originalmente por George Gamow y extendido luego por Bohr y Wheeler, en la que el núcleo se interpreta como una gota de un fluido nuclear de muy alta densidad. Es decir, como un objeto clásico. Esto lo deja como un modelo claramente incompatible con los modelos que pretenden dar cuenta del núcleo describiendo su estructura interna. Más allá de un problema de niveles de análisis o de perspectivas, Morrison encuentra en estos casos un claro ejemplo de un problema epistémico que muestra una tensión en la manera en la que es abordado por filósofos y científicos, además de ser uno que ninguna postura filosófica puede resolver puesto que no se trata de un problema interpretativo sino netamente científico (p. 192). Que existan unos 30 modelos del átomo con supuestos muy diferentes los vuelve contradictorios entre sí y la complejidad del fenómeno simplemente no permite que la cromodinámica cuántica defina cuáles son correctos. No hay nada para ganar tomando un perspectivismo, postura que la autora describe como parte de la propia actividad científica. Ante estos modelos incompatibles nos sugiere, mientras se resuelve el problema científico, tomar partido por un instrumentalismo. Todo esto indica que Morrison adscribe a una suerte de realismo débil pero sólo en los casos en los que tenemos razones para creer que nuestros mejores modelos reconstruyen el mismo mundo.

La tercera parte del libro es “Simulación computacional: la nueva realidad”. Como toda buena nueva realidad, es la más novedosa, en particular en lo que aporta a la discusión filosófica sobre las simulaciones computacionales en ciencia. Además de introducir los problemas generales sobre este tema, el capítulo 6 se encarga de mostrar que, si consideramos el rol que los modelos tienen en el diseño de los instrumentos de medición y en la interpretación de sus resultados, el argumento de la materialidad— según el cual los experimentos tienen una dimensión de garantía epistémica que proviene de su composición física—no puede ser usado para dejar a las simulaciones debajo de los experimentos en la jerarquía de métodos con los que se puede generar conocimiento experimental, como han pretendido varios filósofos. Para elaborar su argumento, Morrison define primero al conocimiento experimental como “la capacidad de medir cantidades teóricas” (p. 199) y explora la vía en la que algunas simulaciones recurren a una metodología similar, aunque sólo después de describir cómo es que resulta imposible medir con un instrumento sin recurrir a modelos. El hecho de que las simulaciones hayan dejado de ser meramente experimentos numéricos y se hayan convertido en herramientas fundamentales en algunas disciplinas en las que normalmente no existían contextos interventivos—como la astrofísica—llevan a Morrison a una interpretación particular y ampliada de las simulaciones, al considerarlas prácticamente equivalentes a los instrumentos de laboratorio. Para ilustrar este punto, la autora introduce el concepto de “sistema de simulación” que consiste en la computadora, el modelo de simulación (la discretización del modelo matemático) y el programa que lo implementa. El resto del capítulo explota las consecuencias de que dicho sistema incluya—gracias al modelo teórico que le da forma—al sistema que es objeto de estudio, por lo que estaría funcionando como un instrumento que puede medir una cantidad teórica. Tanto en los sistemas computacionales como en los instrumentos de medición tradicionales, lo que justifica nuestras inferencias sobre lo que está siendo representado es un modelo, por lo que las conexiones causales que se suelen aducir para validar los experimentos también estarían representadas en las simulaciones.

En los dos capítulos siguientes, Morrison ofrece más razones para confiar en los resultados de las simulaciones. En el séptimo se concentra en los aspectos metodológicos de verificación y validación (V&V), haciendo una particular lectura de la literatura técnica sobre esta actividad. Verificación es básicamente el proceso de asegurar que las técnicas empleadas para discretizar el modelo matemático original no introduzcan otros errores más allá de los propios que se pueden esperar de esta simplificación. Un segundo aspecto es el de asegurarse de que el algoritmo que codifica estas técnicas junto con los presupuestos físicos del modelo no introduzca aspectos formales que puedan dañar la calidad de la simulación. La validación, en cambio, es el procedimiento mediante el cual los científicos pueden asegurarse de que los resultados de la simulación son comparables con resultados experimentales. Morrison critica la interpretación de estas actividades que hace Winsberg (2010), quien sostiene que en la práctica es imposible llevarlas a cabo secuencialmente y siempre se termina recurriendo a estrategias ad hoc para acercarse a los resultados experimentales disponibles. Para mostrar la robustez de estas técnicas, se hace referencia a cómo están diseñadas para disminuir y llevar la cuenta a lo largo de su proceso de las clases de incertidumbre [uncertainty] presentes: la aleatoria (que proviene de los factores físicos) y la epistémica (que se debe a la falta de conocimiento del sistema, de los parámetros del modelo, etc.). Dado que estas incertidumbres son ineliminables, los procesos de V&V no pueden proveernos de una prueba de la validez de la simulaciones pero sí de evidencia de que sus resultados son legítimos (p. 267). Esto es mucho más difícil de lograr en lo que respecta a la validación física del modelo computacional, por lo que la contrastación de resultados debe hacerse a través de una medida cuantitativa de su diferencia y sólo con experimentos específicamente diseñados para este efecto, denominados experimentos de validación, en los que los presupuestos del modelo mismo pueden ser evaluados físicamente.

Claramente esto no es algo que se pueda lograr con todas las simulaciones, como podemos apreciar al leer el capítulo final, que explora el rol clave que juegan las simulaciones en experimentos de alta complejidad. El Gran Colisionador de Hadrones o LHC, acelerador de partículas ubicado en el CERN y actual estrella de la experimentación en física de altas energías, es un excelente ejemplo con el que se puede ofrecer un panorama de lo entretejido que están V&V en la big science actual. En este caso, no es posible llevar a cabo experimentos de validación porque hasta el mismo diseño del experimento depende de simulaciones previas. Uno de los resultados más importantes que se obtuvo de los experimentos ATLAS y CMS usando este acelerador de partículas es el descubrimiento en 2012 del bosón de Higgs, partícula elemental que acompaña al campo homónimo y que desde su postulación como parte del Modelo Estándar demostró ser un tanto difícil de encontrar experimentalmente. En su reconstrucción del descubrimiento, Morrison pone el énfasis en cómo el rol de las simulaciones no se reduce al importante papel que juegan en el procesamiento de la masiva cantidad de datos que se generan por colisión, sino también en que en todas las etapas de diseño y construcción de los experimentos y del colisionador se debe recurrir a simulaciones. Incluso en las presentaciones y publicaciones de resultados se puede notar el énfasis que los mismos científicos ponen en las simulaciones. El claro problema es, dada la naturaleza dual del experimento, cómo se puede confiar en dichas simulaciones si es imposible llevar a cabo un experimento de validación. La respuesta está en un entramado de prácticas igualmente complejo, que recurre a datos sobre colisiones particulares en otros aceleradores, comparaciones entre los distintos módulos de calorímetros, distintos paquetes de simulaciones, etc., en los que se deben considerar distintos rangos físicos como los procesos electromagnéticos, las interacciones hadrónicas individuales y todas las señales dentro de los calorímetros. Morrison presenta con cierto detalle un recorte de estas prácticas que claramente señalan el desafío monumental que es hacer física de altas energías y el desafío epistémico que presentan tanto para los científicos como para los filósofos. De todas formas, a la luz de las discusiones de los capítulos anteriores, el capítulo final parece más conclusión de otro libro que del que acabamos de leer y nos abandona sin conclusiones generales.

En cuanto a sus propuestas para la evaluación epistemológica de los modelos y las simulaciones computacionales, es inevitable notar algunas grietas y algunas piezas que no encajan tan finamente, especialmente en la última sección. Considerando la imposibilidad de una teoría general de la representación, se pone demasiado peso en todos los capítulos sobre la relevancia de esta noción como componente clave para garantizar el conocimiento mediado por modelos. Además, las simulaciones parecieran sólo heredar las soluciones y no los problemas de los modelos científicos. Aceptar la lógica de que las simulaciones pueden autorizar las mismas inferencias que los experimentos en virtud de su recurso a modelos genera algunos conflictos cuando se intenta justificar que sólo mediante un experimento de validación puede medirse la adecuación empírica de una simulación. Quizás los capítulos 6 y 7 se hubiesen beneficiado de seguir la línea expositiva de los anteriores, señalando los problemas filosóficos que pueden encontrarse en la reconstrucción de un caso particular del trabajo con simulaciones. El recurso a la literatura técnica es indispensable para una filosofía de las ciencias orientada a la práctica científica, y más allá del resguardo de los comentarios un tanto naif que puedan tener los científicos sobre cuestiones epistemológicas, algunas de sus reflexiones deben tomarse seriamente. Por ejemplo, en Oberkampf y Roy (2010)— texto al que recurre Morrison en su intento de legitimar a las simulaciones mediante la metodología de V&V—desde el comienzo encontramos una propuesta mucho más amplia, lo que podría indicarnos la lectura sesgada que parece hacer Morrison:

Los elementos fundamentales que construyen la credibilidad en los resultados computacionales son (a) la calidad de los analistas que llevan a cabo el trabajo, (b) la calidad del modelado físico, (c) las actividades de verificación y validación, y (d) la cuantificación de incertidumbre y los análisis de sensibilidad. Creemos que todos estos elementos son necesarios para la credibilidad y, más importante aún, para la exactitud [accuracy], pero ninguno es suficiente por sí mismo. (2010, p. 12)

Como también se puede apreciar a través de Oberkampf y Roy (2010), entre otras fuentes, las prácticas científicas e ingenieriles contemporáneas muestran numerosos casos en los que la dinámica de las estrategias de validación parecen estar mucho más cerca de las que se aplican en el LHC en escenarios de complejidad mucho menor, incluso en situaciones tan “simples” como un túnel de viento. Las reflexiones metodológicas deberían tomarse como un ideal regulativo, como una serie de “mejores prácticas”, pero nunca dejando de ser conscientes de que la justificación del conocimiento que se produce en estas instancias es un proceso constantemente activo. Si bien comparto que es sano resistirse a la tentación de “definir” qué es un modelo (p. 131), las múltiples referencias a “distintas clases de modelos” y “distintos contextos”, me hacen pensar que parte del trabajo filosófico todavía faltante en la literatura es el de lograr una taxonomía de modelos, quizás según la manera en la que idealizan, pero que vaya más allá de abstractos, idealizados y ficcionales. A su vez, esto debería realizarse junto con una reflexión un tanto más fina de qué son y cómo se definen los contextos y si hay que abrazar alguna clase de pragmatismo o no.

Morrison hace un excelente trabajo en exponer de manera concreta y casi siempre fácil de seguir episodios claves de la vanguardia científica y de señalar dónde están los problemas filosóficos y qué literatura específica se puede consultar al respecto, por lo que cualquiera que tenga alguna inclinación por los modelos científicos encontrará enriquecedora su lectura. Ahora bien, este no es un libro para quien esté buscando una introducción actualizada sobre la literatura de modelos en filosofía de la ciencia,4 sino que debe ser leído como un aporte particular a la discusión contemporánea, por lo que los lectores que no tengan conocimiento de la literatura o manejo técnico de modelos matemáticos podrán sentirse algo perdidos. Sí es un claro espécimen que muestra la dirección que está tomando la literatura sobre modelos: reconstrucciones de casos muy complejos de la práctica científica que ilustran claramente un punto que requiere interpretación filosófica—pero que con mucha facilidad pueden obscurecer unos tantos otros, especialmente para quienes le son ajenos algunos formalismos matemáticos. No es que la tendencia esté mal de suyo, claro está que hay muchísima fertilidad filosófica en esta clase de aproximaciones técnicas; pero creo que podría ser mejor ejercicio para la discusión no reconstruir artículos en los libros y aprovechar el espacio para articular las razones en el esquema más amplio de la filosofía de la ciencia. Ya que estamos, entre tantos intentos de rehacer cosas con la filosofía o con la realidad, hubiese sido interesante encontrar un contraste con la propuesta de Wimsatt (2007) de “reingeniar” la filosofía. Supongo que quedará como ejercicio para el lector.

Veredicto: leer, pero sólo si uno ya aprendió a vivir con algunas inconsistencias y no es alérgico a las ecuaciones diferenciales.

Notas

2 En Morrison (2014) se puede encontrar una versión más acotada de esta discusión directamente orientada al estudio de sistemas complejos, incluyendo un comentario sobre Feigenbaum (1978).

3 Uno de los ámbitos en los que más se nota este fenómeno es en macroeconomía, en donde los resultados de dejarse guiar por un solo modelo pueden ser algo desafortunados. Me es imposible en este contexto no recordar la imagen de un grupo de economistas, que incluía al premio nobel Robert Solow, jurando como testigos frente al Comité sobre Ciencia, Espacio y Tecnología del Congreso de los Estados Unidos, quienes en su mayoría procedieron a defender que era necesario utilizar muchos modelos para achicar la distancia entre la economía de los modelos y la economía del mundo (ver Hoffman, 2010).

4 En esa dirección quizás sea recomendable el reciente texto de Alex Gelfert (2016).

Referencias

BATTERMAN, R. W. (2001). The Devil in the Details: Asymptotic Reasoning in Explanation, Reduction, and Emergence. Oxford University Press.

CARTWRIGHT, N. (1999). Models and the limits of theory: Quantum Hamiltonians and the BCS models of superconductivity. En M. Morgan & M. Morrison (Eds.), Models as Mediators: Perspectives on Natural and Social Science (p. 241–281). Cambridge: Cambridge University Press.

FEIGENBAUM, M. J. (1978). Quantitative universality for a class of nonlinear transformations. Journal of statistical physics, 19(1), 25–52.

GELFERT, A. (2016). How to Do Science with Models: A Philosophical Primer. Springer.

HOFFMAN, D. (2010, julio 27). Building a Science of Economics for the Real World. Recuperado a partir de http://www.cheatsheet.com/breaking-news/building-ascience-of-economics-for-the-real-world.html/

MORRISON, M. (2014). Complex Systems and Renormalization Group Explanations. Philosophy of Science, 81(5), 1144–1156.

OBERKAMPF, W. L., & Roy, C. J. (2010). Verification and validation in scientific computing. Cambridge University Press.

PINCOCK, C. (2007). A Role for Mathematics in the Physical Sciences. Noûs, 41(2), 253– 275.

WALTON, K. L. (1990). Mimesis as Make-Believe: On the Foundations of the Representational Arts. Harvard University Press.

WIMSATT, W. C. (2007). Re-engineering philosophy for limited beings: piecewise approximations to reality. Cambridge, Mass.: Harvard University Press.

WINSBERG, E. B. (2010). Science in the Age of Computer Simulation. The University of Chicago Press.


Resenhista

Andrés A. Ilcic – Centro de Investigaciones de la Facultad de Filosofía y Humanidades – Universidad Nacional de Córdoba | Consejo Nacional de Investigaciones Científicas y Técnicas. E-mail: [email protected]


Referências desta Resenha

MORRISON, Margaret. Reconstructing Reality: Models, Mathematics, and Simulations. Oxford University Press, 2015. Resenha de: ILCIC, Andrés A. Epistemología e Historia de la Ciencia. Córdoba, v.1, n.2, p. 98-107, 2017. Acessar publicação original [DR]

Deixe um Comentário

Você precisa fazer login para publicar um comentário.