Comúnmente se supone que disponemos de dos grandes vías para llegar a conclusiones correctas, según nos movamos en el seno de las Matemáticas o en las Ciencias Naturales y Sociales. La matemática es una ciencia formal, de modo que la verdad de sus conclusiones se sigue de la veracidad de sus premisas sin más que respetar las reglas de la inferencia lógica. Más aún, dado que los matemáticos no precisan de un patrón externo de verdad –no tienen que adecuar sus hipótesis a la realidad material− les basta con la coherencia formal.
Si no hay contradicciones internas y la deducción lógica se realiza sin fallos, la corrección de los resultados queda fuera de toda duda. Pensemos en la geometría de las curvas cósmicas, concretamente en una elipse perfecta. A partir de los axiomas correspondientes de la geometría plana y de los enunciados particulares convenientes para este caso, obtendremos la ecuación que define la elipse como una curva cerrada sobre el plano, con sus focos y semiejes.
Pero al pasar al terreno mucho más pantanoso del mundo material, las idealizaciones de la matemática pura han de compaginarse con las exigencias de la naturaleza tal como se presentan ante nosotros: imperfectamente representable, compleja hasta en sus menores detalles e impredeciblemente sutil. Así se pone de manifiesto cuando, a partir de las leyes de Newton, deducimos la forma de la órbita de un planeta en torno al Sol. La respuesta –como cualquier estudiante sabe– es también una elipse, aunque ahora se tratará de la elipse de un físico, sin la pulcra exactitud de la elipse del matemático.
Junto a la matemática pura y los datos empíricos, existe una tercera vía, a menudo silenciada, para aproximarnos a la verdad científica.
Los cuerpos astronómicos no son puntos sin dimensiones, y la órbita de un planeta en torno al Sol se ve irremediablemente afectada por la presencia de los demás componentes del sistema solar. Esa influencia de los demás planetas que giran alrededor de nuestra estrella impide que una trayectoria orbital como la de Mercurio –por citar un ejemplo históricamente célebre– sea una curva cerrada, en lugar de lo cual su eje mayor rota sobre el plano orbital con una cierta velocidad angular. Todos estos datos han de obtenerse por análisis de una gran cantidad de observaciones, aplicando métodos de cálculo de errores y técnicas estadísticas que nos ayuden a estimar la fiabilidad de nuestras conclusiones, que nunca serán, obviamente, tan seguras como las del matemático puro.
Ahora bien, junto con la deducción estrictamente lógica de la matemática pura y los datos empíricos con sus estimaciones de errores y confianza estadística, existe una tercera vía para aproximarnos a verdades científicas que a menudo se silencia, aun cuando su importancia teórica y práctica no han dejado de crecer desde que comenzara su uso. Esta tercera senda nos la ofrecen los procedimientos perturbativos, también llamados “método de las perturbaciones” o “teoría de perturbaciones”. En realidad, no resulta muy acertado hablar de “teoría” por cuanto este cálculo no es un cuerpo de teoremas que partan de un conjunto concreto de postulados con un dominio de aplicación bien delimitado, a diferencia de la geometría de Euclides, la aritmética de Dedekind-Peano o la teoría de conjuntos de Zermelo-Frankel.
Mejor sería puntualizar que el método de las perturbaciones forma una rama de las matemáticas que nos proporciona soluciones aproximadas para problemas complejos encontrados en la naturaleza. Las técnicas perturbativas nos enseñan a manejarnos con los inevitables errores de cualquier teoría aplicada al mundo material, ayudándonos a dominarlos paso a paso. Un aspecto característico de estos procedimientos, así pues, consiste en su capacidad para, partiendo de premisas aproximadamente verdaderas, desembocar en resultados cuya precisión –o, si se quiere, su grado de veracidad– puede incrementarse progresivamente(1).
El método de perturbaciones puede aplicarse sin problemas a la solución numérica de ecuaciones algebraicas, donde el resultado es un número, para aproximarnos sucesivamente a un valor cada vez más cercano al exacto (que en ocasiones podría ser un número irracional con infinitos decimales no periódicos). Sin embargo, la máxima utilidad de estas técnicas se obtiene en la resolución de ecuaciones diferenciales, en las que el resultado es una función, digamos f(x). En ese caso podemos partir de una situación simplificada, que llamamos “no perturbada”, cuya solución sería f0(x). Para llegar a la solución completa f(x) podemos imaginar que alteramos gradualmente f0(x) escribiendo f(x) = f0(x) + λf*(x), donde el parámetro λ se va modificando hasta que al llegar a λ = 1 tenemos la solución completa (o “perturbada”), es decir, la función f(x).
Dicho así, suena muy sencillo, aunque en la práctica dista mucho de ser trivial. Uno de los ejemplos más fáciles vendría dado por el caso de la elipse que antes mencionábamos. Partimos de una elipse como la que existiría si Mercurio estuviese girando en solitario alrededor del Sol y vamos añadiendo, poco a poco, los efectos –las perturbaciones– de la presencia de los demás planetas. Al final conseguimos una curva elíptica tan similar como deseemos a la que realmente se observa en la naturaleza, dependiendo del grado de precisión buscado (a más precisión, más tarea de cálculo).
Resulta harto interesante comparar las técnicas perturbativas con la búsqueda de soluciones por iteración en las ecuaciones que carecen de una solución cerrada. Cuando iteramos, introducimos de nuevo en el algoritmo de cálculo la solución inexacta que tenemos para obtener otra solución algo más cercana al valor deseado, y ésta de nuevo se vuelve a introducir como dato inicial para obtener otro resultado aún más preciso y así sucesivamente. Cabría describir estos dos planteamientos con sendas metáforas: una iteración operaría como una espiral en la que nos vamos acercando más y más al objetivo; por otro lado, el método perturbativo se parece más a un amontonamiento de capas y más capas de cálculo que van dando forma paulatinamente a la solución perseguida. Este estilo de acercamiento gradual a un resultado cada vez más exacto a partir de una solución inicial aproximada se advierte también en los polinomios de interpolación de Newton o el famoso desarrollo en serie de Taylor(2), que nos da una aproximación lineal de cualquier función en torno a un punto concreto de la misma.
No obstante, resulta de la mayor importancia subrayar que no siempre se puede tomar como equivalentes dos teorías que llegan al mismo resultado, una con herramientas perturbativas y otra sin ellas. El ejemplo más notorio es el de la teoría gravitatoria de Einstein frente a las teorías rivales provenientes de la Física de partículas. La gravitación relativista equipara el comportamiento de los objetos sometidos a esta fuerza con el movimiento de cuerpos sobre una superficie curva; por el contrario, la alternativa se plantea partiendo del caso plano y añadiendo términos –las perturbaciones– que asemejan el movimiento de los cuerpos al que tendrían sobre una superficie curva. Lo cierto es que actuando así no se consiguen recuperar las conclusiones genuinas de la relatividad general, sino resultados numéricos aproximadamente parecidos(3). Así ocurre porque cada teoría científica, especialmente si es de tan elevado rango como la relatividad general, implica una visión general de la naturaleza del mundo, algo que no puede replicarse mediante aproximaciones numéricas.
Los grandes avances científicos proceden contrastando hipótesis originales que no son producto de un algoritmo ni reducibles a programas informáticos.
Esta es una de las razones –dicho sea de paso– por las que la teoría inductiva de Ray Solomonoff (1926 – 2009) no resuelve los problemas científicos y filosóficos que algunos creen. El problema de la inducción (véase el cap. 2) trata de justificar la validez de una ley universal formulada generalizando un número finito de casos. Como esta empresa es imposible, los inductivistas se conforman con estimar la “probabilidad” –sin que quede claro lo que quieren decir con este término– de que tales generalizaciones resulten ciertas. Para responder a esta cuestión Solomonoff se basó en la hipotética posibilidad de simular la totalidad del universo mediante un programa informático suficientemente sofisticado (la postura denominada “computacionismo”). Cualquier fenómeno incluido en esa simulación sería reproducible mediante un algoritmo de complejidad medible según cierto criterio. La inducción de Solomonoff se apoya en esas premisas para establecer una distribución de probabilidad que otorga mayor peso a los algoritmos menos complejos capaces de reproducir las observaciones que constituyen nuestro conocimiento empírico del mundo material.
Nacido en el seno de la Inteligencia Artificial y el Aprendizaje Maquinal (Machine Learning), este planteamiento flaquea porque resulta dudosa la posibilidad de simular de ese modo el Universo entero. Además, semejante enfoque implica la falacia positivista que identifica las teorías científicas con una mera codificación de datos empíricos, en este caso expresables en forma algorítmica. Muy al contrario, los grandes avances científicos proceden contrastando hipótesis originales que no son producto de un algoritmo ni reducibles a programas informáticos. Nótese que hemos comenzado hablando de las perturbaciones en el cálculo aproximado de soluciones para problemas complejos, y hemos acabado abordando el problema de la inducción desde el punto de vista de la complejidad algorítmica. Ahí tenemos la prueba de que la teoría y la práctica se conectan por vericuetos de lo más intrincados y fascinantes.
NOTAS:
1 Bangu (2012), Barrett (2008), Batterman (2002, 2021)
2 Denominado así en honor al matemático británico Brook Taylor (1685 − 1731).
3 De hecho, existe una ambigüedad ineludible al obtener el llamado tensor de energía-momento lineal (Bičák & Schmidt, 2016).
Referencias
Bangu, S. (2012), The Applicability of Mathematics in Science: Indispensability and Ontology. Palgrave: Macmillan.
Barrett, J. A. (2008), “Approximate truth and descriptive nesting” Erkenntnis, 68 (2), 213 – 224
Batterman, R. W. (2002), The Devil in the Details: Asymptotic Reasoning in Explanation, Reduction, and Emergence. Oxford (UK): Oxford University Press
Batterman, R. W. (2021), A Middle Way: A Non-Fundamental Approach to Many-Body Physics. Oxford (UK): Oxford University Press,
Bičák, Jiří; Schmidt, Josef (2016), “Energy-momentum tensors in linearized Einstein’s theory and massive gravity: The question of uniqueness”, Physical Review D 93 (2), 024009.
© 2024 Rafael Andrés Alemañ Berenguer
All rights internationally reserved for Adelantos Digital