La verdad y la evidencia II. Los límites de la ciencia.

Título

La verdad y la evidencia II. Los límites de la ciencia.

Autor

Horacio Fontana

Fecha

Marzo 2008

Texto

Rev. argent. neurocir. v.22 n.1 Ciudad Autónoma de Buenos Aires mar. 2008

La verdad y la evidencia II. Los límites de la ciencia.

El cambio en la verdad científica y los límites de la ciencia.
El método experimental de Galileo fue empleado con enorme éxito durante varios siglos, obteniéndose resultados notables acerca del conocimiento legal de la naturaleza, sobre todo en la física. En base a principios simples y de una abstracción no demasiado alejada de la intuición aplicada a la realidad cotidiana, se pudieron expresar leyes que serán eternamente aplicables a los dominios para los que fueran concebidas. El término mismo de ley, indica la certeza a que esas leyes nos llevan. Esto, y su aplicación al aumento del poder del hombre sobre la naturaleza, mediante una tecnología cada vez más sofisticada, llevó a exageraciones de la confianza en la posibilidad de la predicción del futuro a partir de un conocimiento completo de las condiciones del presente, que dio origen al determinismo.
Sin embargo, ya filósofos como Kant1, hacían notar en aquella época de optimismo, que sólo conocemos de la realidad (las cosas) un aspecto, que es el de su relación con nosotros. De las cosas en sí, nada sabemos (trascendencia del objeto).

La modificación del concepto de causa. Santo Tomás2 que seguía a Aristóteles fielmente reconocía cuatro tipos de causa: 1) Material: de qué está hecho. 2) Formal: aquello que hace que sea lo que es (forma es un concepto complejo, que incluye materia, morfología y atributos). 3) Eficiente: aquello que produce lo que se genera o perece. 4) Final: aquello para lo que se hace, produce o genera algo. De éstas, sólo quedó en pie la causa eficiente y aún muy modificada. Es algo que precede y frecuentemente coincide con el efecto. Es muy importante esta distinción en el dominio de la medicina, en donde estamos acostumbrados a ver, justamente por la coexistencia de causas y efectos, que unos son tomados erróneamente por otros. Muchos autores hablan de condiciones para que un hecho suceda. Una condición necesaria para la aparición del efecto, es una causa eficiente, pero puede no ser suficiente. Cuando se han reunido las condiciones necesarias y suficientes, el hecho (efecto), se produce o aparece. Necesario, referido a la causa, significa que el efecto aparece cuando está la causa, y no aparece, cuando ésta no está.
El método experimental estuvo profundamente enraizado en este modo de pensar. La actividad médica también.
Sin embargo, el pensamiento causal es inductivo. Es una asociación producida por la costumbre de ver que cuando aparece un hecho, sucede otro, como bien apuntaba Hume3. Esta objeción escéptica típicamente inglesa, al pensamiento causal, no ha podido ser rebatida. Que estemos acostumbrados a que una cosa suceda cuando sucede otra, no quiere decir que la próxima vez será igual. Lo que venimos a tener es una "certeza estadística", proveniente de lo que sucedió antes. Aunque predictiva, la ciencia es un conocimiento certero del pasado. La predicción se basa en una confianza razonable en que en la naturaleza existen regularidades, que son manifestadas por leyes que tienen una expresión matemática.
La acción a distancia planteada por la ley de gravitación universal, es un punto débil de la Mecánica. La causa se concibe actuando en forma directa, no sólo coexistente en el tiempo, sino conectada espacialmente con aquello sobre lo que actúa. La invención de una sustancia conectante intermedia, el éter, salvó transitoriamente las apariencias.
Los sistemas complejos. No siempre la asociación estadística entre dos hechos, significa que uno es la causa del otro. Podría ser que ambos estuvieran asociados a su vez, con un tercer hecho, que no estamos teniendo en cuenta y que es causa de los otros dos. Asociación estadística, incluso fuerte, no significa pues, causalidad. Este es otro error al que estamos sumamente expuestos en la práctica y teoría médicas.
Las leyes físicas como las de la mecánica, aunque caracterizadas por este aspecto estadístico comentado más arriba, alcanzan una certeza absoluta, respecto a una regularidad que realmente existe y rigen para sistemas cuyo conocimiento por parte de la ciencia es perfecto, es decir, cuando se conocen y se pueden manipular experimentalmente todas sus variables.
Hay sistemas que la ciencia no puede conocer perfectamente. Por ejemplo, la presión de un gas es el efecto del choque de numerosísimas partículas contra la pared del recipiente que lo contiene. Se dice que el efecto obtenido es estadístico, porque no importa la posición inicial de cada partícula, ni el instante en que choca contra la pared.
Lo mismo sucede con la temperatura. Para este tipo de fenómenos, se acepta pues, que son el resultado de un comportamiento de conjunto. Y las leyes que los gobiernan, son regularidades estadísticas por este motivo. Estos sistemas de conocimiento imperfecto, han dado origen a la mecánica estadística, desarrollada por Gibbs y Boltzmann, que considera a cada sistema de éstos, como uno entre un conjunto de sistemas equivalentes. Lo que se describe matemáticamente es este conjunto y no el sistema particular4.
La teoría de los cuantos en la física atómica, terminó comprendiendo que no se podían emitir leyes físicas que no fueran estadísticas4.
El principio de indeterminación (Heisenberg), que dice que una partícula no puede ser conocida en su posición y en su velocidad al mismo tiempo, porque éstas son modificadas por el instrumento de observación, y el principio de complementariedad (Bohr), que dice que si dos teorías explican un fenómeno satisfactoriamente, y además explican otros fenómenos diferentes, ambas son verdaderas, terminaron por generar un cambio revolucionario de mentalidad, al que se agregó la teoría de la relatividad, en donde los conceptos han alcanzado tal grado de abstracción, que no pueden ser comprendidos intuitivamente como los de la mecánica, como por ejemplo, el espacio multidimensional de la teoría general de la relatividad, planteado para reemplazar al inexistente éter. Hoy más que nunca, la ciencia comprueba el mencionado aforismo de Kant. Más aún, en las profundidades del conocimiento científico, el hombre se ha encontrado a sí mismo4
Aunque la física marcha sobre terreno firme4 ha pasado del señorío de las leyes a la modestia de las teorías.

Teorías generales y modelos teoréticos. A partir de la segunda guerra del siglo pasado, se produjo un cambio no sólo en la física, sino en los otros campos del saber, en dónde el desarrollo era muy inferior al de aquella, entre ellos, el nuestro. Se comenzó a aplicar el método científico para abordar el conocimiento de objetos no físicos. Está claro que se trata de sistemas imperfectamente conocidos5.
Es una variante del método experimental comentado en el editorial anterior: toda conceptualización de la realidad comienza por la separación de una porción de la misma, un objeto, al que se dota de ciertas propiedades que frecuentemente no son sensibles: se ha creado un objeto modelo.
Éstos están habitualmente compuestos de partes, que funcionan en conjunto formando un sistema, del que surge la función o propiedad del objeto. Es conveniente que se explique el mecanismo de funcionamiento o integración de las distintas partes, de preferencia en forma matemática, con lo que emitiremos una teoría específica, que debería responder a una teoría más general, como una aplicación de ella al campo que se investiga5.
Un objeto teorético puede ser tan simple como una "caja negra", con una entrada o estímulo y una salida o respuesta, hasta complejos sistemas con componentes entrelazados armoniosamente en forma temporal y espacial, con una descripción detallada de los procesos que tienen lugar en cada componente para producir una realización que es el resultado del trabajo armónico de los componentes descriptos (enfoque sistémico)6. Cuanto más detallado el mecanismo, más "científico" el modelo teórico y más profundo el conocimiento.
Aunque un esquema puede ayudar a comprender el despliegue teórico del modelo, no es imprescindible, y es a veces, imposible de lograr5.
Este modelo es sometido a la contrastación de la experiencia, y se realizan los ajustes o cambios que sean necesarios para que se adapte a la realización del objeto real.
El trabajo multidisciplinario en la construcción de modelos teóricos debiera ser fuertemente estimulado entre nosotros.
Un ejemplo de desarrollos de este tipo para temas complejos, ha sido el modelado de las funciones cognitivas, desde los sistemas funcionales de Luria6 o la "modularidad de la mente" de Fodor7, hasta los sistemas de redes neurales de Mesulam8,9.
Un enfoque interesante en este aspecto fue propuesto por Marr del MTI en 198210, que contempla tres niveles conceptuales desde los que se puede enfocar el mismo problema:
1) Nivel computacional: análisis del problema abstracto, descomposición del mismo en sus principales constituyentes y los procesos que tienen lugar en cada uno.
2) Nivel de algoritmo. Especifica el procedimiento o mecanismo para la realización de una tarea o función.
3) Nivel de implementación física. Construcción del modelo o máquina.
Marr pensaba que estos tres niveles podían ser considerados en sí mismos, en forma relativamente independiente uno del otro.

¿Son imágenes verdaderas de la realidad estos objetos teoréticos? No se puede responder otra cosa que no. Primero, porque la ciencia no trabaja con imágenes, sino con conceptos, preferentemente expresados en forma matemática, segundo porque a los científicos les interesan sólo algunos aspectos del objeto: aquellos medibles y relacionados con lo que se investiga, tercero, porque son vistos como conceptualizaciones provisionales, dispuestas a ser modificadas, a medida que su uso descubre fallas en los resultados, cuando son expuestos a la experiencia.
Sin embargo, son construcciones útiles sobre las que basarse en la interpretación de los datos de la realidad5.

Horacio Fontana


Bibliografía

1. Kant E. Crítica de la razón pura. Tomo I. Losada, Buenos Aires, 1983.

2. Santo Tomás. De los principios de la naturaleza. Aguilar Argentina, Buenos Aires, 1981.

3. Hume D. Del conocimiento. Aguilar Argentina, SA., Buenos Aires, 1982.

4. Heisenberg, W. La imagen de la naturaleza en la física actual. Ediciones Orbis, Madrid, 1985.

5. Bunge M. Teoría y realidad. Ariel quincenal. Barcelona, 1981.

6. Luria AR. El cerebro en acción. Martinez Roca, Barcelona, 1983.

7. Fodor JA. La modularidad de la mente. Morata, Madrid, 1986.

8. Mesulam MM. Large scale neurocognitive networks and distributed processing for attention, lenguaje and memory. Ann Neurol, 1990; 28: 597- 613.

9. Mesulam MM. Neurocognitive networks and selectively distributed processing. Rev Neurol 1994; 150: 564- 569.

10. Marr D. Vision. A computational investigation into the human representation and processing of visual information. WH Freeman & Co. New York, 1982.

Document Viewer