hospimedica2

La lógica y el método científico: una unión siempre diletante

hervas

No existe cuestión inalcanzable

Si su búsqueda es coherente y razonable

(Dedicado a los tontos que pueblan la gestión política de la Ciencia).

            El gran creador de la lógica fue Aristóteles – según decimos – aunque yo creo que en buena parte se le debe a Platón. Platón llama dialéctica a la técnica de conocer las relaciones entre las ideas. Aristóteles formaliza las expresiones que definen y estudian dichas ideas, creando la lógica de términos, merced a la cual estudia la inferencia formalmente válida1. De este hecho se aprovecha la moderna epidemiología, en el sentido conceptual.

            Aristóteles inicia los estudios de método científico, incluidos en su concepción del método inductivo, pero igualmente estudia la organización de los sistemas deductivos y la teoría del razonamiento deductivo o silogístico. Así, en la medicina primitiva – un tanto científica, un tanto mística o sacerdotal – determinados sucesos – síntomas – nos llevan a la inducción de conclusiones – diagnósticos – y a sus soluciones compensatorias o tratamientos.

            En sus Analíticos Anteriores (I, 24 a 16) dice Aristóteles que “el enunciado es una oración que afirma o niega algo de algo, y es universal, particular o indefinido. Llamo universal al pertenecer a todo o a ninguno; particular, al pertenecer a alguno o no a todo; indefinido, al pertenecer o no pertenecer, sin indicar universalidad o particularidad”. Por otra parte, en esta misma obra (I, 24 b 18) define el silogismo como “un discurso en el cual, puestas ciertas cosas, algo distinto de las cosas puestas se sigue necesariamente de ellas, como consecuencia suya, y sin que sea preciso introducir ningún otro término para justificar la necesidad de la conclusión”. La ciencia, para Aristóteles, es una trama que se crea enlazando hechos que pueden relacionarse a través de patrones comunes de medida. Un ejemplo puede ser la luz, como patrón de medida nos hace ver los objetos que poseen corporalidad pero no los invisibles. Así, el pensamiento se distingue de la dimensión en que el primero no puede ser iluminado en sentido estricto, mientras que la segunda, sí.

            Por ejemplo: un enunciado universal es decir “el infarto de miocardio es mortal” (no deja otra opción), un enunciado particular sería decir “algún infarto de micocardio es normal” (contempla un caso, pero no todos), y un enunciado indefinido sería: “el infarto de miocardio puede o no ser mortal”, porque no presupone casos determinados de una u otra clase, sino que cualquier cosa es posible (todos, ninguno, algunos, pocos, muchos, etc.).

            Sin embargo, estas presunciones son falsas, como luego veremos, en el método científico actual.

            Igualmente los silogismos no se mantienen, por mucho que los ampliemos. Si yo digo que soy alto y que la jirafa es alta, no quiero decir que soy una jirafa, pero se infiere tal cosa. Francisco Sánchez (quod nihil scitur, de lo que nada se sabe), eminente catedrático de Anatomía en Montpellier, expulsado por judío en época de los Reyes Católicos, llega a la conclusión precoz de que todos los silogismos son falsos.

            El problema de los silogismos es que los predicados (que “predican” la virtud del sujeto, que es un concepto concreto) siempre son difusos, como recientemente demostró Lofti Zadeh. Este genial autor nos demuestra la pertenencia parcial de los elementos a los grupos (uno no es absolutamente tísico, sino que posee un grado de enfermedad, por ejemplo) o lo que es lo mismo: la relatividad conceptual de la ciencia, lo que la convierte siempre en efímera y modificable (la ciencia y el método, como luego insistiremos). Pero volvamos a los silogismos y a su tremenda influencia en el medioevo. Para defenderlos, los estoicos perfeccionan el razonamiento silogístico con la llamada teoría del significado, donde coligan el significado, lo que significa y lo que es2. Pero esto complica las cosas mucho más, porque cualquier proposición base de un silogismo se atomiza, de manera que si digo “el infarto de miocardio puede producir un estallido cardíaco, el estallido cardíaco es mortal y, por tanto, el infarto de miocardio puede ser mortal”, miento y complico las cosas. Miento porque ni gradúo el infarto de miocardio, ni lo defino; miento porque no es igual un estallido cardíaco en una mesa de quirófano que en la calle y miento porque al no definir el tipo de infarto, no digo las condiciones en que puede ser mortal. Por tanto he de definir el infarto de miocardio, el estallido cardíaco e incluso el concepto de muerte, acotándolos para mi estudio (significado). Tampoco es suficiente definir, sino que hay que graduar los significados, porque me falta el antecedente que justifique la inclusión del estallido cardíaco o la muerte. Y además, es probable que no venga al caso mi razonamiento, porque no sea real, habiéndomelo inventado yo. El problema de las atomizaciones es que requieren una herramienta compleja para poder ser evaluadas, como es la informática y – sobre todo – el software especializado, cosa que entonces no existía.

            Boecio, Apuleyo, Pedro Hispano e incluso Raimundo Lulio apoyan y perfeccionan la silogística aristotélica de algún modo, hasta que Leibniz da lo que podemos considerar un paso de gigante en el mundo de la lógica3,4. Leibniz recoge todos los conceptos que atañen al problema y analiza todas sus relaciones posibles. Realmente es un análisis multivariante, aunque primitivo, verdadera columna vertebral del método científico moderno. En nuestro ejemplo, Leibniz relacionaría infarto, latido, dolor, estallido, muerte, sangrado, tensión arterial sistólica, náuseas, mareo, etc., hasta todas las variables mensurables y las relaciona entre sí dos a dos con respecto a predicados comunes. La locura, para esa época. Los infinitésimos, pueden ya ser analizados con dos herramientas magníficas: las derivadas y las integrales, base de la precisión en la observación y del sentido de la continuidad de las cosas. Esto refuerza enormemente el método, porque ya se pueden medir distancias y superficies con cierta garantía.

            La lógica de Port Royal no queda a la zaga y considera la lógica no como una ciencia, sino como un arte, llegando a decir que el pensamiento asume la forma del lenguaje, pero el lenguaje no debe enclaustrar o distorsionar el pensamiento5. Esto es bello, pero disparatado, porque lo que no se comunica carece de validez. Y la comunicación ha de seguir siempre unos cauces convenidos para poder comprender su contenido. Sin embargo decimos que la medicina tiene mucho de arte, pero hemos de entenderla en el sentido. Lo que diferencia el arte de la ciencia es el sentido del razonamiento, que en el científico va de lo general a lo particular, mientras que en el artista, va de lo particular a lo general. Por eso, afirmar que la medicina es un arte tiene mucho de verdad. Veámoslo con un ejemplo. Ante un enfermo, el médico adquiere una experiencia que traslada a otros enfermos de esa misma dolencia, pero – a su vez – mediante la epidemiología, basada en el método científico, observa lo sucedido en varios enfermos tratados por distintos médicos con sus experiencias diversas, deduciendo conclusiones comunes para todos ellos. Estas conclusiones las traslada a esos mismos médicos, que unifican criterios hasta que surgen nuevos factores que les hacen adquirir nuevas experiencias y se repite el ciclo. De manera, que la gran “magia” de la medicina es que permite que convivan arte y ciencia, alimentando dicha convivencia, cosa que no sucede tanto en otras disciplinas más técnicas, como las ingenierías, o de una mayor libertad de visión, como el derecho.

            Kant divide la lógica en general y trascendental, siendo esta última la del intelecto, la de la crítica de la razón pura, la que le interesa de verdad. Por eso distingue entre conceptos empíricos y conceptos puros. Los primeros están mezclados con elementos sensibles (serían los experimentos), mientras que los segundos, no (serían las hipótesis). Es decir, que el método consta de dos partes, una primera hipotética y una segunda experimental, que la corrobora. Así son – de hecho – las tesis doctorales en la actualidad, pese a que dicha metódica esté hoy en día obsoleta. Por eso, la tendencia es cada vez más a convertir el doctorado en un periodo avanzado de estudio, que profundice en una materia concreta y no tanto en un periodo de investigación, algo mucho más complejo y con mayores requerimientos económicos y de tiempo. El método, como todos sabemos, requiere su tiempo (a veces mucho) y suele ser multidisciplinar, si queremos llevarlo a buen puerto.

            Debemos destacar en el XIX a John Stuart Mill (el político inglés que apoyó definitivamente a las sufragistas), con su consideración de la lógica como una elaboración posterior de nuestras intuiciones sensibles. Hay cosas que “se ven”, como la muerte por una enfermedad, pero nosotros no hemos de contentarnos con ello, sino que debemos buscar el análisis de la metódica del daño, para poderlo curar y prevenir. Esto hace el método y para ello, se vale de la lógica. Más o menos en la línea de Kant, pero con una idea más deductiva que corroborativa, pues no todo es percepción inmediata, sino que la mayor parte de nuestros conocimientos son obtenidos mediante deducciones. Pero ni Kant ni Mill dicen una cosa fundamental, y es que el método no es secuencial, sino que en cada momento es a la vez intuitivo y deductivo, porque los imprevistos son la norma, especialmente en el mundo de la investigación, donde cada paso genera múltiples caminos siempre6. Todos hemos comprobado en múltiples ocasiones que “el desvío de la norma parece ser lo normal” en medicina, o como siempre se ha dicho: “no hay enfermedades, sino enfermos”. De ahí el arte y ciencia combinados en nuestro método científico.

            Boole percibe que hay tanta variable que han de agruparse los elementos en conjuntos de ellas. Crea el álgebra de la ideas, convertida en teoría de conjuntos muchos años después por Georg Cantor (que, por cierto, se volvió loco). Este es un paso importantísimo para comprender los procesos: poder agrupar a los enfermos por metódicas de evaluación, como fiebre, dolor, color, temblor, etc.

            Aunque el paso definitivo lo da Gottlob Frege, que fundamenta la aritmética al describir los números naturales y lograr reducir toda la matemática a la lógica, estableciendo los juicios analíticos y sintéticos en su Conceptografía. Para Frege, lo primero es el concepto y lo segundo, el signo con el que se representa. Podemos considerarlo el padre de la lógica simbólica. Porque sin símbolos, la ciencia no puede expresarse. Por eso, la simbología es crítica en el método científico7. La simbología es de uso común en nuestro método: electrocardiograma (ECG) o electroencefalograma (EEG), por ejemplo, poseen una simbología propia, expresada gráficamente y con letras: ondas p, t, alfa, complejo qrs, etc. Otros ejemplos son los datos de laboratorio (por ejemplo: antibiograma SIR, hemocultivo positivo o marcador tumoral también positivo), los estudios de imagen, etc.

            Giuseppe Peano, con objeto de razonar las demostraciones, emprende la tarea de descubrir todas las ideas y leyes de la lógica que se usan en las matemáticas, inventando una serie de símbolos ‘ad hoc’, que profundizan el desarrollo de la lógica simbólica. Entre sus aportaciones figuran la definición de una clase (conjunto) por medio de un enunciado, la idea de que los enunciados con variables libres difieren de un modo fundamental de los bivalentes (volvemos al análisis multivariante), el uso de diversos nuevos símbolos que diferencian las operaciones matemáticas de las relaciones lógicas entre variables, la distinción entre relación y pertenencia de un elemento a una clase (conjunto), la individualización de la propiedad al elemento (que luego generalizaría Bertrand Russell) y otras diversas notaciones. Aunque podríamos considerar como su logro más importante el de la formalización de la aritmética, básico para poder abordar con éxito secuencial el método científico a la luz de la lógica de las relaciones entre variables. De ello se deriva la sintomatología asociada y la sintomatología patognomónica, por ejemplo, o los tratamientos de elección y de sustitución, e incluso las vacunaciones obligatorias y recomendadas. Todo ello posee su expresión matemática.

            Bertrand Russell, con su obra Principia Mathematica (Russell & Whitehead), se constituye en referente fundamental de toda la lógica moderna, con su lógica de los enunciados y predicados, así como su aritmética simbólica, axiomatiza la lógica8 con una serie de reglas de formación y de transformación de los conceptos. Esto le convierte en referente científico. Mejor dicho, le convirtió por unos años, pues ya Gödel (en 1931) presenta resultados sobre lo incompleto de los sistemas formales9. Un concepto puede ser convertido en algo determinante o en algo supletorio en virtud de modelos matemáticos. Sin embargo, los sistemas formales pueden fallar, porque no siempre tenemos una información de calidad.

            Ahora bien, el gran vuelco de la lógica moderna lo produce Lofti Zadeh, con su lógica borrosa, mediante la que demuestra la pertenencia parcial de los elementos a la clase o mejor dicho, la pertenencia de los elementos, simultáneamente, a clases diversas (incluso contrapuestas) en diverso grado. Es la base de la inteligencia artificial y, en definitiva, del método científico que se considera en la actualidad10-14. Hoy en día se piensa que la enfermedad es la consecuencia de un disbalance entre factores de riesgo y factores de protección. Por eso hemos de revisar constantemente nuestros conceptos, puesto que lo que hoy afecta en cierto grado al desarrollo o prevención de una enfermedad, mañana puede afectar más o menos, dependiendo posiblemente de terceros factores previos no considerados o de nuevos factores. La matización de la enfermedad, con la gradación de su sintomatología e incluso de su simbología auxiliar es tarea fundamental de los investigadores y ha de ejercerse de manera continuada.

            Por tanto, a la luz de la lógica (independientemente de sus orígenes), siete hechos son fundamentales en relación con el método científico:

1º) Los silogismos no son aceptables en el mundo de la ciencia, al menos como métodos para obtener conclusiones. No obstante, pueden ser utilizados en forma parcial, en determinadas etapas y ante dilemas muy concretos. Pero lo que no pueden es universalizarse ni deben de ser estandarizados. Esto es porque son excesivamente simplistas y solo ven pequeñas parcelas del problema, con un riesgo importante de error en cuanto a diseño. Por ejemplo, si decimos que con dolor de costado y fiebre hay neumonía, no podemos afirmar que todo paciente con dolor de costado y fiebre la padece. Habremos de hacerle una radiografía, auscultarle e incluso – si es posible – cultivar un esputo del paciente, además de otras muchas cosas, como descartar lesiones traumáticas infectadas e incluso comprobar que no padece un dolor referido, como el del herpes zoster en fase inicial, entre otros procesos.

2º) La lógica requiere símbolos que diferencien las relaciones de las operaciones entre variables. Si no sabemos lo que significa la onda t, no podemos comprender el ECG. Si no sabemos la cantidad de glucosa administrada al paciente en un test de tolerancia a la glucosa, no podremos valorar la curva de glucemia de manera adecuada. Si no sabemos la cantidad de diuresis en el tiempo, no podemos saber un aclaramiento renal. Si no sabemos el peso de un paciente, no podremos ajustar la dosis de medicación que precisa.

3º) El análisis multivariante se revela como el armazón más sólido del método. Pero este análisis multivariante requiere una ideación previa compleja, que ha de ser, casi por necesidad inevitable, multidepartamental o, cuando menos, multidisciplinar. Cuanta más información de calidad y de interés sea disponible, mayor será el valor de nuestras conclusiones. Hablamos de miles – cuando no millones – de datos. Por eso, la OMS requiere información masiva para poder efectuar cálculos predictivos. Pero es que incluso cualquier investigador, sin llegar a tanto, hoy en día evalúa mínimos de quince o veinte variables para llegar a conclusiones aceptables, y eso no se puede hacer más que con sistemas de análisis multivariante.

4º) Los elementos han de agruparse de manera racional en cada variable, ponderando en cada uno de ellos su pertenencia al grupo mediante el empleo de los predicados, que necesariamente han de tener una expresión numérica. En la lógica borrosa, hablamos de conjuntos y subconjuntos borrosos y de predicados vagos, traduciendo la indefinición de los mismos a la forma numérica. Los predicados son los rangos en que nos movemos, no solo de normalidad, sino también de anormalidad. Cada rango es un subconjunto de la variable considerada (la cual es el conjunto), pero a su vez, cada elemento puede pertenecer a diferentes subconjuntos, algunos de ellos incluso opuestos. Por ejemplo, si estudiamos la hepatitis C, una de las variables puede ser el resultado de la biopsia, graduado de 0 a 4, según rango de lesión. Pero otra variable es el valor de la ALT/GPT, graduada en tramos que llamamos de rango 0 a 4. Y otra variable es la carga viral, también en rangos de 0 a 4. Bien, pues un paciente puede tener rango 0 en biopsia, rango 3 en transaminasa y rango 1 en carga viral. De manera que solo pertenece parcialmente al rango 0, al 1 y al 3, pero no al 2 ni al 4.

5º) El método es siempre dinámico, modificándose de acuerdo al desarrollo circunstancial en cada caso, pero ajustándose a los límites presupuestarios en que se desarrolla. Surgen nuevas tecnologías, nuevos desarrollos, nuevas terapias de todo tipo que hacen modificar no solo las conclusiones, sino incluso el método científico. Hablemos del PET (tomografía de emisión de positrones) o de la cirugía mínimamente invasiva, como la del robot Da Vinci, por citar algunos ejemplos. Hacen que precisemos revisar conceptos diagnósticos y terapéuticos a la luz de nuevos enfoques.

6º) La planificación del método es fundamental, combinándose la intuición y deducción de manera que se pueda pasar de una a otra en cualquier momento y en cualquier dirección. Las secuencias rígidas de hipótesis, experimentación y conclusión solamente poseen valor docente, pero no suelen ser reales. A veces es el experimento quien sugiere la hipótesis, o la conclusión, quien precisa de un nuevo experimento con un enfoque y desarrollo distintos. Por ejemplo, al comprobar un efecto secundario no descrito de un fármaco, hemos de revisar su empleo (deducción), pese a que sospechamos que nuestro paciente no lo ha tomado en la forma debida (inducción). O bien, en un determinado caso de hipertensión arterial sospechamos que habrá mala respuesta, pese a que no hay nada que lo justifique, debido a que nuestro paciente posee una psicología determinada, que le hace proclive a crisis hipertensivas de tipo emocional (inducción). Esto lo comprobamos mediante una valoración psicológica (deducción).

7º) Hemos de tener siempre presente la combinación del mundo real con el de las ideas. Porque son o deben ser una misma cosa, a la luz de la lógica. No es un tema de trascendencia ni de observación sensoria, sino que es imprescindible acoplar las ideas al cuerpo, porque solo sabemos comunicarnos a través de nuestros sentidos y mediante la expresión de nuestras ideas en forma simbólica convencional. Por ejemplo, la palabra y la percepción no pueden marchar disparejas. Para que el método científico sea comprensible ha de seguir unas reglas de expresión en cuanto a unidades, secuencia, etc.

            Hay otras cosas a tener en cuenta, pero tal vez estas siete sean las más importantes, desde el punto de vista de la lógica actual, en relación con el método científico, y en especial con el método científico utilizable en sanidad.

Francisco Hervás Maldonado

Doctor en Medicina y Cirugía, Coronel Médico (r)

Excellence in Health Care Prize, 2004.

Doctor Honoris Causa In Health Science por la Global Organization for Excellence in Health.

Bibliografía

  1. Aristóteles. Tratados de lógica. Gredos, Madrid, 1988.
  2. Mates, B. Lógica de los estoicos. Tecnos, Madrid, 1984.
  3. Prior, AN. Historia de la lógica. Tecnos, Madrid, 1976.
  4. Jolivet, J. La filosofía medieval en Occidente. Siglo XXI, Madrid, 1984.
  5. Ferrater, J. Diccionario de filosofía. Alianza, Madrid, 1979.
  6. Bochenski, IM. Historia de la lógica formal. Gredos, Madrid, 1966.
  7. Garrido M. Lógica simbólica. Tecnos, Madrid, 1983.
  8. Russell, B, Whitehead, AN. Principia Mathematica. Paraninfo, Madrid, 1981.
  9. Gödel, K. Sobre proposiciones formalmente indecibles de Principia Mathematica y sistemas afines. Cuadernos Teorema, Valencia, 1980.
  1. Zadeh LA. Fuzzy sets. Info & Ctl 1965; 8: 338-353.
  1. Zadeh LA. Fuzzy algorithms. Info & Ctl 1968; 12: 94-102.
  1. Trillas E, Alsina C, Terricabras JM. Introducción a la lógica borrosa. Barcelona: Ariel 1995.
  2. Tom E, Schulman KA. Mathematical models in decision analysis. Infect Control Hosp Epidemiol 1997; 18: 65-73.
  3. Hervás F, Cortés E, Maldonado JA, Sánchez S. Lógica Borrosa. Aplicaciones sanitarias de interés militar. Med Mil (Esp) 1996; 52(2): 120-125.

Imprimir   Correo electrónico

Escribir un comentario


Código de seguridad
Refescar