sábado, 11 de agosto de 2007

La espitemología y sus desarrollos recientes.

LA EPISTEMOLOGÍA Y SUS DESARROLLOS RECIENTES

La epistemología es la parte más importante de la teoría de la ciencia
NOTA 1; implica el estudio de las ideas científicas desde el punto de vista de su validez como conocimiento.

Algunos autores prefieren llamarla filosofía de la ciencia y aun otros gnoseología o teoría del conocimiento; nosotros usaremos estos nombres indiferentemente, aunque reconocemos que algunos filósofos hacen distinciones sutiles entre los significados de estos términos.

Es necesario anotar que algunos psicólogos, como Jean Piaget, usan el término epistemología en un sentido bastante diferente al que empleamos aquí: no tanto como el estudio de la validez del conocimiento sino como estudio de su génesis en las mentes individuales, especialmente en los niños.

No obstante, en alguna medida los dos conceptos se compenetran entre sí, ya que el desarrollo de las mentes individuales procede en mucho de manera análoga al descubrimiento original de las ideas por la humanidad, de tal modo que algunos autores han señalado un paralelismo entre el surgimiento del conocimiento en el individuo y en la especie.

Es importante tener cuidado de distinguir la epistemología de las disciplinas próximas de la lógica y la psicología. Las tres disciplinas tienen que ver con el conocimiento, pero desde puntos de vista diferentes.

La psicología examina al ser cognoscente en su calidad de ente psicofísico; por su parte, la lógica estudia el pensamiento en sus partes y relaciones, buscando establecer los principios formales del conocimiento. Corresponde en cambio a la epistemología la clarificación del conocimiento como relación de un sujeto y un objeto; en particular, la dilucidación de la correspondencia del pensamiento con la realidad a la que este se refiere.

Debemos también distinguir la epistemología, como estudio de la validez del conocimiento, de la teoría (o filosofía) de la mente. Esta última, con una larga historia en la cultura occidental que se remonta a los filósofos clásicos griegos, busca entender la naturaleza misma de la mente, no su capacidad de formar juicios válidos. En la historia más reciente, a partir del Renacimiento, podemos ver dos posiciones básicas al respecto: el dualismo, representado especialmente por René Descartes, que postula la mente como de naturaleza distinta del cuerpo, y el materialismo, que considera a la mente como la acción de un órgano biológico, a saber, el cerebro humano. Las relaciones de la epistemología con la teoría de la mente son más estrechas, sin embargo, que las que pueda tener con otras disciplinas relacionadas con el conocimiento. En estas páginas le dedicaremos a la teoría de la mente bastante espacio, en el capítulo sexto.

Concretándonos ahora a la teoría de la ciencia propiamente dicha, en su historia más reciente –de este siglo– podemos decir que ha pasado por varias etapas bien definidas. Los primeros decenios fueron dominados por el neopositivismo, o positivismo lógico, que realizó la obra grandiosa de introducir la lógica simbólica o matemática en la disciplina. Podemos decir que la transformó radicalmente, a partir de su estilo filosófico tradicional, en una disciplina rigurosa y sustentada por un aparato formal considerable.

En los años cuarenta se desarrolla una forma de transición que se aparta del positivismo, pero sin abandonar el énfasis en la estructura lógica de los enunciados científicos, introducido por aquel: se trata de la filosofía de la ciencia de
Karl Popper y sus seguidores que rechaza la idea de una lógica de la confirmación (o lógica inductiva) característica de los neopositivistas. En vez de la confirmación, se insiste en la refutación de teorías, que deben demostrar su temple sobreviviendo al intento de probar que sean falsas.

En los años sesenta se introduce un nuevo período, con la obra de
Thomas Kuhn, que cambia el énfasis desde la estructura lógica de los enunciados científicos hacia las vicisitudes históricas de estos mismos enunciados. Lo importante ahora pasa a ser, no la confirmación o la refutación, sino la fidelidad a paradigmas científicos o su abandono. Un paradigma científico, de acuerdo con Thomas Kuhn, es un logro científico de gran importancia que cambia la manera de hacer ciencia de los practicantes de las disciplinas afectadas. Ejemplos son la teoría de Copérnico y su influencia en la manera de practicar la astronomía, o el descubrimiento del oxígeno por Lavoisier y el surgimiento, a partir de la consiguiente teoría de la combustión, de toda la química moderna. Otro paradigma de gran trascendencia es la mecánica newtoniana, que logra unir la astronomía y la mecánica terrestre en una superciencia, la física moderna. Todavía otros son la doctrina de la evolución postulada por Darwin y la teoría celular, que cambian en los últimos ciento cincuenta años la manera de practicar las ciencias biológicas. Podemos mencionar también como paradigmática la obra gigantesca –en nuestro siglo– de los físicos Einstein y Planck, que juntos destronaron al tan exitoso paradigma newtoniano. Finalmente, muchos autores contemporáneos hablan de un paradigma computacional de las ciencias cognoscitivas para referirse a la obra de Alan Turing, que mencionamos más adelante.

En las selecciones que incluimos en este capítulo podemos ver con más detalle algunos de los aspectos de esta sucesión de teorías epistemológicas. El artículo de
Thomas R. Grimes es una presentación de la filosofía de la ciencia que asociamos con el movimiento neopositivista o positivista lógico. Coincide con el punto de vista que otorga al método hipotético-deductivo la mayor importancia en la aceptación –o rechazo– de una teoría.

Para quienes no estén familiarizados con el método hipotético-deductivo o con la notación de lógica simbólica, recomendamos diferir el estudio de este artículo para después de haber estudiado el
artículo de Gutiérrez y Brenes del capítulo tercero, el cual introduce el método hipotético-deductivo con un mínimo uso de formalismos lógico-matemáticos.

Siendo tan reciente, este artículo representa un planteamiento neopositivista tardío que está muy consciente de las dificultades lógicas que se han esgrimido contra este enfoque epistemológico a lo largo de las últimas décadas. Al mismo tiempo, Grimes trata de subrayar "el elemento básico de verdad" que subyace en este enfoque, a saber, la idea de que "una hipótesis se confirma sobre la base de sus consecuencias observacionales"; el autor insiste en que ese mérito es suficiente para que tratemos de salvarlo. El artículo procede a presentar algunos importantes intentos de modificar la versión original de esta tesis epistemológica, mediante ajustes en su respectiva teoría lógica. Muestra cómo estos intentos, que complican la teoría, no la salvan totalmente de dificultades. Finalmente, recomienda una vuelta a la versión original, cuyos defectos el autor está convencido de que no son suficientes para descartarla.

El texto de
Karl R. Popper corresponde a una posición todavía dentro de la corriente formalista lógica pero que reacciona en forma intensa contra la posición neopositivista. Básicamente rechaza la idea epistemológica de que podemos llegar a confirmar la verdad de una hipótesis o teoría gracias a su repetida verificación. Con argumentos estrictamente lógicos, basados en el contraste entre el modus ponendo ponens y el modus tollendo tollens NOTA 2, muestra cómo cualquier cantidad de observaciones confirmadoras de una hipótesis no bastaría para hacérnosla aceptar como verdadera, mientras que una sola observación refutadora bastaría para hacérnosla abandonar como falsa. Al examinar este asunto, procede a ratificar la imposibilidad de tener una lógica inductiva, ya demostrada por el filósofo David Hume.

Con motivo de toda su argumentación, el autor realiza una elucidación de términos muy importantes en filosofía de la ciencia, como son los de enunciados universales y enunciados existenciales. Culmina su razonamiento con la tesis, muy importante para su postura epistemológica, de que en realidad en ciencia no podemos llegar a saber con propiedad nada: solo podemos conjeturar. Esta conclusión debe tomarse con cuidado, sin embargo. El autor no pretende con esto dar base para que nos sintamos en libertad de aceptar cualquier clase de conjetura: el método científico, que implica el intento redoblado de los científicos de demostrar que sus propias teorías –o las ajenas– son falsas, nos garantiza que las conjeturas que sobreviven el embate han demostrado su temple. Solo esas conjeturas son las que debemos aceptar.

Esta posición entraña la predicción de que los científicos abandonarán una hipótesis o teoría siempre que se encuentre un caso en contrario o deje de cumplirse una predicción. Si ahora la consideramos a ella misma como una teoría, y si la predicción es que los científicos abandonan sus teorías cuando encuentran casos en contrario, resulta, según Thomas Kuhn, que deberíamos rechazar la doctrina de Popper en nombre de ella misma.

En efecto, Kuhn nos presenta en su libro The Structure of Scientific Revolutions –del cual hemos traducido una
selección para este capítulo– gran cantidad de ejemplos, sacados de la historia de la ciencia, en que los científicos no aceptan los casos en contrario como refutación de sus teorías, sino más bien las defienden contra ellos de mil maneras distintas; la más simple es considerarlos como simples anomalías, dejándolos en suspenso para estudio posterior. Kuhn toma esto como base para elaborar una teoría de la ciencia alternativa, que en vez de basarse en el análisis lógico de los enunciados científicos –como los positivistas o Popper– descansa más bien en la observación directa de los fenómenos históricos de la ciencia y en la práctica real de la vida científica.

Las
selecciones del libro de Laudan que hemos traducido representan un intento de síntesis de posiciones contradictorias y en cierta forma ofrece un ensayo de conciliación de las tesis de Popper y de Kuhn. En todo caso, representa una epistemología más matizada, en la que se trata de dar peso a distintos factores, incluyendo los lógicos y los históricos.

Uno de los problemas fundamentales que trata Laudan es el de la formación del consenso científico.

Para este autor el problema es bastante complejo, porque existen niveles de conocimiento en la posición científica que es necesario distinguir: el nivel de los hechos, el de las reglas metodológicas y el de los valores cognoscitivos; forman una jerarquía, donde los valores cognoscitivos dominan a las reglas metodológicas y estas a los hechos.

El consenso puede referirse a cualquiera de estos niveles y normalmente los desacuerdos en un nivel se solucionan ascendiendo a otro nivel en que no hay desacuerdo. Esto nos llevaría a postular que en el nivel supremo, el de los valores cognoscitivos, no pueden resolverse los desacuerdos. Sin embargo, es mérito particular de este autor el haber señalado que existe un complejo proceso de ajustes mutuos entre los niveles y su justificación recíproca: "la justificación fluye hacia arriba tanto como hacia abajo, enlazando metas, métodos y aseveraciones de hecho".

La antología prosigue con una selección muy breve de
Thomas Hobbes . Esta cita es famosa porque es el más claro ejemplo que nos provee la filosofía clásica de una declaración contundente del concepto informático de la mente. Por ella se considera a Hobbes el precursor del paradigma computacional de las ciencias cognoscitivas. Para Hobbes, "razonar no es más que sacar cuentas", y todos los más complicados pensamientos se reducen a operaciones fundamentales de carácter aritmético.

Continúa nuestra selección de lecturas con una aún más breve cita de
G.W. Leibniz, el otro gran precursor del paradigma informático. Leibniz era un convencido del carácter fundamentalmente lógico de la estructura del universo. Dentro de ese espíritu, llegó a concebir un lenguaje de tipo matemático para formular y resolver cualquier problema que podamos concebir, sea en el área científica, sea en el área de las relaciones humanas NOTA 3. A ese lenguaje le llamó, en latín, characteristica universalis, queriendo decir categorización universal, método de representar todas las cosas y todas las situaciones.

El texto de
Alan Turing tiene una importancia histórica capital. Este artículo, aparecido en 1950, representa el nacimiento de una de las principales disciplinas que asociamos con las ciencias cognoscitivas, a saber, la inteligencia artificial. Por primera vez se toca seriamente en una revista científica el problema exótico de si las máquinas podrán algún día pensar. Particular importancia tiene, en relación con este artículo, el que su autor sea la misma persona que en los años treinta había producido una revolución en matemáticas, formalizando el concepto de algoritmo e introduciendo el fecundo concepto de la máquina universal que lleva su nombre; tal máquina fue a su vez el modelo en que se inspiraron, en los años cuarenta, los creadores de la computadora digital.

El análisis de Turing puede considerarse la culminación de un movimiento general hacia una explicación mecanicista y fisicalista del pensamiento y comportamiento humanos, ya en evidencia en el siglo diecisiete, como lo ejemplifican el descubrimiento de la circulación de la sangre por Harvey, las ideas de Descartes sobre los animales (a los que consideraba como máquinas), la concepción del razonamiento por Hobbes y Leibniz como simple cálculo (
Gandy 88).

Independientemente de ese valor histórico, el artículo tiene importancia por otras dos razones. La primera de ellas es que en él se presenta la descripción de una prueba, desde entonces conocida como prueba de Turing, para decidir si una máquina posee inteligencia. Consiste –en breve– en que, si una persona cree tener como interlocutor (a través de un teletipo) a otra persona, cuando en realidad tiene a una máquina que se comporta como una persona, entonces la máquina se reputa inteligente (hasta el día de hoy, ninguna máquina ha podido pasar esta prueba). La segunda es que en este artículo se presenta un inventario de posibles objeciones a la posibilidad de la inteligencia en una máquina, y son refutadas por el autor, rigurosamente, una por una.

Generalmente se considera este artículo como el precursor de las ciencias cognoscitivas en el sentido contemporáneo. Podemos decir incluso que el pensamiento de Turing, aquí representado, constituye el paradigma mismo de estas ciencias. Por primera vez vemos en él, aunque sea implícitamente, la consideración del cerebro humano como una máquina de un cierto tipo, que podría en principio ser imitada por una máquina universal (o una computadora). ¿Qué consecuencias se siguen de considerar a la mente humana como una encarnación de una máquina universal, del mismo modo que lo son las computadoras? Las consecuencias son extraordinarias: ni más ni menos que unificar las ciencias del conocimiento y llevarlas a un grado de productividad nunca alcanzado antes por ellas –exactamente lo que corresponde a una revolución intelectual como las que asociamos con el advenimiento del paradigma newtoniano o del de Lavoisier o de Darwin–.

Al explorar dichas consecuencias, debemos tomar en cuenta dos ambigüedades en el concepto de máquina. Cuando decimos que una máquina de Turing es capaz de imitar a cualquier otra máquina debemos suponer que si la máquina imitada no es simplemente una máquina abstracta (definida matemáticamente) sino una máquina concreta, la máquina Turing debe ser realizada de manera física y tener órganos efectores y sensibilidad que la capaciten para ejecutar tareas prácticas. La segunda ambigüedad que debe ser despejada tiene que ver con la connotación peyorativa que normalmente asociamos con la palabra máquina. Oponemos los términos "mecánico" y "vital" como lo rígido a lo flexible, lo insensible a lo adaptable, lo grotesco a lo gracioso. Pero nada de eso es válido frente a la plasticidad de las nuevas máquinas relacionadas con la electrónica, por antonomasia aparatos flexibles y adaptables a las circunstancias. Esta idea, de un nuevo concepto de máquina, es analizada amplia y magistralmente por Marvin Minsky en su libro The Society of Mind, del cual incluimos una
selección representativa como culminación de mismo capítulo.

NOTA 1 Otras partes de la teoría de la ciencia que no son epistemología son, por ejemplo, la sociología de la ciencia o la historia de la ciencia.

NOTA 2 Consultar el artículo de Gutiérrez y Brenes en el capítulo tercero de esta colección para mejor comprender esta oposición.

NOTA 3 Son famosas las intervenciones diplomáticas de Leibniz en la Europa de su tiempo que buscaban el asentamiento de la paz internacional.
Fuente: pág. ídem. 542-545.
MESOGRAFÍA

1 comentario: