Altillo.com > Exámenes > UBA - CBC > Pensamiento Científico

Pens. Científico

Resumen para el 2° Parcial

Cátedra: Gentile

Sede Drago

Año 2007 Altillo.com

1- Hipótesis

La tarea comienza con la formulación de un interrogante y la propuesta de alguna hipótesis para resolverlo, y continúa después con los intentos de someter la hipótesis a contrastación (prueba).

Una hipótesis es una proposición cuyo valor de verdad no se conoce con certeza. Se disponen experimentos u observaciones que resulten relevantes para creer que la hipótesis es verdadera o bien para rechazarla.

Tipos de Hipótesis: En algunos casos solamente contienen términos descriptivos que se refieren a objetos, propiedades, relaciones, procesos o hechos que pueden observarse directamente, sin necesidad de utilizar ningún instrumento. Se denominan términos observacionales (“rojo”, étc.). Pero otras expresiones que suelen figurar en las hipótesis científicas no refieren a algo que pueda ser observado directamente, son los llamados término teóricos (“masa”, “campo electromagnético”, étc.).

La contrastación de una hipótesis a través de sus predicciones observacionales supone aceptar otras hipótesis que cumplen un papel auxiliar, se denominan hipótesis auxiliares.

Una hipótesis ad hoc se caracteriza por careces tanto de apoyo teórico como de apoyo empírico independiente. No se deduce de ninguna teoría aceptada, ni cuenta con ninguna evidencia observacional a su favor fuera de la propia situación experimental que motivó su introducción.

No es adecuado subestimar una hipótesis por la falta de evidencia empírica o teoría suficiente, se puede lograr con posteridad una evidencia independiente y articularse de manera coherente dentro del corpus teórico aceptado.

Finalmente, desde un punto de vista lógico podemos hacer una distinción entre hipótesis generales e hipótesis singulares. Una hipótesis general hace referencia a un conjunto de cierto sentido indeterminado de individuos, procesos o hechos eventualmente infinito, y se caracteriza por la presencia de cuantificadores tales como “todos” o “ningún”. Una hipótesis es de carácter singular en la medida en que se postula en la existencia de un objeto determinado.

Estructura de las Teorías Científicas: Se formulan conjuntos de hipótesis articuladas que pretenden dar cuenta de las características de un cierto aspecto de la realidad, reciben el nombre de teorías y están compuestos por hipótesis de diferentes niveles.

En el nivel superior se encuentran las hipótesis fundamentales o principios, aquellas que no se deducen de ninguna otra proposición de la teoría; a partir de ellas se deducen otras hipótesis de menor nivel, hipótesis derivadas, de generalidad más restringida.

Las hipótesis fundamentales de las teorías científicas suelen estar formuladas en un vocabulario teórico; mientras que las consecuencias de nivel inferior son de carácter observacional.

La conexión lógica entre las consecuencias de nivel inferior y los principios de teóricos se hace posible en virtud de la existencia de hipótesis mixtas, suelen denominarse enunciados puente o reglas de correspondencia.

La transición de las generalizaciones empíricas a las hipótesis teóricas requiere la intervención de inteligencia creativa. El carácter distintivo de la ciencia radica en la invención de hipótesis capaces de ser sometidas a la contrastación empírica.

2) i- El Papel de la Inducción en la Investigación Científica

No puedo probar leyes universales, pero mientras no encuentre un contraejemplo son leyes generales. El propósito que se persigue es la articulación de las proposiciones que componen la teoría en un sistema deductivo, de manera que a partir de algunos principios el resto de las hipótesis surjan como consecuencias deductivas. La legitimidad de las hipótesis de las teorías fácticas depende de su capacidad para resistir las contrastaciones empíricas. No sólo deben ser mutuamente consistentes sino también verdaderas. Pero estas proposiciones universales se refieren a un conjunto amplio e indeterminado de casos de manera que no pueden inspeccionarse todos y por otra parte suelen incluir términos teóricos y en consecuencia hacen referencia a aspectos de la realidad que no pueden examinarse directamente. La observación nunca permitiría verificarlas completamente. Se ha sostenido que el método de investigación distintivo de las ciencias fácticas consiste en la utilización de inferencias inductivas (porque no tengo un contraejemplo).

Causalidad: En el siglo XVII David Hume (líder de la filosofía empirista, cuya doctrina establece que todo conocimiento fáctico sólo resulta legítima en la medida en que se mantenga dentro de los estrictos límites de la experiencia sensible); formuló un análisis sobre la legitimidad del concepto de causalidad. Cuando afirmamos que un hecho C es la causa de otro hecho E nuestra creencia deriva del cumplimiento de tres condiciones: i) C y E son contiguos, se manifiestan en la mayor proximidad espacial; ii) C es inmediatamente seguido por E; iii) Todas las veces que se ha observado C también se ha observado E, sin excepción. La relación causal supone una conexión necesaria entre la causa y el efecto, de manera que también en el futuro cada vez que se produzca C forzosamente deberá ser seguido por E. La conexión necesaria no es observable.

En conclusión ni la experiencia ni la razón alcanzan para asegurar absolutamente que los fenómenos futuros se presentarán de la misma manera que los pasados.

Todas las inferencias inductivas se caracterizan por la pretensión de obtener una conclusión sobre algo no observado a partir de premisas referidas a fenómenos observados. Aunque las premisas sean todas verdaderas no aseguran lo mismo con la conclusión, a diferencia de los razonamientos deductivos.

Las premisas de un razonamiento inductivo justifican la conclusión de una manera más débil que en el caso de las inferencias deductivas. Pero la repetición de observación o experimentos que se comportan de acuerdo con una generalización refuerzan su credibilidad. La variedad de los casos observados cumple un papel tan importante como la cantidad en las inferencias inductivas.

ii) Empirismo Lógico

En los comienzos del siglo XX los desarrollos que se producían en las ciencias formales como en las fácticas fueron acompañados por el surgimiento del movimiento llamado Positivismo Lógico. Los positivistas lógicos descalificaban no sólo las doctrinas metafísicas tradicionales sino también cualquier otra hipótesis que careciera de consecuencias observacionales. No reconocían más que el conocimiento brindado por la investigación científica.

El Criterio verificacionista del significado: Establece que además de las fórmulas lógicas o matemáticas sólo poseen significado informativo las oraciones cuya verdad o falsedad puede determinarse por medio de la experiencia sensible. Con la intención de establecer una demarcación entre los enunciados científicos y las concepciones metafísicas.

Se formuló un criterio más débil ya que las ciencias fácticas producen generalizaciones empíricas que no pueden verificarse en forma directa; los empiristas formularon que la exigencia de que la observación brindara al menos indicios relevantes para decidir el mantenimiento el abandono de las hipótesis. El objetivo era elucidar los procedimientos que fueran capaces de justificar las teorías científicas y se identifica con el grado de confirmación que alcance.

Confirmación y refutación de hipótesis

En cuanto a las hipótesis en cuya formulación aparecen términos teóricos, no pueden confirmarse exactamente de la misma manera, porque ninguno de sus posibles ejemplificaciones puede observarse directamente. Pero sí debe ser posible deducir enunciados observacionales suplementando las hipótesis teóricas con enunciados que contienen términos observacionales.

Existen implicaciones contrastadoras que son una consecuencia de una hipótesis que sirve para ponerla a prueba.

El hecho de que la implicación contrastadora resulte falsa autoriza a pensar que la hipótesis que la implicaba queda refutada en este caso. Puede darse el caso de que la implicación contrastadora sea verdadera pero sin embargo no es condición suficiente para concluir que la hipótesis es verdadera dado que la verdad de consecuente de un condicional no obliga a que su antecedente también sea verdadero.

La circunstancia de que las implicaciones contrastadoras de una hipótesis resulten verdaderas de ninguna manera significa que la hipótesis también sea verdadera.

Por este motivo se recurre a la inducción: el número y la variedad de implicaciones contrastadoras que se hayan verificado además de la ausencia de implicaciones contrastadoras que la refuten confirman la hipótesis, es decir aumentan su credibilidad y justifican su mantenimiento.

En síntesis de acuerdo con los empiristas lógicos, las hipótesis de las ciencias fácticas ya sean generalizaciones empíricas o proposiciones que contienen términos teóricos, pueden justificarse conforme al apoyo inductivo que le prestan sus implicaciones contrastadoras: aunque tal apoyo no elimina la posibilidad de que las hipótesis sean en realidad falsas.

Aún cuando una hipótesis no haya sido puesta a prueba a través de sus propias implicaciones contrastadoras, pero se deduce de otras hipótesis bien confirmadas, se considera que recibe un apoyo teórico. Correlativamente, cuando se propone una hipótesis que resulta incompatible con otras bien confirmadas, queda afectada su credibilidad.

3) La Concepción Falsacionista

i) Críticas a la inducción

Karl Popper elaboró una concepción antiinductivista, desde cuya perspectiva la propiedad distintiva de las hipótesis de las ciencias fácticas reside en su “falsabilidad”.

La falsabilidad reside en la posibilidad de demostrar la falsedad de las hipótesis, y no en la posibilidad de confirmarlas.

Popper sostiene que el principio de inducción no se puede sostener por sí mismo ya que no es una verdad lógica, como las tautologías. Si el principio de inducción fuera una verdad lógica, su negación adoptaría la forma de una contradicción. Pero tampoco puede fundarse en la experiencia porque se trata de un enunciado universal y precisamente lo que está en discusión es la posibilidad de justificar los enunciados universales a partir de la experiencia necesariamente limitada.

A juicio de Popper aún cuando se modificar el principio de inducción de manera que se refiriera a la probabilidad que permitiría asignar a las hipótesis, en lugar de referirse a su verdad, volverían a presentarse los problemas ya mencionados, como el de la necesidad de justificar este principio modificado apelando a uno de orden superior.

ii) La falsabilidad como criterio de demarcación

Popper presenta su propuesta como la explicitación de una serie de reglas metodológicas que han de aceptarse por convención. La regla suprema indica que ningún procedimiento científico debe impedir que un enunciado permanezca a salvo de la posibilidad de ser refutado. El criterio señala que las teorías científicas son aquellas susceptibles de ser refutadas por la experiencia.

Popper sostiene que las teorías científicas están compuestas por hipótesis de carácter universal. Y ésta circunstancia da lugar a una asimetría, cuando se las compara con los enunciados existenciales, a saber las proposiciones universales no pueden verificarse por medio de ningún conjunto finito de contrastaciones.

La asimetría radica en el hecho de que las proposiciones universales son refutables pero no verificables mientras que las existenciales son verificables pero no refutables.

La experiencia sensible sólo se manifiesta en relación con ciertos enunciados que Popper denomina “enunciados básicos”. Un enunciado básico es el que tiene la forma de un existencial singular, es decir es un enunciado que atribuye a cierta entidad identificada por la mención del lugar y el momento en los que se encuentra determinada propiedad observable.

De acuerdo con Popper para que una teoría sea genuinamente científica debe poder dividir el conjunto todos los enunciados básicos, del mismo modo que la hipótesis de que “todos los cuervos son negros”, en dos subconjuntos: los que son compatibles con ella y los que no lo son. Si la teoría es científica, este último conjunto, el de los enunciados básicos incompatibles, no puede ser vacío.

IMRE LAKATOS (El Falsacionismo Sofisticado)

La concepción lakatosiana de la ciencia comienza con una crítica al programa de Popper. Lo que Lakatos rechaza es una versión un tanto ingenua del Falsacionismo según la cual toda teoría debe considerarse falsa tan pronto se compruebe la existencia de una contra evidencia empírica y en conformidad con tal comprobación debe ser descartada (Popper). El rechazo sobrevendrá sólo como resultado de la aplicación de ciertos criterios metodológicos que incluyen una variada gama de razones y decisiones; en particular de la consideración de que las teorías se desarrollan a través del tiempo.

En primer lugar Lakatos, al igual que Popper, rechaza las doctrinas justificacionista del conocimiento (afirmaciones de la ciencia pueden ser demostradas). Las doctrinas pueden ser refutadas en ciertas condiciones por los resultados de las observaciones; ésta es la única visión racional que podría sostenerse acerca de las afirmaciones teóricas de la ciencia.

En segundo lugar Lakatos, lo mismo que Popper, considera que los enunciados básicos o factuales no pueden verificarse por la observación (experiencia privada que tiene lugar en la mente de los sujetos cognoscentes) o el experimento. Lakatos y Popper adoptan una posición convencionalista: los enunciados básicos se aceptan por un acuerdo de la comunidad científica. No es arbitrario sino que está inspirado por los resultados de las observaciones y los experimentos. El convencionalismo de Lakatos no sólo afecta a los enunciados básicos sino a todas las proposiciones que componen las teorías. Está convencido que constituye un rasgo de racionalidad a la formulación de teorías científicas.

En tercer lugar Lakatos comparte con Popper la idea de que todos los términos están cargados teóricamente; se coloca decididamente contra una demarcación tajante entre el lenguaje teórico y lenguaje observacional, pero (y en esto vuelve a coincidir con Popper) piensa que esta circunstancia no impide la existencia de un lenguaje común, artificial sobre cuya base es posible la comunicación entre científicos (implica el rechazo de la tesis de la inconmensurabilidad de las teorías).

Por último Lakatos confiesa que las ideas fundamentales de su Falsacionismo Sofisticado estaban ya contenidos en la obra de Popper. Ambos filósofos creen que deben preservarse la consistencia, el poder predictivo de las teorías científicas y la objetividad del conocimiento.

La marcha de la ciencia es un proceso racional y en consecuencia debe ser explicado atendiendo fundamentalmente a esta racionalidad.

La reconstrucción de este proceso nos revela que la ciencia progresa, a que se ha producido un acrecentamiento continuo del conocimiento.

Progreso y evolución no incluyen una meta. Infinitud elimina la meta sustentada en la rentabilidad.

i) Falsacionismo Dogmático

Popper argumentó contra el justificacionismo demostrando que los enunciados científicos son inverificables y que todos son igualmente improbables, pues cualquier ley universal de la ciencia que consideremos tendrá una probabilidad igual a cero, ya que el número de casos singulares que pretende abarcar es infinito. Rechazó la lógica inductiva (que defendía el probabilismo) y en contraposición elaboró el deductivismo dentro de un marco falibilista (tesis de que todas las teorías, las formuladas y las que vayan a formularse en el futuro, pueden ser falsas, de manera que la investigación científica nunca podrá garantizar verdad).

Popper propone como alternativa el Falsacionismo, cuya tesis principal establece que las leyes de la ciencia no son verificables ni probables pero sí falsables.

Su concepción acerca de las teorías es la de conjuntos de hipótesis, conjeturas que deben ser contrastadas empíricamente; en caso de que resistan las contrastaciones se las considera corroboradas, de manera provisional. El lema Falsacionista es: audacia, en la formulación de las hipótesis y severidad en las contrastaciones. La marcha de la ciencia se presenta como una sucesión de conjeturas y refutaciones en la que las teorías van siendo propuestas y luego derrocadas en una suerte de revolución permanente.

Lakatos llama Popper0,Popper1 y Popper2 a las etapas del filósofo, aclarando que el Popper0,es decir el Falsacionista dogmático en realidad nunca existió, jamás publicó una sola palabra, lo inventaron y criticaron. El Falsacionismo dogmático puede caracterizarse como una filosofía no inductivista pero estrictamente empirista. No inductivista porque sostiene que las teorías pueden falsarse pero nunca verificarse; empirista porque afirma que hay una base empírica sólida e irrefutable para la contrastación. Según Popper una teoría es científica si prohíbe ciertos hechos que, de ser observados, harían falsa la teoría. Si así fuera habría que rechazarla de inmediato, la falsación coincide con el rechazo. La posición es dogmática porque descansa en tres supuestos que se resumen como sigue:

i. Puede trazarse una demarcación neta entre enunciados teóricos y enunciados observacionales o básicos.

ii. Los enunciados observacionales o básicos son demostrables por la experiencia.

iii. Una teoría es científica si tiene una base empírica entendida como el conjunto de los falsadores potenciales de la teoría, verificables por la experiencia.

Según Lakatos ninguno de estos tres supuestos resiste la crítica, la psicología testifica en contra del primero, la lógica en contra del segundo (un enunciado básico no puede verificarse ni refutarse por ninguna observación sino a partir de otros enunciados) y por último consideraciones metodológicas testifican en contra del criterio de demarcación.

Los argumentos de Kant y Popper revelan que ninguna observación es puramente sensorial, aún cuando no se utilicen instrumentos por cuanto la percepción siempre comporta un elemento de interpretación inevitable (subjetiva, percibida por sentidos). El criterio de demarcación del FD excluye las teorías que no logran prohibir ningún estado observable de las cosas, tales como las leyes probabilísticas o aquellas cuya contrastación requiere la cláusula ceteris paribus (expresa la suposición de que no hay ningún otro factor que esté actuando sobre el fenómeno de estudio, hipótesis auxiliares que atacan la refutación para conservar la teoría). Ésta cláusula es un enunciado universal de inexistencia y no es verificable por la observación ni el experimento. Lakatos alude a la teoría de Deum-Quine según la cual toda teoría puede ponerse a salvo de las refutaciones si se tiene suficiente imaginación, mediante cambios en algunas de las hipótesis que componen el sistema total al que pertenece la teoría.

Si aplicamos los criterios del FD resultará que las teorías más importantes no son otra cosa que metafísica irracional y el progreso científico es ilusorio.

ii) Falsacionismo Ingenuo

En ésta teoría que Lakatos prefiere llamar Falsacionismo Metodológico Ingenuo (FMI), ha sometido a crítica los supuestos cuestionados y adopta una postura parcialmente convencionalista en una versión conservadora y otra revolucionaria.

En el convencionalismo conservador, representado por Poincaré y Le Roy, sostiene que los científicos aceptan por convención teorías universales respecto de las cuales se toma la decisión de no permitir que sean refutadas por ninguna observación o experimento. El fundamento de tal decisión es el éxito que han demostrado a lo largo del tiempo. Si aparece una contraevidencia empírica se producen hipótesis auxiliares para conservar la teoría.

El convencionalismo revolucionario (Duhem y Popper) también sostiene que las teorías científicas se mantienen en virtud de convenciones pero ofrece, además, criterios que establecen en qué condiciones se ha de eliminar una teoría para dar paso a otra mejor.

Duhem considera que ninguna teoría científica se viene abajo por una refutación empírica, pero debe ser abandonada cuando los arreglos introducidos para preservarla han complicado su trama. Para esta decisión priman criterios estéticos y en cierto modo subjetivo.

En cambio el convencionalismo de Popper se restringe únicamente a los enunciados básicos y está ligado al método de falsación. Considera que no son las hipótesis universales lo que se decide mediante un acuerdo sino los enunciados espacio-temporalmente singulares que sirven para contrastarlas. Se apoyan también en las técnicas instrumentales y en las teorías que interpretan las observaciones. La base empírica de la ciencia está constituida por hipótesis que son tan refutables como las teorías a las cuales deben controlar. Ahora se admite que todos los enunciados de la ciencia son teóricos de alguna u otra manera, de modo que es una decisión metodológica la que hace que sean considerados básicos. Su aceptación o rechazo es fruto de un acuerdo convencional.

No todo desacuerdo entre la teoría y las observaciones implica rechazo de la teoría; el Falsacionista metodológico separa el rechazo y la contrademostración.

El Falsacionismo Metodológico sostiene que la base empírica que apoyaban los dogmáticos no puede existir y en consecuencia declara que una teoría es científica sólo si cuenta con una -base empírica-, con un conjunto de refutadotores potenciales cuya aceptación depende de una decisión convencional.

El FMI ha incurrido en un grado excesivo al convencionalismo.

iii) El Falsacionismo Sofisticado

Lakatos advierte que el FD y el FMI comparten supuestos que les impiden dar cuenta de la historia real de la ciencia:

1. Una contrastación es un enfrentamiento entre la teoría y la experimentación, de modo que en la confrontación final sólo estos dos se enfrentan uno al otro.

2. El único resultado interesante de esa confrontación es la falsación (concluyente). Los únicos verdaderos descubrimientos son las refutaciones de hipótesis científicas.

Lakatos propone reemplazarlos por las siguientes versiones refinadas:

1. Las contrastaciones son, al menos, un triple enfrentamiento entre teorías rivales y experimentación.

2. Algunos de los experimentos más interesantes resultan de la confirmación más que de la falsación.

No hay juego científico si no se dan dos o más teorías rivales que compiten en la explicación o la predicción de los hechos.

Lakatos piensa que el valor de las refutaciones depende del éxito correlativo de una teoría rival.

Lakatos elige una unidad de análisis más amplia que denomina programa de investigación científica. Las teorías deben examinarse en forma integradas, en una secuencia de teorías que comparten un núcleo firme común.

Un programa de investigación científica (PIC) es una sucesión de teorías emparentadas que se van generando una a partir de la otra. Tienen en común un conjunto de hipótesis fundamentales que forman su núcleo firme, al cual se declara irrefutable por convención.

El núcleo firme de todo programa de investigación se halla resguardado por un cuerpo de hipótesis auxiliares que forman un -cinturón protector- alrededor del núcleo.

Cada una de las teorías que forman la secuencia propia de un programa de investigación está compuesta por el núcleo firme compartido y un cinturón protector (cualquier modificación en el cinturón genera la siguiente teoría de la secuencia).

Cada PIC proporciona las reglas que han de guiar las transformaciones necesarias; Lakatos las clasifica en dos tipos de heurística (metodología de transformación en el programa): una negativa, que nos dice lo que se debe evitar y prohíbe refutar el núcleo firme; y una positiva que indicar el camino que debe seguirse para continuar el programa, tiene un rol preponderante en el desarrollo del programa porque cumple doble función: a) indica qué transformaciones se deben realizar en el cinturón protector para resolver las anomalías, anticiparlas y transformarlas en ejemplos corroboradores y b) indica cómo encauzar la investigación para que conduzca al descubrimiento de nuevos hechos.

Ésta última es la más importante ya que casi todas las teorías se desarrollan en medio de anomalías y es frecuente que los científicos decidan dejarla de lado y continúen trabajando en el fortalecimiento del programa.

El Cambio Científico y las Reglas de Aceptación y Rechazo

Según el Falsacionismo Sofisticado, el desarrollo de la ciencia se manifiesta mediante dos tipos de cambio: 1) el cambio que se produce al reemplazar una teoría por la que la sucede dentro de un mismo programa de investigación. Lakatos admite que los cambios de éste tipo corresponden a lo que Kuhn denomina “investigación científica normal” mientras que el reemplazo de un programa por otro señala la ocurrencia de una revolución científica.

2) Las modificaciones operadas en el cinturón protector de las teorías constituyen un cambio de problemática que puede ser tanto progresivo como degenerativo. Es teóricamente progresivo si cada teoría de la secuencia tiene un exceso de contenido empírico respecto de la anterior, y es empíricamente progresivo si una parte del contenido empírico excedente queda corroborado. Por el contrario, es regresivo o estancado si su desarrollo teórico queda rezagado respecto del empírico, cuando aduce explicaciones post hoc de los hechos descubiertos por casualidad o anticipados por teorías rivales.

Lakatos sostiene que el científico no sólo está autorizado a conservar las hipótesis que conforman el núcleo de su programa de investigación, sino que es aconsejable hacerlo, siempre y cuando el programa se muestre progresivo (característica distintiva de la actitud científica).

Lakatos llama Falsacionista a ésta metodología pero redefine el concepto de falsación, que debe referirse a complejos teóricos que evolucionan en el tiempo:

A toda teoría científica hay que evaluarla junto con sus hipótesis auxiliares, condiciones iniciales, étc. y especialmente junto con sus predecesoras, de modo que podamos ver qué tipo de cambio ha sido llevado cabo. Evaluamos series de teorías.

El estancamiento del programa no es suficiente para su eliminación. Sólo desistirán de modificar el viejo programa cuando cuenten con la alternativo de adoptar un programa nuevo y capaz de superarlo (que tenga más contenido empírico, explique los aciertos previos y que alguna parte del contenido excedente esté corroborado).

THOMAS KHUN

i) Introducción

A principios de la segunda década de éste siglo se creó el Círculo de Viena (en torno a la figura de Schlick) integrado por Carnal, Gödel y Hans Han, entre otros. Todos compartían una posición filosófica que, inspirada en el empirismo tradicional y revitalizada por los recientes aportes de la lógica matemática, dio en llamarse Positivismo Lógico. En primer lugar partieron de la convicción de que el conocimiento científico sólo puede fundarse en la experiencia sensible. Sostuvieron que la lógica en general y sus manifestaciones matemáticas, aunque no proporcionan ninguna información acerca de la realidad, cumplen un papel esencial en la organización del conocimiento que aporta la experiencia. Las ciencias quedaron divididas en dos grupos: de un lado las formales (lógica y matemática) y por otra parte las ciencias fácticas (biología, psicología, étc.).

Los positivistas lógicos creían que el proceso de descubrimiento conlleva aspectos que no son susceptibles de un análisis lógico e incluyente, en este sentido, componentes que pueden ser considerados irracionales.

En abierta oposición a Kant, sostuvieron que las verdades de las ciencias formales tienen carácter analítico mientras que las proposiciones de las ciencias fácticas son sintéticas y se fundan directa o indirectamente en la percepción.

Los enunciados que describen lo que se percibe directamente, llamados a veces cláusulas protocolarias, corresponden a una base empírica que permite la confirmación o caso contrario, la refutación de las hipótesis científicas (muchas incluyen término teóricos que corresponden a entidades inobservables).

El significado de una proposición consiste en su método de verificación.

Consideraron estos enunciados elementales como descripciones de objetos físicos (fisicalismo).

El carácter reduccionista del positivismo lógico se manifestó en su interpretación del progreso de la ciencia. Supone que las teorías ampliamente confirmadas son relativamente inmunes a una disconfirmación posterior.

Khun junto a otros científicos cuestionaba las tesis sostenidas por los positivistas. Se niega la existencia de una base empírica neutral, se dejan de lado aspectos lógicos y se acentúa el interés en los factores sociológicos e históricos. Las hipótesis son suposiciones que expresan regularidades naturales pero que aún no han mostrado su fertilidad.

La utilidad de las teorías guarda relación con las presuposiciones que se manifiestan en los ideales de orden natural (según Toulmin, instrumentalista y relativista, incompatible con la idea de un desarrollo acumulativo).

Feyereband desarrolló el principio de deducibilidad (la reducción y la explicación se alcanzan mediante la deducción en el sentido lógico estricto); y el principio de invariancia del significado (los términos descriptivos de una teoría permanecen invariantes a través del proceso de reducción o de explicación de dicha teoría). Sostiene que los términos observacionales dependen totalmente del contexto teórico. Esta dependencia del significado de los términos descriptivos respecto del contexto histórico invalida el principio de deducibilidad: cuando se pasa a otra teoría más amplia tiene lugar un proceso de sustitución por ontología de la anterior y por ontología y el formalismo de la nueva con el correspondiente cambio de los significados de los términos descriptivos. Como resultado de ésta sustitución las teorías sucesivas no pueden compararse entre sí, resultan inconmensurables, y en consecuencia no cabe pretender que una se deduzca de otra.

La Concepción Kuhniana del desarrollo de la ciencia

El período de La Estructura

En La Estructura Khun describe el desarrollo de la ciencia como un proceso discontinuo, no acumulativo; un proceso señalado por la irrupción de acontecimientos revolucionarios que determinan la ruptura con el curso anterior de la investigación científica. No es posible comprender su alcance sino en relación con otras nociones con las cuales se conforma un entramado conceptual: paradigma, ciencia normal, enigma, crisis e inconmensurabilidad.

Paradigma y Ciencia Normal

Kuhn describe los paradigmas como las realizaciones universalmente reconocidas que durante cierto tiempo proporcionan modelos de problemas y soluciones a una comunidad científica. Un paradigma incluye tanto leyes y teorías como sus aplicaciones y los instrumentos que los científicos acostumbran a utilizar en ése momento. Proporcionan modelos de los que surgen tradiciones coherentes de investigación científica. Sólo con el surgimiento de un paradigma, puede decirse que la disciplina ha alcanzado su madurez.

Kuhn denomina ciencia normal a las etapas durante las cuales la actividad científica está gobernada por un paradigma que determina cuáles son los problemas y las normas de su resolución, la actividad científica normal tiene por finalidad la articulación de los fenómenos y las teorías proporcionados por el paradigma. La ciencia normal se caracteriza por la resolución de enigmas.

Los enigmas son aquella categoría especial de problemas que puede servir para poner a prueba el ingenio o la habilidad para resolverlos.

Para que un problema sea considerado como enigma debe tener más de una solución asegurada. Las posibles soluciones y los pasos que hay que dar para obtenerlas están limitadas por las reglas del paradigma.

Kuhn sugiere que el paradigma tiene un status superior, no implica la existencia de un conjunto completo de reglas; pueden ser de muy diferentes clases y en general no se manifiestan explícitamente.

Kuhn relaciona reglas específicas para cada paradigma con diversos compromisos que están implícitos en la propia adopción de ése paradigma. Una de las principales categorías corresponde a los compromisos conceptuales y teóricos expresados en las leyes y teorías (ayudan a identificar los enigmas y las restricciones posibles).

Las reglas determinan también ciertos compromisos respecto de los instrumentos y de los modos en que pueden ser utilizados.

Un tercer tipo de reglas refiere a los compromisos metafísicos respecto de los tipos de entidades que pueblan el universo.

Otro tipo de reglas corresponden a ciertos compromisos metodológicos relacionados con la investigación científica: el científico debe interesarse por comprender el mundo y por extender la precisión y el alcance con que ha sido ordenado.

Una característica peculiar de la actividad científica normal reside en que no tiende a producir novedades importantes, quienes la practican se concentran en problemas que sólo su falta de ingenio les impediría resolver. Podría decirse que el objetivo del científico normal consiste en lograr lo esperado de una manera nueva, lo cual requiere la solución de una serie de complejos enigmas instrumentales, conceptuales y matemáticos.

Crisis y revoluciones científicas

En algunas oportunidades los científicos se enfrentan con anomalías, es decir, con el reconocimiento de que, en cierto modo, la naturaleza ha violado las expectativas creadas por el paradigma. El fracaso en la aplicación de las reglas del paradigma, conduce a una situación de crisis con el consecuente sentimiento de pérdida de fe en el paradigma vigente. La crisis debilita las reglas de resolución normal de enigmas, de modo tal que eventualmente se sientan las bases para la instauración de un nuevo paradigma. Kuhn explica que el nuevo paradigma o un indicio suficiente para permitir una articulación posterior surge repentinamente.

La transición a un nuevo paradigma da lugar a una revolución científica -aquellos episodios no acumulativos en los cuales un antiguo paradigma es reemplaza completamente o en parte por otro nuevo e incompatible-. El proceso de revolución supone siempre la existencia de un paradigma rival.

Los principios involucrados en la elección de teorías son fundamentalmente de tipo sociológico y psicológico, resulta una elección entre modos incompatibles de vida de la comunidad. Para describir las diferencias que separan a los partidarios de un paradigma tradicional de sus sucesores revolucionarios Kuhn introduce el concepto de inconmensurabilidad.

La Inconmensurabilidad

Kuhn explica el fenómeno de la inconmensurabilidad en analogía con la teoría de la percepción desarrollada por los psicólogos de la Gestalt. El cambio de un paradigma por otro es semejante a un cambio en la estructuración de lo que se percibe.

Después de una revolución los científicos ven el mundo de manera diferente: cuando la tradición científica normal se altera, la percepción que el científico tiene de su medio ambiente debe ser reeducada; debe aprender a ver una forma (Gestalt) nueva. En consecuencia, el mundo de sus investigaciones parecerá en algunos aspectos incomparables con el que habitaba antes.

En el nuevo paradigma los términos, los conceptos y los experimentos antiguos varían sus relaciones y establecen otras que antes no existían.

El fenómeno de la inconmensurabilidad se manifiesta en la incompatibilidad de un par de paradigmas rivales y parece afectarlos globalmente.

Kuhn vincula la inconmensurabilidad con un problema de comunicación ya que es parcial entre los defensores de paradigmas rivales.

Según Gaeta y Gentile no queda claro como dos paradigmas pueden ser incompatibles si la inconmensurabilidad sugiere que no pueden compararse entre si. La ciencia posrevolucionaria incluye muchas de las mismas manipulaciones llevadas a cabo con los mismos instrumentos y descritas en los mismos términos que empleaban sus predecesores de la época anterior a la revolución ya que el científico sigue viendo el mismo mundo. El hecho de que comparta gran parte del vocabulario, instrumentos n es suficiente para asegurar la comparabilidad entre paradigmas diferentes.

La tradición científica normal surge de una revolución científica no sólo incompatible sino a menudo realmente inconmensurable con la que existía con anterioridad.

Prevalece la idea de que no se encuentran en condiciones de entenderse con sus rivales.

Modelos de Explicación Científica

Una explicación se concibe habitualmente como un argumento o razonamiento en el cual las premisas ofrecen fundamento total o parcial de la conclusión, la cual describe el hecho que se quiere explicar. Así, los criterios de clasificación suelen apoyarse por una parte en la inclusión o ausencia de leyes científicas entre las premisas y por otra parte, en las diferencias que surgen del carácter deductivo o probabilística de la conexión inferencial que vincula los componentes de explicación.

Las discusiones generadas en torno de la explicación se inscriben en el debate suscitado apropósito del problema del monismo y del pluralismo metodológico (la cuestión de si existe un método compartido por todas las ciencias fácticas o si los métodos varían conforme a la naturaleza de las distintas disciplinas).

Los pluralistas afirman que determinadas disciplinas se caracterizan por proporcionar explicaciones de tipos especiales que las distinguen de otras ciencias.

Explicar algo es facilitar su comprensión, debe ser inteligible y convincente.

Las teorías clásicas privilegiaron las concepciones globales acerca de la ciencia y dejaron de lado algunos aspectos propios de la noción intuitiva (“modelo de cobertura legal” de Cal Hempel).

El modelo de cobertura legal distingue dos clases de explicaciones: las nomológico-deductivas y las inductivas. De acuerdo con el modelo nomológico-deductivo, explicar un hecho individual consiste en deducir el enunciado que lo describe, el explanandum, de un conjunto de enunciados denominado explanans, integrado por una o más leyes científicas.

Una explicación de este tipo es un razonamiento deductivo, en el cual las premisas están constituidas por leyes y por enunciados singulares que señalan algunas características de cierta situación y cuya verdad garantiza completamente la verdad de la conclusión.

Este modelo exige el cumplimiento de varias condiciones de carácter lógico y empírico: entre ellas el requisito de que todas las proposiciones que integran la explicación sean verdaderas- Pero la imposibilidad de verificar concluyentemente los enunciados universales hacen que se mantenga un carácter hipotético.

La explicación inductivo estadística se caracteriza por el hecho de que el explanans incluye al menos una ley de carácter estadístico y además porque el explanandum se infiere inductivamente del explanans, en lugar de deducirse de él.

En ausencia de leyes universales apropiadas pueden invocarse leyes estadísticas para explicar un hecho particular.

Se ha procedido a mostrar que lo que los físicos suelen llamar explicaciones causales constituyen una forma específica del modelo nomológico-deductivo.

Las explicaciones que indican la finalidad que lo motiva, que se refieren a un hecho aún no realizado, un fenómeno que además podría no llegar a producirse suelen ser llamadas teleológicas. Estas explicaciones resultan apropiadas para entender el comportamiento individual de los seres humanos. Es preferible considerar teleológicas las explicaciones de la conducta intencional y reservar la denominación de funcionales para las que corresponden a los otros dos casos mencionados (características morfológicas o los órganos de un ser animado para la preservación de su vida).

La reconstrucción hempeliana de la explicación incluye una tesis por ejemplo que la explicación y la predicción comparten la misma estructura. En ambos casos lo que se brinda es un razonamiento cuyas premisas y conclusión guardan simetría. Lo único que distingue una explicación de la predicción que sería paralela a ella es la circunstancia de que la ocurrencia del hecho descrito por la conclusión sea previamente conocido o no.

El Modelo de Cobertura Legal

Hempel presenta en sus ensayos una caracterización de la estructura de las explicaciones científicas conocido bajo el nombre de modelo de cobertura legal, mostrando que obedece a determinadas leyes. Cuando la ocurrencia del fenómeno que se pretende explicar puede afirmarse con certeza a partir del conocimiento de las leyes universales y demás condiciones relevantes, estamos en presencia de una explicación nomológica-deductiva.

Muchas veces puede explicarse un hecho mostrando que su ocurrencia resulta estadísticamente probable a partir de ciertas leyes.

i) Las explicaciones nomológico-deductivas

Existen dos componentes principales de toda explicación: a) el enunciado que describe el fenómeno a explicar, llamado enunciado explanandum y b)un conjunto de enunciados que se aducen para dar razón del fenómeno en cuestión y que constituyen el explanans. En el explanans a su vez pueden diferenciarse dos tipos de enunciados. Algunos de ellos hacen referencia a las condiciones antecedentes que se dan previamente o al fenómeno a explicar; otros expresan ciertas leyes generales.

El enunciado explanandum puede describir un acontecimiento que ocurre en un lugar y un tiempo determinados o puede expresar una regularidad general que suscita la pregunta de por qué ocurre.

El modelo nomológico-deductivo contempla dos tipos de explicación: las que dan cuenta de sucesos particulares y las que se proponen para explicar leyes o regularidades generales. La diferencia entre ambos tipos se manifiesta en la presencia de condiciones singulares, que necesariamente deben figurar en la explicación de un fenómeno particular pero no tienen lugar en la explicación de una ley.

ii)Condiciones de Adecuación

Existe una serie de requisitos que debe cumplir cualquier explicación para que resulte científicamente admisible. Hempel considera que una explicación científica adecuada debe cumplir con dos condiciones básicas: el requisito de relevancia explicativa y el requisito de contrastabilidad. El primero de estos requisitos señala que la información explicativa aducida debe proporcionar una buena base para creer que el fenómeno que se trata de explicar tuvo o tiene lugar. El segundo de ellos, indica que los enunciados que constituyen una explicación científica deben poseer contenido empírico.

Las exigencias que deben cumplir las explicaciones científicas se resumen en lo que Hempel denomina relevancia explicativa. El cumplimiento de esta condición implica que la información contenida en el explanans es empíricamente contrastable y guarda una adecuada relación lógica con el explanandum. Los requisitos podrían explicitarse del siguiente modo:

i) El explanandum debe ser una consecuencia lógica del explanans, esto es, el explanandum debe ser lógicamente deducible de la información que contiene el explanans.

ii) El explanans debe contener leyes generales, por ellas las condiciones antecedentes incluidas en el explanans adquieren atingencia explicativa respecto del fenómeno explanandum. No se exige, en cambio que haya por lo menos un enunciado que no sea una ley (puede tratarse de explicaciones nomológico deductivas de regularidades generales, y en tales casos no cumpliría ninguna función).

iii) El explanans debe tener contenido empírico. Toda explicación nomológico-deductiva cumple automáticamente con el requisito de contrastabilidad.

iv) Los enunciados que componen el explanans deben ser verdaderos. Según Hempel nunca puede ser establecida definitivamente la verdad. Por ése motivo Hempel introduce una distinción entre explicaciones verdaderas y explicaciones potenciales. Las explicaciones potenciales son las que cumplen con todos los requisitos, salvo el que se refiere a la verdad del explanans (no exige que sus enunciados sean verdaderos).

Las Leyes Universales

Un enunciado legal (forman parte del explanans de una explicación nomológico-deductiva) puede formularse por medio de un condicional, en algunos casos su forma lógica es sencilla. El requisito de la forma universal condicional no es suficiente para identificar un enunciado legal, ya que no todo enunciado de esta forma ha de ser considerado una ley. Los enunciados que en principio pueden reconocerse por la circunstancia de que se refieren a un conjunto finito de individuos (o fenómenos) y que equivalen a una conjunción de enunciados singulares han sido llamados generalizaciones accidentales.

Para distinguirlas entre sí se ha aducido que las oraciones legales pueden dar origen a enunciados contra fácticos o enunciados subjuntivos. De acuerdo con Hempel la comprensión de los enunciados contra fácticos presenta serias dificultades filosóficas y no quedan claros los fundamentos sobre los cuales es posible decidir acerca de su verdad o falsedad. Este tipo de estrategia no le permite trazar una línea demarcatoria entre los enunciados legales y las generalizaciones accidentales.

La posición de Hempel y Nagel consiste en afirmar que un enunciado legal a diferencia de una generalización accidental, debe ser universal irrestricto (aunque ambos difieren en la caracterización de esta condición).

De acuerdo con Hempel un enunciado universal irrestricto cumple con estos dos requisitos: a)no debe contener indicaciones acerca de un objeto particular (por ejemplo, las columnas del Puente Avellaneda), ni de una región espacio-temporal determinada; b)no debe ser equivalente a una conjunción de enunciados singulares.

Nagel señala que si nos atuviéramos al primer requisito hay leyes que no serían leyes por nombrar un objeto particular como el Sol.

Para eludir estas dificultades Hempel y Oppenheim propusieron considerar como leyes fundamentales aquellas que contienen predicados puramente cualitativos (las que no tienen constantes de individuo ni suponen localizaciones espacio-temporales fijas) y aceptar como leyes derivadas aquellas que contienen predicados no puramente cualitativos pero pueden ser deducidas de las leyes fundamentales.

Nagel formuló objeciones a estas precisiones; para obtener leyes derivadas a partir de las fundamentales es necesario añadir a éstas últimas premisas adicionales cuyos predicados no son puramente cualitativos. Nagel propone como requisito para que un enunciado universal sea irrestricto, que su ámbito de predicación no se restrinja a objetos comprendidos dentro de una región espacio-temporal fija.

Mientras que en el caso de un universal accidental los objetos de su ámbito de predicación caen dentro de una región espacio-temporal fija.

Respecto del segundo requisito de Hempel, Nagel señala que un enunciado universal de este tipo podría tener un ámbito de predicación finita sin que nosotros tuviésemos conocimiento de ello, y equivaldría a un conjunto finito de enunciados singulares.

Lo decisivo es que los términos que se utilicen para referirse a los objetos acerca de los cuales se formula el enunciado no permitan inferir que su número es finito y que no haya razones para suponer que los elementos de juicio disponibles a favor del enunciado constituyen el ámbito total de su predicción.