QUÉ PODEMOS HACER LOS ECONOMISTAS CON UNA
CIENCIA QUE DEBE (Y CASI NO PUEDE) SER EMPÍRICA
Por Antonio Aznar
Catedrático de Econometría y Métodos Estadísticos de la Universidad
de Zaragoza y Vicepresidente Primero del Consejo de Administración
de CAI.
Resumen: El objeto de este trabajo es comentar las dificultades con las que
se topa la Economía cuando pretende elaborar, explícitamente, un
conocimiento que sea científico. Comenzamos analizando las grandes
corrientes de la Filosofía de la Ciencia, comentamos las peculiaridades del
fenómeno económico y las consecuencias que se derivan de esas
peculiaridades y concluimos con unas recomendaciones.
Palabras Clave:Científico, Paradigma, Programa de Investigación,
Enfoque Preferencialista Bipolar, Tendencias y no Leyes y Predicción.
Agradecimientos.
Agradezco las sugerencias que me han hecho Maria
Teresa Aparicio, Maria Isabel Ayuda, Pilar Aznar, Tomás García, Javier
Nievas, Eduardo Pozo e Inmaculada Villanúa.
“A los economistas les gusta pensar que la Economía es una ciencia. En una ciencia, sin embargo, las contradicciones repetidas de un paradigma conducen a su abandono si hay una alternativa disponible.Un paradigma en Economía sostiene que los déficits presupuestarios producen altos tipos de interés. Este paradigma no está soportado por los hechos”. Evans (1985).
“Los defensores de la equivalencia ricardiana han desarrollado un trabajo
econométrico sobresaliente pero sólo han logrado la conversión de un
reducido número de economistas americanos. Esto no debe sorprendernos
porque, como Summers ya demostró, independientemente de lo que
pensemos, la econometría sofisticada tiene poca influencia cuando va en
contra del sentido común”. Mayer (1995).
1. INTRODUCCIÓN
El economista, como cualquier otro profesional, está dotado de
un equipaje intelectual que determina y condiciona su aportación al
funcionamiento de la sociedad. La cultura económica es uno de los
ingredientes destacados del funcionamiento de las sociedades
contemporáneas y esta cultura abarca muchos aspectos que van desde la
forma de ver las cosas hasta el mismo proceso de toma de decisiones
diseñado para cambiarlas.
Podemos hablar de dos tipos de cultura económica: implícita y
explícita. La primera, se manifiesta de forma casi imperceptible por allí
por donde pasa un economista.
No hace falta sacar de la mochila ni las
curvas de indiferencia, ni las elasticidades, ni los modelos
econométricos. Simplemente, se pone de manifiesto una actitud, una
forma de plantear los problemas y un estilo, un talante diríamos hoy, en
la forma de sugerir y proponer soluciones a dichos problemas.
Pero, al
lado de esta cultura en torno a una forma de estar, podemos hablar de
una segunda cultura, en muchas ocasiones estrechamente unida a la
anterior, y que va acompañada, entre otras cosas, por modelos
matemáticos y métodos estadístico-econométricos de diferente tipo.
Esto es lo que, en este trabajo, llamaré cultura económica explícita y es
esta la que hace exclamar a algún estudiante preclaro y a algún que otro
economista escéptico de larga tradición “¿Para qué tanto formalismo?”.
En este trabajo reflexionaré sobre algunos aspectos relacionados
con lo que he llamado cultura explícita. No porque piense que su papel
en el funcionamiento de la sociedad sea más relevante que el que
corresponde a lo que hemos llamado cultura implícita; mas bien pienso
lo contrario. Lo hago porque me resulta más fácil ya que el objeto a
3
discutir está nítidamente delimitado en la literatura y muchos autores se
han pronunciado sobre el mismo.
Reflexionar sobre el papel de lo que
hemos llamado cultura implícita resulta, para mí, mucho más
complicado porque su intervención en el devenir social es mucho más
difusa. Pero repito, no menos importante.
La sección siguiente está dedicada a reflexionar sobre el llamado fenómeno científico. La Sección 3 se ocupa de ilustrar lo especiales que somos los economistas cuando nos dedicamos a hacer ciencia.
Por último, en la Sección 4, tratamos de razonar que, ya que somos tan especiales, algo deberíamos de pensar para mantenernos dentro de algún tipo de ortodoxia.
La sección siguiente está dedicada a reflexionar sobre el llamado fenómeno científico. La Sección 3 se ocupa de ilustrar lo especiales que somos los economistas cuando nos dedicamos a hacer ciencia.
Por último, en la Sección 4, tratamos de razonar que, ya que somos tan especiales, algo deberíamos de pensar para mantenernos dentro de algún tipo de ortodoxia.
2 EL FENÓMENO CIENTÍFICO.
Comenta Chalmers (1982), al comienzo de su libro, que
decir que algo es científico es asignarle un reconocimiento especial y
esto no sólo en el campo del conocimiento, sino en campos más de la
vida diaria, como una crema dentrífica o el proceso de elaboración
de un coche.
Cuando se dice que una crema de dientes ha sido
elaborada siguiendo un método científico, parece que se ofrecen más
garantías sobre la excelencia del producto. En definitiva, se intenta
decir que se trata de un producto mejor.
Pero si esto es así para
muchos productos, la mayor relevancia de etiquetar algo como
científico tiene lugar en el campo del conocimiento. Se da por
supuesto que el conocimiento científico es un conocimiento superior
a otro tipo de conocimientos como el vulgar o el ideológico.
Como indica Mayer (1995), cuando no estás de acuerdo con un colega puedes transtornarlo diciéndole que su pensamiento es erróneo; pero todavía lo transtornas más si le dices que su pensamiento no es científico.
Como indica Mayer (1995), cuando no estás de acuerdo con un colega puedes transtornarlo diciéndole que su pensamiento es erróneo; pero todavía lo transtornas más si le dices que su pensamiento no es científico.
Inmediatamente surge la siguiente cuestión:
¿Cuáles son las
razones que hacen que la vitola de científico sea tan deseada?.
Limitándonos al campo del conocimiento, el término científico
evoca, al menos, lo siguiente:
- Conocimiento científico, en primer lugar, se identifica
con conocimiento objetivo, válido universalmente, que se
acepta no por las características personales de quien lo
formula sino por el proceso que se ha seguido en su
adquisición.
- Existe el convencimiento de que la utilización del
conocimiento científico con fines prácticos llevará a
mejores resultados que los que podrían obtenerse
utilizando otro tipo de conocimiento.
En concreto, hay
dos cosas que solamente con el concurso del conocimiento científico pueden hacerse de forma
satisfactoria: la predicción y el análisis causal cuantitativo
bivariante. Con la predicción, se pretende anticipar la
evolución de ciertos acontecimientos futuros. En el
análisis bivariante se trata de determinar qué cambio
cuantitativo experimenta una variable al modificar en una
determinada cuantía la trayectoria de otra variable.
El conocimiento científico se asocia, por tanto, con la posibilidad de
lograr conocimiento objetivo y alcanzar altas cotas de satisfacción cuando
dicho conocimiento se utiliza para resolver los problemas de nuestro
entorno.
La comunidad de científicos, pretende tener un código de aplicación
semiautomática que les garantice el carácter científico del pensamiento que
elaboran y que les permita resolver de forma mecánica las dudas que van
surgiendo en el proceso de adquisición del conocimiento.
En un
determinado momento esta aspiración parecía satisfacerse con el llamado
Positivismo Lógico que se desarrolló en torno a un grupo de filósofos que
formaron el llamado Círculo de Viena en los años 20 y 30.
El código
asociado con el Positivismo Lógico había destilado las esencias de los
desarrollos habidos tanto en los métodos lógicos como en las corrientes
empiristas. Ver, por ejemplo, Ayer (1959), Kolakovski (1977) y Porta
(1983).
Los principales rasgos en los que se apoyaba este código del
Positivismo Lógico son: principio de determinación, progreso acumulativo
y unicidad de método.
El principio de determinación nos dice que si se aplica correctamente
el código elaborado por los positivistas lógicos, entonces a partir de la
realidad se llega a un solo modelo teórico explicativo. Se puede hablar de
un proceso en dos etapas que nos lleva, en primer lugar, de la realidad a los
hechos y, a continuación, de los hechos a las leyes generales en forma de
teorías o hipótesis. Para los positivistas, el tránsito de la realidad a los
hechos se hace de forma inmediata y no requiere mucha explicación. Basta
abrir los ojos y, con un equipamiento sensorial normal, la percepción será
la misma para todos: son los hechos puros y duros.
Como indica Russel
Hanson (1977), caricaturizando la posición del positivista estandar:
“Para
los filósofos simplistas la observación consiste en abrir los ojos y mirar.
Los hechos son simplemente las cosas que suceden dura, directa, llana y
simplemente”.
La segunda etapa nos lleva de los hechos a las leyes generales. La
lógica nos indica que, para llevar a cabo esta etapa, el único camino
correcto es la aplicación de las reglas de inferencia deductiva.
Esta admite dos variantes: transferir la verdad hacia delante, de las premisas a las 5 conclusiones (modus ponens) o transferir la falsedad hacia atrás de las conclusiones a las premisas (modus tollens).
Esta admite dos variantes: transferir la verdad hacia delante, de las premisas a las 5 conclusiones (modus ponens) o transferir la falsedad hacia atrás de las conclusiones a las premisas (modus tollens).
Uno de los requisitos para que
esta inferencia sea válida es que, en el camino, ni se añada ni se reste
contenido.
En las ciencias empíricas existen diferentes circuitos en los que las
conexiones se justifican por la aplicación de la inferencia deductiva.
Algunos de estos circuitos pueden verse en la Figura 1.
Así, podemos
considerar un argumento en el que las premisas son el conjunto de
postulados iniciales, que son enunciados universales, y las conclusiones son
las leyes o teorías que son también enunciados universales.
Puede pensarse
también en un segundo argumento en el que las premisas son las leyes o
teorías, que son enunciados universales, conjuntamente con las hipótesis
auxiliares, que son enunciados singulares, y las conclusiones son las
explicaciones o predicciones, que son enunciados singulares. Pero, en las
ciencias empíricas, los argumentos más relevantes son aquellos que ponen
en conexión a los hechos con algún elemento del esquema teórico.
-----------------------------------------------
Base de
postulados
iniciales
--------------------------------------
I
I
V
-----------------------------------------------
Leyes Universales Hipótesis o Teorías
-----------------------------------------------
!
!
---------------------------------------------------------
Condiciones Iniciales
o Hipótesis Auxiliares
---------------------------------------------------------
/
!
----------------------------------------------
Explicaciones
o
Predicciones
- ------------------------------------------------
Figura 1. Método científico.
Se puede considerar un argumento en el que las premisas son el conjunto de hechos y las conclusiones son o bien el conjunto de postulados iniciales, o bien las leyes universales, teorías o hipótesis. Esta es la llamada inferencia inductiva. De un conjunto de enunciados singulares, los hechos, se trata de validar un enunciado universal, sea este un postulado o una teoría. Pero de un conjunto de enunciados singulares, por muy numerosos y variados que estos sean, no se puede derivar la validez de un enunciado
universal. Así, llegamos al problema de la inducción. El modus ponens
cuando se pretende ir desde la evidencia empírica hasta los postulados o
hipótesis es ilegal dentro de la Lógica. Por lo tanto, a partir de la evidencia
no se puede verificar la verdad de ningún enunciado general.
Nos queda el modus tollens. Si, a partir del contraste empírico, se concluye que alguna de las predicciones es falsa, entonces se puede concluir con que la teoría es falsa. En el camino, nos vamos quedando con aquellas teorías que, todavía, no han sido falsadas. En lugar de proclamar que hemos verificado la verdad de la teoría que mantenemos, nos conformamos con decir que, hasta el momento, la teoría no ha sido falsada (aunque puede serlo en futuros contrastes). Parece que, de esta manera, el código sigue manteniendo la ortodoxia y el rigor exigidos por la Lógica. En este sentido, Popper (1962) escribe: “Mi propuesta está basada en una asimetría entre la verificabilidad y la falsabilidad: asimetría que se deriva de la forma lógica de los enunciados universales. Pues estos no son formas deducibles de enunciados singulares, pero sí pueden estar en contradicción con estos últimos. En consecuencia, por medio de inferencias puramente deductivas, (valiéndose de la lógica clásica), es posible argüir de la verdad de los enunciados singulares la falsedad de enunciados universales”.
Podemos decir que, en los años 50 y 60, los practicantes del positivismo lógico se mueven bajo las influencias de estas dos grandes corrientes positivistas: el verificacionismo y el falsacionismo. Los verificacionistas, aún asumiendo el problema de la inducción, seguirán insistiendo en que el objetivo debe ser el aportar la máxima evidencia empírica a favor de una teoría. Se hablará de la verificación en términos de probabilidad, se distinguirá entre verificación fuerte y verificación débil, se defenderá el concepto de confirmación gradualmente creciente, todo esto orientado a demostrar que, aunque no sea posible verificar la verdad de ninguna ley universal a partir de la evidencia empírica, sí que es posible hablar de que una teoría está más o menos apoyada por la evidencia empírica tanto absolutamente como relativamente respecto al apoyo recibido por otras teorías.
Como ya hemos comentado, los falsacionistas renuncian a verificar en aras a mantener la ortodoxia de poder justificar la aplicación de la inferencia deductiva. La diferencia con los verificacionistas es sutil pero importante especialmente cuando se presta atención a los requisitos formales que los falsacionistas especifican como una condición necesaria para que una teoría pueda ser aceptada en el campo de la ciencia. Las teorías deberán ser falsables, informativas, arriesgadas; todo esto, simplemente, para ser tenidas como candidatas en la competición científica; luego, se mantendrán si no han sido falsadas. El requisito formal de la falsabilidad es importante porque es algo que los verificacionistas, en 7 su afán de que la teoría siempre tiene que estar de acuerdo con los hechos, habían pasado por alto. Un contraste empírico es tanto más relevante cuanto más arriesgado sea. Esta es, en mi opinión, la gran aportación del falsacionismo.
El segundo de los rasgos que caracteriza al Positivismo Lógico es el del progreso acumulativo. En la secuencia de generación de teorías en la historia de la ciencia, cada teoría es mejor que la anterior siendo esta un caso particular de la primera. Las teorías son compatibles y, en la secuencia, se puede medir el avance que supone una teoría dada respecto a la anterior.
Por último, el tercer rasgo hace referencia a la unicidad en la aproximación científica. Todas las ciencias deben seguir el mismo método con ligeras variaciones con respecto a las recomendaciones que emanan de las normas del código.
En un afán de ser simples, podríamos decir que esta era la situación epistemológica a principios de los años 60 en torno a un código monolítico con escasas rendijas. Pero como suele ocurrir, todo esquema monolítico tiene su reforma y su contrarreforma. Los partidarios de la reforma ponen patas arriba todo el edificio conceptual y cuestionan uno por uno los fundamentos en los que se apoya el código positivista. Los seguidores de la contrarreforma trataron de salvar los elementos esenciales del código dando entrada a variaciones, más o menos relevantes, en algunos de ellos.
Los reformistas encontraron dos tipos de incoherencias en la aplicación mecánica del código positivista: lógicas e históricas. Las incoherencias de tipo lógico hacen referencia a situaciones en las que la aplicación automática de las normas que emanan del código no resuelven de forma unívoca las dudas que se plantean en el proceso científico. Desde el punto de vista histórico, los reformistas nos dicen que el comportamiento de los científicos a lo largo de la historia conocida de la ciencia no es lo que resultaría de la aplicación del código positivista. Los comportamientos de los científicos se han alejado, en muchas ocasiones, de lo que cabría esperar si hubieran seguido el credo positivista. Por lo tanto, si el código positivista no se mantiene desde el punto de vista lógico, y no ha sido seguido por los científicos a lo largo de la historia, se hace necesario un cambio. A esta tarea se han dedicado con entusiasmo autores como Feyerabend, Kuhn, Russel Hanson, Toulmin y otros en torno a lo que se ha llamado la Nueva Filosofía de la Ciencia. Es el ataque al antiguo régimen como lo llama Hands (2001). Veamos, a continuación, algunas de las críticas más relevantes.
Hemos comentado que el principio de determinación era uno de los bastiones del código positivista. Del mundo real a las leyes generales sólo hay un camino parando en la posada de los hechos a la mitad del mismo. Los reformistas cuestionan todo este planteamiento especialmente en lo que 8 se refiere a la posibilidad de una observación objetiva que conduce a una única percepción compartida por todos. Frente a lo que ellos consideran como una visión simplista de la percepción, defenderán lo que llaman una “observación cargada de teoría”. No hay hechos objetivos libres del componente subjetivo del observador. Cada cual ve lo que está preparado para ver; lo que las preconcepciones teóricas adquiridas le permiten ver. Los libros de los reformistas están llenos de referencias a esta cuestión. Por ejemplo, Kuhn (1971) escribe lo siguiente :“Lo que ve un hombre depende tanto de lo que mira como de lo que su experiencia visual y conceptual previa lo ha preparado a ver” y más adelante: “Lo que antes de la revolución eran patos en el mundo del científico, se convierten en conejos después”. Feyerabend (1975), por su parte, escribe lo siguiente: “La impresión sensorial, por simple que sea, contiene siempre una componente que expresa la reacción del sujeto que percibe y que no tiene correlato objetivo”. Parece claro que dos observadores normales que vean el mismo objeto desde el mismo lugar en las mismas circunstancias físicas no tienen necesariamente idénticas experiencias visuales ni tampoco la misma traducción lingüística, es decir, los mismos hechos, de dichas experiencias. Y esto ocurre tanto en la experiencia diaria como cuando se analiza el resultado de la actividad científica como son los resultados de un experimento en un laboratorio.
Por lo tanto, de la realidad no vamos de forma única a los hechos. No hay una determinación única de estos hechos. No hay nada dentro de la Lógica que permita esa unicidad compartida por todos los observadores. Esto bastaría para hacer saltar por los aires el principio de determinación porque impide continuar el proceso tanto en la dirección del modus ponens como en la del modus tollens. Pero la labor de los reformistas va más allá y su crítica afecta también a los procedimientos de inferencia contemplados en la segunda etapa.
Ya nos hemos referido a las dificultades que planteaba la aplicación del modus ponens cuando se pretendía pasar la verdad de los hechos a enunciados universales. El problema de la inducción nos indicaba que cualquier incremento de contenido en el proceso de transferencia era merecedor de una tarjeta roja. Esto ya lo habían percibido los propios seguidores de la línea positivista. Por esta razón, las críticas se orientaron a desenmascarar las incongruencias asociadas con la aplicación del modus tollens. En principio, esta aplicación parecía estar libre de cualquier alteración de la ortodoxia dentro de la Lógica. Si alguna predicción no concordaba con los hechos, el rechazo de la teoría parecía ser el resultado normal. Pero, como puede verse en la Figura 1, el camino a seguir no es tan automático. Las predicciones son las conclusiones de un argumento en el que las premisas son, por un lado, las teorías, que son enunciados universales, y, por otro, las hipótesis auxiliares, que son enunciados 9 singulares. Si las predicciones no concuerdan con los hechos, ¿Qué hacemos: rechazar la teoría o rechazar alguna de las hipótesis auxiliares? Dentro del código positivista no hay una única respuesta a esta pregunta; la respuesta que se dé en cada situación será el resultado de tomar en consideración una serie de aspectos que no están reflejados en los tratados de lógica. Este es el llamado problema de Duhem.
Si, a partir de la realidad, podemos llegar a diferentes conjuntos de hechos según sea el esquema teórico previamente asumido por el observador, y si el problema de la inducción y el problema de Duhem impiden llegar a una conclusión única a partir de un conjunto de datos, ¿qué queda del principio de determinación? Aparece un panorama en el que la lógica formal sigue jugando un papel importante pero que, a su lado, aparecen otros protagonistas como el pragmatismo, la retórica, las circunstancias históricas en que se genera la teoría, los componentes subjetivos del investigador, etc. que también desempeñan un papel importante en el proceso de elaboración de la ciencia. Como escribe Brown (1983) “En contraste con el empirismo lógico, el rasgo más destacado del nuevo enfoque es el rechazo de la lógica formal como herramienta principal para el análisis de la ciencia y su sustitución por la confianza en el estudio detallado de la historia de la ciencia”. A partir de ese análisis se espera calibrar el protagonismo relativo de cada uno de los ingredientes que acompañan a los instrumentos lógicos.
Pero la crítica de los reformistas no se para en el principio de determinación. También afecta a los otros dos puntos sobre los que se apoyaba el enfoque positivista. No aceptan la idea de que la ciencia avance en línea recta en forma acumulativa en la que cada teoría que sigue subsume a la anterior como un caso particular. Frente a esta idea de progreso acumulativo, los practicantes de la nueva filosofía de la ciencia destacan el principio de la inconmensurabilidad entre esquemas conceptuales alternativos. Los hechos son diferentes; los conceptos en muchas ocasiones no son comparables; los criterios de justificación científica son también diferentes.
Todo esto hace que, para los reformistas, la comparación entre esquemas teóricos alternativos sea una cuestión difícil y que la consideración de uno de ellos como un caso particular del otro sea prácticamente imposible.
Tampoco aceptan que haya un solo método para todas las ciencias. El objeto que estudia cada ciencia es diferente, las posibilidades de experimentar también son diferentes, el papel del contexto externo varía de una ciencia a otra, etc. y todos estos factores pueden aconsejar un cierto pluralismo metodológico frente al monolitismo positivista.
Redman (1991), resume de la siguiente manera la situación que, según él, queda después de la reforma: “Pero especialmente desde los años 60 la imagen racional de la ciencia se ha ido empañando. Los fundamentos 10 de la ciencia del siglo diecisiete- en el sentido de que la ciencia se deriva de la observación y el experimento- no son fiables. La ciencia entendida como un proceso de acumulación y como una empresa progresiva ha sido puesta en duda. Una tajante división entre la teoría y la observación se ha mostrado que es inválida así como la distinción entre el contexto de justificación y el contexto de descubrimiento. Se encontró que los conceptos científicos no eran tan precisos como se había estipulado y que la pretensión de lograr un método universal para una ciencia unificada tenía que abandonarse”.
¿Qué proponen los reformistas cuando se trata de dar cuenta del camino seguido por los científicos a lo largo de la historia de la ciencia y cuando se van a formular las recomendaciones que todo científico debería tener en cuenta si se va a dedicar a elaborar ciencia en el futuro? Hemos comentado que el principal rasgo de la Nueva Filosofía de la ciencia es el rechazo de un código monolítico del que emanan las reglas que guíen el actuar de los científicos. Por lo tanto, no esperemos encontrar otro código como alternativa. Más bien, lo que podemos encontrar es un abanico de propuestas con ciertos elementos comunes pero sin pretensión de ser monolítico. Dow (1985), a la hora de caracterizar esta corriente que llama modo de pensamiento babilónico, escribe lo siguiente: “Utiliza varios hilos argumentales con diferentes orígenes que, cuando la teoría funciona bien, se refuerzan unos con otros; ningún argumento se fundamenta en la aceptación de un conjunto de axiomas. El conocimiento se genera mediante la consideración de ejemplos de aplicaciones de teorías, utilizando una variedad de métodos”.
Por razones de espacio, no podemos dar cuenta de las diferentes propuestas realizadas bajo el espíritu de la reforma. Voy a limitarme a resumir brevemente la que, al mismo tiempo, ha tenido más impacto y ha sido elaborada con mayor precisión. Me refiero a la propuesta de Kuhn (1971) en torno a los paradigmas. Según este autor, la actividad científica se desarrolla en torno a la siguiente secuencia: adopción de un paradigmaciencia normal- crisis-revolución-adopción de un nuevo paradigma. Todo comienza con la adopción, por parte de la comunidad científica, de un paradigma. Un paradigma es un marco conceptual que, al menos, incluye 1) una perspectiva para observar el mundo y derivar unos hechos determinados, 2) un consenso respecto a los rasgos que deben acompañar o caracterizar una buena teoría, 3) un marco teórico para plantear problemas y 4) un consenso respecto a como contrastar empíricamente una teoría. En un momento determinado, la comunidad científica adopta un paradigma porque tiene más éxito que sus competidores para resolver unos cuantos problemas que el grupo de profesionales ha llegado a reconocer como agudos. Kuhn indica que una ciencia madura está regida por un solo paradigma. Una vez que los 11 miembros de una comunidad científica han aceptado un paradigma se entra en el periodo de ciencia normal en el que los científicos se dedican a resolver problemas sin cuestionar los fundamentos del paradigma. Esta resolución de problemas se desarrolla dentro de un esquema rutinario y con total previsión dando lugar a pequeñas anomalías que no llaman la atención del grueso de la comunidad. Pero, en un momento determinado, las anomalías empiezan a ser más relevantes bien debido a que afectan a los propios fundamentos del paradigma, bien porque son importantes con relación a alguna necesidad social apremiante o bien porque su número empieza a ser considerable. Este es el momento en el que la acumulación de anomalías empieza a socavar la confianza en el paradigma vigente y la comunidad de científicos empieza a considerar alternativas. En el periodo que abarca la revolución se consuma el cambio. Para explicar este cambio hace falta algo más que un tratado de lógica. Como escribe Chalmers (1984) “No existe ningún argumento puramente lógico que demuestre la superioridad de un paradigma sobre otro y que, por tanto, impulse a cambiar de paradigma a un científico racional”. Kuhn vincula el cambio de paradigma con una especie de conversión religiosa y escribe “Los científicos individuales aceptan un nuevo paradigma por toda clase de razones y, habitualmente, por varias al mismo tiempo. Algunas de estas razones están fuera del ámbito de la ciencia. Otras deben depender de idiosincrasias de autobiografía y personalidad”. Por unas razones u otras el nuevo paradigma es aceptado y la comunidad científica entra, de nuevo, en un periodo de ciencia normal. Este es el espíritu de la reforma. Pero, como ocurre en casi todos los campos, la Epistemología también ha tenido su contrarreforma. Esta se ha materializado en diferentes propuestas que, desde dentro, han intentado mantener las esencias del código positivista dando entrada a aquellas variaciones que la crítica reformista hacía inevitables. Hemos comentado que la principal crítica del reformismo estaba dirigida contra el principio de determinación. Ni hay hechos objetivos universalmente aceptados, ni hay procedimiento válido de inferencia que permita justificar leyes generales a partir de enunciados singulares. Esto es lo que los autores situados bajo el paraguas de la contrarreforma van a discutir y matizar. El planteamiento será siempre: Sí, pero... Comencemos con los hechos. Seguramente que es difícil, hoy día, encontrar un positivista que piense en una determinación unívoca que vaya de la realidad a los hechos; que exista un conjunto de hechos que sean infalibles. La cultura positivista ha asimilado todas estos incumplimientos del código original. Baste, como ejemplo, la posición de Popper (1962): “Siempre que una teoría se someta a contraste, ya resulte de él su corroboración o su falsación, el problema tiene que detenerse en algún enunciado básico que decidimos aceptar. Hay que reconocer que los 12 enunciados básicos en los que nos detenemos, que decidimos aceptar como satisfactorios y suficientemente contrastados tienen el carácter de dogmas....Mas este tipo de dogmatismo es inocuo ya que en cuanto tengamos necesidad de ello podremos continuar contrastando fácilmente dichos enunciados”. Por lo tanto, la aplicación mecánica y automática del código que nos lleve de la realidad a unos hechos libres de cualquier ganga teórica ya no resulta aceptable ni para los propios positivistas. PERO, eso no significa que tengamos que aceptar que cada teoría tiene sus propios hechos; es posible pensar en muchas situaciones en las que dos sistemas teóricos comparten parcialmente algunas esferas y discrepan en otras. Es lo que Andersson (1984) llama conocimiento básico aproblemático. Si Tycho Brahe lo que observa es que “en el amanecer, el sol se eleva” y Kepler lo que ve es que “el horizonte se hunde”, entonces cabría pensar en considerar un enunciado del siguiente tipo: “a la salida del sol, la distancia entre el horizonte y el sol crece”. Para aceptar este enunciado basta una especie de teoría rudimentaria de la medida de la distancia que es compatible con los dos sistemas teóricos defendidos por Brahe y Kepler. Por lo tanto, puede pensarse en una base de enunciados básicos compatibles con diversas teorías cuya validez puede contrastarse tomando en consideración dicha base. Pasemos ahora a los métodos de inferencia. El problema de la inducción es uno de los temas que mayor atención han recibido por parte de los positivistas. Las paradojas que surgían en torno a este problema han sido tratadas extensamente en la literatura positivista. Ver, por ejemplo, Swinburne (1974) y Black (1979). Lo mismo puede decirse con respecto al falsacionismo y el problema de Duhem. Pese a los esfuerzos, ninguna de estas cuestiones ha recibido una solución formalmente satisfactoria dentro de la Lógica. PERO, en el fondo, todos somos inductivistas de un tipo u otro y, aunque no se ha llegado a una solución lógica definitiva de los problemas mencionados, sí que se han hecho aportaciones que pueden ayudarnos a entender el fenómeno científico. Por ejemplo, Black (1979) concluye su revisión sobre el problema de la inducción escribiendo lo siguiente: “ El término ‘inducción’ será usado aquí para designar todos los casos de argumentación no demostrativa, en la que la verdad de las premisas, aunque no entraña la verdad de la conclusión, pretende ser una buena razón para creer en ella”. Glass y Johnson (1989), se refieren al concepto ‘confirmación gradualmente creciente’ y escriben “Si bien nosotros no podemos verificar una teoría universal sobre la base de observaciones singulares, los inductivistas han sugerido que, conforme el número de observaciones favorables crece nuestra confianza en la teoría crecerá también. En otras palabras, en lugar de hablar de la verificación de una teoría podemos hablar de confirmación gradualmente creciente de una teoría”. Se repite ‘no queremos demostrar’ o no se pretende ‘verificar 13 la verdad’ de ninguna teoría todo ello fruto de los problemas en torno al inductivismo. Pero eso no significa renunciar a establecer una graduación de las teorías según el apoyo empírico recibido que pueda permitir, en un momento dado, preferir a una frente a las demás. Aunque Glass y Johnson se limitan a considerar el número de observaciones favorables, eso no excluye la toma en consideración de otras características de la evidencia como, por ejemplo, la variedad y precisión del apoyo empírico, la generación de nuevas hipótesis contrastadoras, el apoyo teórico o la simplicidad, tal como puede verse en el Capítulo 4 de Hempel (1980). Pero, con ser importantes todos estos aspectos, lo más relevante para determinar el grado de apoyo que proporciona una evidencia a una teoría son los criterios formales establecidos dentro del falsacionismo. Hemos comentado, que los falsacionistas se ocuparon especialmente de establecer las condiciones para concluir que una teoría es falsable. Y no sólo esto, sino que machaconamente repiten que cuanto más falsable es una teoría más apoyo recibirá de un contraste favorable. Y su recomendación es clara: la preferencia entre dos teorías que concuerdan con la misma evidencia empírica debe recaer en aquella que es más informativa, más arriesgada, en definitiva, más falsable. Podemos ver cómo los seguidores de la contrarreforma, aún aceptando la mayor parte de las criticas formuladas por los reformistas, han logrado mantener un esquema de comparación de teorías no muy alejado de las esencias del código positivista. Se trata de un esquema de comparación bipolar en el que, por un lado, se valoran los aspectos formales adoptados por las teorías y, por otro, se tiene en cuenta la cantidad, la variedad y la precisión del apoyo empírico recibido. Es lo que Watkins (1982) llama el Ideal Bacon-Descartes que lo formula así: “El ideal es bipolar: tiene la aspiración de lograr una explicación profunda en uno de los polos, y la de lograr la certeza en el otro”. Se hablará de un contraste auténtico, severo que tenga en cuenta esa doble dimensión. No se trata de verificar nada, no hay que fundamentar ni demostrar deductivamente la verdad de ningún enunciado. Se trata de adoptar un enfoque preferencialista en línea con el siguiente párrafo de Radnitzky (1982): “Tan pronto como se reconoce la falibilidad esencial del saber científico y se abandona, por tanto, la pretensión de certeza, la metodología no trata ya de la fundamentación, sino de la preferencia”. Vemos como dentro de la contrarreforma, se perfila un enfoque preferencialista que ha recibido formulaciones diversas que pueden verse en el libro de Radnitzky y Andersson (1982) y en el de Lakatos (1983). Veamos una pequeña muestra de estas formulaciones. Koertge (1982), escribe lo siguiente: “En la ciencia deseamos teorías interesantes y altamente informativas, y estamos dispuestos a sacrificar la certeza con tal 14 de obtenerlas... Los científicos buscan sistemas teóricos tanto interesantes ( es decir, profundos, explicativos, informativos y simples) como verdaderos. Pero en este proceso de su investigación se ven a veces forzados temporalmente a cambiar el interés por la verdad y viceversa”. La formulación de Watkins (1982) gira en torno al Ideal Bacon- Descartes al que, anteriormente, nos hemos referido. A Bacon se le asocia con la certeza y ajuste de las prácticas inductivas y a Descartes con la dimensión de información y profundidad. Y sobre la compatibilidad de estos dos factores dice lo siguiente: “En concreto, la petición de profundidad y certeza caminan en direcciones opuestas. Desde las últimas décadas del siglo XIX ha persistido el tema de la aversión a la profundidad.....El principio de verificación del Círculo de Viena era una versión modernizada y de metanivel de la exigencia de certeza. Y este requisito se acompañó con una especie de horror a la profundidad”. Radnitzky (1982) plantea la contradicción entre los dos polos de la siguiente manera: “Cuanto mejores sean las posibilidades de conocer con certeza la verdad de un enunciado, menos contenido tendrá y, al contrario, cuanto más atrevido se sea al afirmar un enunciado, más difícil será confirmarlo. En pocas palabras, certeza y contenido difícilmente son compatibles”. Terminaremos esta revisión con el que puede considerarse el principal protagonista de la contrarreforma: Lakatos. Este autor desarrolla el enfoque preferencialista en torno al concepto de programa de investigación. Un programa de investigación consta de dos elementos- el núcleo y el cinturón protector- y dos códigos de conducta- la heurística positiva y la heurística negativa. El núcleo está formado por aquellos elementos que realmente caracterizan al programa y que siempre aparecen en cualquier formulación del mismo. El cinturón protector se refiere a todos aquellos elementos que pueden alterarse sin modificar sustancialmente a la esencia del programa. Las heurísticas nos informan de lo que podemos cambiar y lo que no podemos cambiar. Para Lakatos, la actividad de los científicos siempre se desarrolla dentro de un programa de investigación. Mientras este programa sea progresivo, la comunidad de científicos se sentirá satisfecha y no considerará programas alternativos. Pero cuando el programa manifieste síntomas de agotamiento y se convierta en degenerativo, entonces la comunidad de científicos buscará algún recambio que le pueda garantizar el carácter progresivo. Pero ¿cómo se distingue un programa de investigación progresivo de otro degenerativo o seudocientífico? Lakatos contesta: “Todos los programas que admiro tienen una característica en común. Todos predicen hechos nuevos, hechos que han sido bien impensables, o bien han sido contradichos por programas rivales....Lo que realmente importa son predicciones inesperadas, dramáticas y sorprendentes.......Un teoría es aceptable si tiene un contenido 15 informativo adicional corroborado respecto a su rival, esto es, solamente si lleva al descubrimiento de hechos nuevos”. Llegamos así al 2006 entre las propuestas de los reformistas y de los contrarreformistas una vez que la referencia al código positivista no parece tener ninguna utilidad para dar cuenta del fenómeno científico. Tanto unos como otros parecen haber resuelto las incongruencias de tipo lógico que acosaban al código anterior y, además, parecen dar cabida de forma satisfactoria a la evolución seguida por la ciencia a lo largo de su historia. La reforma y la contrarreforma comparten algunos criterios frente al código positivista: protagonismo del elemento convencional, observación condicionada, cambio gradual y acumulativo de los esquemas científicos, etc. Pero también hay diferencias. Las principales afectan al concepto de inconmensurabilidad y a los criterios que se tienen en cuenta a la hora de explicar el cambio científico. Para los reformistas, el cambio es el resultado del efecto de muchos factores entre los cuales los criterios lógicos juegan un papel, a veces no el principal, junto a otros factores. Para la contrarreforma, hay también muchos factores que influyen en el cambio científico pero el protagonismo corresponde a alguna regla lógica del tipo ‘contenido informativo adicional corroborado’ que trata de definir el equilibrio bipolar mencionado anteriormente.
2. LAS PECULIARIDADES DE LA ECONOMÍA
VER MÁS AQUÍ
Nos queda el modus tollens. Si, a partir del contraste empírico, se concluye que alguna de las predicciones es falsa, entonces se puede concluir con que la teoría es falsa. En el camino, nos vamos quedando con aquellas teorías que, todavía, no han sido falsadas. En lugar de proclamar que hemos verificado la verdad de la teoría que mantenemos, nos conformamos con decir que, hasta el momento, la teoría no ha sido falsada (aunque puede serlo en futuros contrastes). Parece que, de esta manera, el código sigue manteniendo la ortodoxia y el rigor exigidos por la Lógica. En este sentido, Popper (1962) escribe: “Mi propuesta está basada en una asimetría entre la verificabilidad y la falsabilidad: asimetría que se deriva de la forma lógica de los enunciados universales. Pues estos no son formas deducibles de enunciados singulares, pero sí pueden estar en contradicción con estos últimos. En consecuencia, por medio de inferencias puramente deductivas, (valiéndose de la lógica clásica), es posible argüir de la verdad de los enunciados singulares la falsedad de enunciados universales”.
Podemos decir que, en los años 50 y 60, los practicantes del positivismo lógico se mueven bajo las influencias de estas dos grandes corrientes positivistas: el verificacionismo y el falsacionismo. Los verificacionistas, aún asumiendo el problema de la inducción, seguirán insistiendo en que el objetivo debe ser el aportar la máxima evidencia empírica a favor de una teoría. Se hablará de la verificación en términos de probabilidad, se distinguirá entre verificación fuerte y verificación débil, se defenderá el concepto de confirmación gradualmente creciente, todo esto orientado a demostrar que, aunque no sea posible verificar la verdad de ninguna ley universal a partir de la evidencia empírica, sí que es posible hablar de que una teoría está más o menos apoyada por la evidencia empírica tanto absolutamente como relativamente respecto al apoyo recibido por otras teorías.
Como ya hemos comentado, los falsacionistas renuncian a verificar en aras a mantener la ortodoxia de poder justificar la aplicación de la inferencia deductiva. La diferencia con los verificacionistas es sutil pero importante especialmente cuando se presta atención a los requisitos formales que los falsacionistas especifican como una condición necesaria para que una teoría pueda ser aceptada en el campo de la ciencia. Las teorías deberán ser falsables, informativas, arriesgadas; todo esto, simplemente, para ser tenidas como candidatas en la competición científica; luego, se mantendrán si no han sido falsadas. El requisito formal de la falsabilidad es importante porque es algo que los verificacionistas, en 7 su afán de que la teoría siempre tiene que estar de acuerdo con los hechos, habían pasado por alto. Un contraste empírico es tanto más relevante cuanto más arriesgado sea. Esta es, en mi opinión, la gran aportación del falsacionismo.
El segundo de los rasgos que caracteriza al Positivismo Lógico es el del progreso acumulativo. En la secuencia de generación de teorías en la historia de la ciencia, cada teoría es mejor que la anterior siendo esta un caso particular de la primera. Las teorías son compatibles y, en la secuencia, se puede medir el avance que supone una teoría dada respecto a la anterior.
Por último, el tercer rasgo hace referencia a la unicidad en la aproximación científica. Todas las ciencias deben seguir el mismo método con ligeras variaciones con respecto a las recomendaciones que emanan de las normas del código.
En un afán de ser simples, podríamos decir que esta era la situación epistemológica a principios de los años 60 en torno a un código monolítico con escasas rendijas. Pero como suele ocurrir, todo esquema monolítico tiene su reforma y su contrarreforma. Los partidarios de la reforma ponen patas arriba todo el edificio conceptual y cuestionan uno por uno los fundamentos en los que se apoya el código positivista. Los seguidores de la contrarreforma trataron de salvar los elementos esenciales del código dando entrada a variaciones, más o menos relevantes, en algunos de ellos.
Los reformistas encontraron dos tipos de incoherencias en la aplicación mecánica del código positivista: lógicas e históricas. Las incoherencias de tipo lógico hacen referencia a situaciones en las que la aplicación automática de las normas que emanan del código no resuelven de forma unívoca las dudas que se plantean en el proceso científico. Desde el punto de vista histórico, los reformistas nos dicen que el comportamiento de los científicos a lo largo de la historia conocida de la ciencia no es lo que resultaría de la aplicación del código positivista. Los comportamientos de los científicos se han alejado, en muchas ocasiones, de lo que cabría esperar si hubieran seguido el credo positivista. Por lo tanto, si el código positivista no se mantiene desde el punto de vista lógico, y no ha sido seguido por los científicos a lo largo de la historia, se hace necesario un cambio. A esta tarea se han dedicado con entusiasmo autores como Feyerabend, Kuhn, Russel Hanson, Toulmin y otros en torno a lo que se ha llamado la Nueva Filosofía de la Ciencia. Es el ataque al antiguo régimen como lo llama Hands (2001). Veamos, a continuación, algunas de las críticas más relevantes.
Hemos comentado que el principio de determinación era uno de los bastiones del código positivista. Del mundo real a las leyes generales sólo hay un camino parando en la posada de los hechos a la mitad del mismo. Los reformistas cuestionan todo este planteamiento especialmente en lo que 8 se refiere a la posibilidad de una observación objetiva que conduce a una única percepción compartida por todos. Frente a lo que ellos consideran como una visión simplista de la percepción, defenderán lo que llaman una “observación cargada de teoría”. No hay hechos objetivos libres del componente subjetivo del observador. Cada cual ve lo que está preparado para ver; lo que las preconcepciones teóricas adquiridas le permiten ver. Los libros de los reformistas están llenos de referencias a esta cuestión. Por ejemplo, Kuhn (1971) escribe lo siguiente :“Lo que ve un hombre depende tanto de lo que mira como de lo que su experiencia visual y conceptual previa lo ha preparado a ver” y más adelante: “Lo que antes de la revolución eran patos en el mundo del científico, se convierten en conejos después”. Feyerabend (1975), por su parte, escribe lo siguiente: “La impresión sensorial, por simple que sea, contiene siempre una componente que expresa la reacción del sujeto que percibe y que no tiene correlato objetivo”. Parece claro que dos observadores normales que vean el mismo objeto desde el mismo lugar en las mismas circunstancias físicas no tienen necesariamente idénticas experiencias visuales ni tampoco la misma traducción lingüística, es decir, los mismos hechos, de dichas experiencias. Y esto ocurre tanto en la experiencia diaria como cuando se analiza el resultado de la actividad científica como son los resultados de un experimento en un laboratorio.
Por lo tanto, de la realidad no vamos de forma única a los hechos. No hay una determinación única de estos hechos. No hay nada dentro de la Lógica que permita esa unicidad compartida por todos los observadores. Esto bastaría para hacer saltar por los aires el principio de determinación porque impide continuar el proceso tanto en la dirección del modus ponens como en la del modus tollens. Pero la labor de los reformistas va más allá y su crítica afecta también a los procedimientos de inferencia contemplados en la segunda etapa.
Ya nos hemos referido a las dificultades que planteaba la aplicación del modus ponens cuando se pretendía pasar la verdad de los hechos a enunciados universales. El problema de la inducción nos indicaba que cualquier incremento de contenido en el proceso de transferencia era merecedor de una tarjeta roja. Esto ya lo habían percibido los propios seguidores de la línea positivista. Por esta razón, las críticas se orientaron a desenmascarar las incongruencias asociadas con la aplicación del modus tollens. En principio, esta aplicación parecía estar libre de cualquier alteración de la ortodoxia dentro de la Lógica. Si alguna predicción no concordaba con los hechos, el rechazo de la teoría parecía ser el resultado normal. Pero, como puede verse en la Figura 1, el camino a seguir no es tan automático. Las predicciones son las conclusiones de un argumento en el que las premisas son, por un lado, las teorías, que son enunciados universales, y, por otro, las hipótesis auxiliares, que son enunciados 9 singulares. Si las predicciones no concuerdan con los hechos, ¿Qué hacemos: rechazar la teoría o rechazar alguna de las hipótesis auxiliares? Dentro del código positivista no hay una única respuesta a esta pregunta; la respuesta que se dé en cada situación será el resultado de tomar en consideración una serie de aspectos que no están reflejados en los tratados de lógica. Este es el llamado problema de Duhem.
Si, a partir de la realidad, podemos llegar a diferentes conjuntos de hechos según sea el esquema teórico previamente asumido por el observador, y si el problema de la inducción y el problema de Duhem impiden llegar a una conclusión única a partir de un conjunto de datos, ¿qué queda del principio de determinación? Aparece un panorama en el que la lógica formal sigue jugando un papel importante pero que, a su lado, aparecen otros protagonistas como el pragmatismo, la retórica, las circunstancias históricas en que se genera la teoría, los componentes subjetivos del investigador, etc. que también desempeñan un papel importante en el proceso de elaboración de la ciencia. Como escribe Brown (1983) “En contraste con el empirismo lógico, el rasgo más destacado del nuevo enfoque es el rechazo de la lógica formal como herramienta principal para el análisis de la ciencia y su sustitución por la confianza en el estudio detallado de la historia de la ciencia”. A partir de ese análisis se espera calibrar el protagonismo relativo de cada uno de los ingredientes que acompañan a los instrumentos lógicos.
Pero la crítica de los reformistas no se para en el principio de determinación. También afecta a los otros dos puntos sobre los que se apoyaba el enfoque positivista. No aceptan la idea de que la ciencia avance en línea recta en forma acumulativa en la que cada teoría que sigue subsume a la anterior como un caso particular. Frente a esta idea de progreso acumulativo, los practicantes de la nueva filosofía de la ciencia destacan el principio de la inconmensurabilidad entre esquemas conceptuales alternativos. Los hechos son diferentes; los conceptos en muchas ocasiones no son comparables; los criterios de justificación científica son también diferentes.
Todo esto hace que, para los reformistas, la comparación entre esquemas teóricos alternativos sea una cuestión difícil y que la consideración de uno de ellos como un caso particular del otro sea prácticamente imposible.
Tampoco aceptan que haya un solo método para todas las ciencias. El objeto que estudia cada ciencia es diferente, las posibilidades de experimentar también son diferentes, el papel del contexto externo varía de una ciencia a otra, etc. y todos estos factores pueden aconsejar un cierto pluralismo metodológico frente al monolitismo positivista.
Redman (1991), resume de la siguiente manera la situación que, según él, queda después de la reforma: “Pero especialmente desde los años 60 la imagen racional de la ciencia se ha ido empañando. Los fundamentos 10 de la ciencia del siglo diecisiete- en el sentido de que la ciencia se deriva de la observación y el experimento- no son fiables. La ciencia entendida como un proceso de acumulación y como una empresa progresiva ha sido puesta en duda. Una tajante división entre la teoría y la observación se ha mostrado que es inválida así como la distinción entre el contexto de justificación y el contexto de descubrimiento. Se encontró que los conceptos científicos no eran tan precisos como se había estipulado y que la pretensión de lograr un método universal para una ciencia unificada tenía que abandonarse”.
¿Qué proponen los reformistas cuando se trata de dar cuenta del camino seguido por los científicos a lo largo de la historia de la ciencia y cuando se van a formular las recomendaciones que todo científico debería tener en cuenta si se va a dedicar a elaborar ciencia en el futuro? Hemos comentado que el principal rasgo de la Nueva Filosofía de la ciencia es el rechazo de un código monolítico del que emanan las reglas que guíen el actuar de los científicos. Por lo tanto, no esperemos encontrar otro código como alternativa. Más bien, lo que podemos encontrar es un abanico de propuestas con ciertos elementos comunes pero sin pretensión de ser monolítico. Dow (1985), a la hora de caracterizar esta corriente que llama modo de pensamiento babilónico, escribe lo siguiente: “Utiliza varios hilos argumentales con diferentes orígenes que, cuando la teoría funciona bien, se refuerzan unos con otros; ningún argumento se fundamenta en la aceptación de un conjunto de axiomas. El conocimiento se genera mediante la consideración de ejemplos de aplicaciones de teorías, utilizando una variedad de métodos”.
Por razones de espacio, no podemos dar cuenta de las diferentes propuestas realizadas bajo el espíritu de la reforma. Voy a limitarme a resumir brevemente la que, al mismo tiempo, ha tenido más impacto y ha sido elaborada con mayor precisión. Me refiero a la propuesta de Kuhn (1971) en torno a los paradigmas. Según este autor, la actividad científica se desarrolla en torno a la siguiente secuencia: adopción de un paradigmaciencia normal- crisis-revolución-adopción de un nuevo paradigma. Todo comienza con la adopción, por parte de la comunidad científica, de un paradigma. Un paradigma es un marco conceptual que, al menos, incluye 1) una perspectiva para observar el mundo y derivar unos hechos determinados, 2) un consenso respecto a los rasgos que deben acompañar o caracterizar una buena teoría, 3) un marco teórico para plantear problemas y 4) un consenso respecto a como contrastar empíricamente una teoría. En un momento determinado, la comunidad científica adopta un paradigma porque tiene más éxito que sus competidores para resolver unos cuantos problemas que el grupo de profesionales ha llegado a reconocer como agudos. Kuhn indica que una ciencia madura está regida por un solo paradigma. Una vez que los 11 miembros de una comunidad científica han aceptado un paradigma se entra en el periodo de ciencia normal en el que los científicos se dedican a resolver problemas sin cuestionar los fundamentos del paradigma. Esta resolución de problemas se desarrolla dentro de un esquema rutinario y con total previsión dando lugar a pequeñas anomalías que no llaman la atención del grueso de la comunidad. Pero, en un momento determinado, las anomalías empiezan a ser más relevantes bien debido a que afectan a los propios fundamentos del paradigma, bien porque son importantes con relación a alguna necesidad social apremiante o bien porque su número empieza a ser considerable. Este es el momento en el que la acumulación de anomalías empieza a socavar la confianza en el paradigma vigente y la comunidad de científicos empieza a considerar alternativas. En el periodo que abarca la revolución se consuma el cambio. Para explicar este cambio hace falta algo más que un tratado de lógica. Como escribe Chalmers (1984) “No existe ningún argumento puramente lógico que demuestre la superioridad de un paradigma sobre otro y que, por tanto, impulse a cambiar de paradigma a un científico racional”. Kuhn vincula el cambio de paradigma con una especie de conversión religiosa y escribe “Los científicos individuales aceptan un nuevo paradigma por toda clase de razones y, habitualmente, por varias al mismo tiempo. Algunas de estas razones están fuera del ámbito de la ciencia. Otras deben depender de idiosincrasias de autobiografía y personalidad”. Por unas razones u otras el nuevo paradigma es aceptado y la comunidad científica entra, de nuevo, en un periodo de ciencia normal. Este es el espíritu de la reforma. Pero, como ocurre en casi todos los campos, la Epistemología también ha tenido su contrarreforma. Esta se ha materializado en diferentes propuestas que, desde dentro, han intentado mantener las esencias del código positivista dando entrada a aquellas variaciones que la crítica reformista hacía inevitables. Hemos comentado que la principal crítica del reformismo estaba dirigida contra el principio de determinación. Ni hay hechos objetivos universalmente aceptados, ni hay procedimiento válido de inferencia que permita justificar leyes generales a partir de enunciados singulares. Esto es lo que los autores situados bajo el paraguas de la contrarreforma van a discutir y matizar. El planteamiento será siempre: Sí, pero... Comencemos con los hechos. Seguramente que es difícil, hoy día, encontrar un positivista que piense en una determinación unívoca que vaya de la realidad a los hechos; que exista un conjunto de hechos que sean infalibles. La cultura positivista ha asimilado todas estos incumplimientos del código original. Baste, como ejemplo, la posición de Popper (1962): “Siempre que una teoría se someta a contraste, ya resulte de él su corroboración o su falsación, el problema tiene que detenerse en algún enunciado básico que decidimos aceptar. Hay que reconocer que los 12 enunciados básicos en los que nos detenemos, que decidimos aceptar como satisfactorios y suficientemente contrastados tienen el carácter de dogmas....Mas este tipo de dogmatismo es inocuo ya que en cuanto tengamos necesidad de ello podremos continuar contrastando fácilmente dichos enunciados”. Por lo tanto, la aplicación mecánica y automática del código que nos lleve de la realidad a unos hechos libres de cualquier ganga teórica ya no resulta aceptable ni para los propios positivistas. PERO, eso no significa que tengamos que aceptar que cada teoría tiene sus propios hechos; es posible pensar en muchas situaciones en las que dos sistemas teóricos comparten parcialmente algunas esferas y discrepan en otras. Es lo que Andersson (1984) llama conocimiento básico aproblemático. Si Tycho Brahe lo que observa es que “en el amanecer, el sol se eleva” y Kepler lo que ve es que “el horizonte se hunde”, entonces cabría pensar en considerar un enunciado del siguiente tipo: “a la salida del sol, la distancia entre el horizonte y el sol crece”. Para aceptar este enunciado basta una especie de teoría rudimentaria de la medida de la distancia que es compatible con los dos sistemas teóricos defendidos por Brahe y Kepler. Por lo tanto, puede pensarse en una base de enunciados básicos compatibles con diversas teorías cuya validez puede contrastarse tomando en consideración dicha base. Pasemos ahora a los métodos de inferencia. El problema de la inducción es uno de los temas que mayor atención han recibido por parte de los positivistas. Las paradojas que surgían en torno a este problema han sido tratadas extensamente en la literatura positivista. Ver, por ejemplo, Swinburne (1974) y Black (1979). Lo mismo puede decirse con respecto al falsacionismo y el problema de Duhem. Pese a los esfuerzos, ninguna de estas cuestiones ha recibido una solución formalmente satisfactoria dentro de la Lógica. PERO, en el fondo, todos somos inductivistas de un tipo u otro y, aunque no se ha llegado a una solución lógica definitiva de los problemas mencionados, sí que se han hecho aportaciones que pueden ayudarnos a entender el fenómeno científico. Por ejemplo, Black (1979) concluye su revisión sobre el problema de la inducción escribiendo lo siguiente: “ El término ‘inducción’ será usado aquí para designar todos los casos de argumentación no demostrativa, en la que la verdad de las premisas, aunque no entraña la verdad de la conclusión, pretende ser una buena razón para creer en ella”. Glass y Johnson (1989), se refieren al concepto ‘confirmación gradualmente creciente’ y escriben “Si bien nosotros no podemos verificar una teoría universal sobre la base de observaciones singulares, los inductivistas han sugerido que, conforme el número de observaciones favorables crece nuestra confianza en la teoría crecerá también. En otras palabras, en lugar de hablar de la verificación de una teoría podemos hablar de confirmación gradualmente creciente de una teoría”. Se repite ‘no queremos demostrar’ o no se pretende ‘verificar 13 la verdad’ de ninguna teoría todo ello fruto de los problemas en torno al inductivismo. Pero eso no significa renunciar a establecer una graduación de las teorías según el apoyo empírico recibido que pueda permitir, en un momento dado, preferir a una frente a las demás. Aunque Glass y Johnson se limitan a considerar el número de observaciones favorables, eso no excluye la toma en consideración de otras características de la evidencia como, por ejemplo, la variedad y precisión del apoyo empírico, la generación de nuevas hipótesis contrastadoras, el apoyo teórico o la simplicidad, tal como puede verse en el Capítulo 4 de Hempel (1980). Pero, con ser importantes todos estos aspectos, lo más relevante para determinar el grado de apoyo que proporciona una evidencia a una teoría son los criterios formales establecidos dentro del falsacionismo. Hemos comentado, que los falsacionistas se ocuparon especialmente de establecer las condiciones para concluir que una teoría es falsable. Y no sólo esto, sino que machaconamente repiten que cuanto más falsable es una teoría más apoyo recibirá de un contraste favorable. Y su recomendación es clara: la preferencia entre dos teorías que concuerdan con la misma evidencia empírica debe recaer en aquella que es más informativa, más arriesgada, en definitiva, más falsable. Podemos ver cómo los seguidores de la contrarreforma, aún aceptando la mayor parte de las criticas formuladas por los reformistas, han logrado mantener un esquema de comparación de teorías no muy alejado de las esencias del código positivista. Se trata de un esquema de comparación bipolar en el que, por un lado, se valoran los aspectos formales adoptados por las teorías y, por otro, se tiene en cuenta la cantidad, la variedad y la precisión del apoyo empírico recibido. Es lo que Watkins (1982) llama el Ideal Bacon-Descartes que lo formula así: “El ideal es bipolar: tiene la aspiración de lograr una explicación profunda en uno de los polos, y la de lograr la certeza en el otro”. Se hablará de un contraste auténtico, severo que tenga en cuenta esa doble dimensión. No se trata de verificar nada, no hay que fundamentar ni demostrar deductivamente la verdad de ningún enunciado. Se trata de adoptar un enfoque preferencialista en línea con el siguiente párrafo de Radnitzky (1982): “Tan pronto como se reconoce la falibilidad esencial del saber científico y se abandona, por tanto, la pretensión de certeza, la metodología no trata ya de la fundamentación, sino de la preferencia”. Vemos como dentro de la contrarreforma, se perfila un enfoque preferencialista que ha recibido formulaciones diversas que pueden verse en el libro de Radnitzky y Andersson (1982) y en el de Lakatos (1983). Veamos una pequeña muestra de estas formulaciones. Koertge (1982), escribe lo siguiente: “En la ciencia deseamos teorías interesantes y altamente informativas, y estamos dispuestos a sacrificar la certeza con tal 14 de obtenerlas... Los científicos buscan sistemas teóricos tanto interesantes ( es decir, profundos, explicativos, informativos y simples) como verdaderos. Pero en este proceso de su investigación se ven a veces forzados temporalmente a cambiar el interés por la verdad y viceversa”. La formulación de Watkins (1982) gira en torno al Ideal Bacon- Descartes al que, anteriormente, nos hemos referido. A Bacon se le asocia con la certeza y ajuste de las prácticas inductivas y a Descartes con la dimensión de información y profundidad. Y sobre la compatibilidad de estos dos factores dice lo siguiente: “En concreto, la petición de profundidad y certeza caminan en direcciones opuestas. Desde las últimas décadas del siglo XIX ha persistido el tema de la aversión a la profundidad.....El principio de verificación del Círculo de Viena era una versión modernizada y de metanivel de la exigencia de certeza. Y este requisito se acompañó con una especie de horror a la profundidad”. Radnitzky (1982) plantea la contradicción entre los dos polos de la siguiente manera: “Cuanto mejores sean las posibilidades de conocer con certeza la verdad de un enunciado, menos contenido tendrá y, al contrario, cuanto más atrevido se sea al afirmar un enunciado, más difícil será confirmarlo. En pocas palabras, certeza y contenido difícilmente son compatibles”. Terminaremos esta revisión con el que puede considerarse el principal protagonista de la contrarreforma: Lakatos. Este autor desarrolla el enfoque preferencialista en torno al concepto de programa de investigación. Un programa de investigación consta de dos elementos- el núcleo y el cinturón protector- y dos códigos de conducta- la heurística positiva y la heurística negativa. El núcleo está formado por aquellos elementos que realmente caracterizan al programa y que siempre aparecen en cualquier formulación del mismo. El cinturón protector se refiere a todos aquellos elementos que pueden alterarse sin modificar sustancialmente a la esencia del programa. Las heurísticas nos informan de lo que podemos cambiar y lo que no podemos cambiar. Para Lakatos, la actividad de los científicos siempre se desarrolla dentro de un programa de investigación. Mientras este programa sea progresivo, la comunidad de científicos se sentirá satisfecha y no considerará programas alternativos. Pero cuando el programa manifieste síntomas de agotamiento y se convierta en degenerativo, entonces la comunidad de científicos buscará algún recambio que le pueda garantizar el carácter progresivo. Pero ¿cómo se distingue un programa de investigación progresivo de otro degenerativo o seudocientífico? Lakatos contesta: “Todos los programas que admiro tienen una característica en común. Todos predicen hechos nuevos, hechos que han sido bien impensables, o bien han sido contradichos por programas rivales....Lo que realmente importa son predicciones inesperadas, dramáticas y sorprendentes.......Un teoría es aceptable si tiene un contenido 15 informativo adicional corroborado respecto a su rival, esto es, solamente si lleva al descubrimiento de hechos nuevos”. Llegamos así al 2006 entre las propuestas de los reformistas y de los contrarreformistas una vez que la referencia al código positivista no parece tener ninguna utilidad para dar cuenta del fenómeno científico. Tanto unos como otros parecen haber resuelto las incongruencias de tipo lógico que acosaban al código anterior y, además, parecen dar cabida de forma satisfactoria a la evolución seguida por la ciencia a lo largo de su historia. La reforma y la contrarreforma comparten algunos criterios frente al código positivista: protagonismo del elemento convencional, observación condicionada, cambio gradual y acumulativo de los esquemas científicos, etc. Pero también hay diferencias. Las principales afectan al concepto de inconmensurabilidad y a los criterios que se tienen en cuenta a la hora de explicar el cambio científico. Para los reformistas, el cambio es el resultado del efecto de muchos factores entre los cuales los criterios lógicos juegan un papel, a veces no el principal, junto a otros factores. Para la contrarreforma, hay también muchos factores que influyen en el cambio científico pero el protagonismo corresponde a alguna regla lógica del tipo ‘contenido informativo adicional corroborado’ que trata de definir el equilibrio bipolar mencionado anteriormente.
2. LAS PECULIARIDADES DE LA ECONOMÍA
VER MÁS AQUÍ
No hay comentarios:
Publicar un comentario