ESCRIBA LO QUE DESEA LEER EN ESTE BLOG

lunes, 13 de julio de 2020

QUÉ PODEMOS HACER LOS ECONOMISTAS CON UNA CIENCIA QUE DEBE (Y CASI NO PUEDE) SER EMPÍRICA

QUÉ PODEMOS HACER LOS ECONOMISTAS CON UNA
CIENCIA QUE DEBE (Y CASI NO PUEDE) SER EMPÍRICA
Por Antonio Aznar
Catedrático de Econometría y Métodos Estadísticos de la Universidad
de Zaragoza y Vicepresidente Primero del Consejo de Administración
de CAI. 

Resumen: El objeto de este trabajo es comentar las dificultades con las que se topa la Economía cuando pretende elaborar, explícitamente, un conocimiento que sea científico. Comenzamos analizando las grandes corrientes de la Filosofía de la Ciencia, comentamos las peculiaridades del fenómeno económico y las consecuencias que se derivan de esas peculiaridades y concluimos con unas recomendaciones. 
Palabras Clave:Científico, Paradigma, Programa de Investigación, Enfoque Preferencialista Bipolar, Tendencias y no Leyes y Predicción. 

Agradecimientos. 
Agradezco las sugerencias que me han hecho Maria Teresa Aparicio, Maria Isabel Ayuda, Pilar Aznar, Tomás García, Javier Nievas, Eduardo Pozo e Inmaculada Villanúa. 

 “A los economistas les gusta pensar que la Economía es una ciencia. En una ciencia, sin embargo, las contradicciones repetidas de un paradigma conducen a su abandono si hay una alternativa disponible.Un paradigma en Economía sostiene que los déficits presupuestarios producen altos tipos de interés. Este paradigma no está soportado por los hechos”. Evans (1985). 


“Los defensores de la equivalencia ricardiana han desarrollado un trabajo econométrico sobresaliente pero sólo han logrado la conversión de un reducido número de economistas americanos. Esto no debe sorprendernos porque, como Summers ya demostró, independientemente de lo que pensemos, la econometría sofisticada tiene poca influencia cuando va en contra del sentido común”. Mayer (1995). 

 1. INTRODUCCIÓN 

 El economista, como cualquier otro profesional, está dotado de un equipaje intelectual que determina y condiciona su aportación al funcionamiento de la sociedad. La cultura económica es uno de los ingredientes destacados del funcionamiento de las sociedades contemporáneas y esta cultura abarca muchos aspectos que van desde la forma de ver las cosas hasta el mismo proceso de toma de decisiones diseñado para cambiarlas. 
Podemos hablar de dos tipos de cultura económica: implícita y explícita. La primera, se manifiesta de forma casi imperceptible por allí por donde pasa un economista. 
No hace falta sacar de la mochila ni las curvas de indiferencia, ni las elasticidades, ni los modelos econométricos. Simplemente, se pone de manifiesto una actitud, una forma de plantear los problemas y un estilo, un talante diríamos hoy, en la forma de sugerir y proponer soluciones a dichos problemas. 
Pero, al lado de esta cultura en torno a una forma de estar, podemos hablar de una segunda cultura, en muchas ocasiones estrechamente unida a la anterior, y que va acompañada, entre otras cosas, por modelos matemáticos y métodos estadístico-econométricos de diferente tipo. Esto es lo que, en este trabajo, llamaré cultura económica explícita y es esta la que hace exclamar a algún estudiante preclaro y a algún que otro economista escéptico de larga tradición “¿Para qué tanto formalismo?”. En este trabajo reflexionaré sobre algunos aspectos relacionados con lo que he llamado cultura explícita. No porque piense que su papel en el funcionamiento de la sociedad sea más relevante que el que corresponde a lo que hemos llamado cultura implícita; mas bien pienso lo contrario. Lo hago porque me resulta más fácil ya que el objeto a 3 discutir está nítidamente delimitado en la literatura y muchos autores se han pronunciado sobre el mismo. 

Reflexionar sobre el papel de lo que hemos llamado cultura implícita resulta, para mí, mucho más complicado porque su intervención en el devenir social es mucho más difusa. Pero repito, no menos importante. 
La sección siguiente está dedicada a reflexionar sobre el llamado fenómeno científico. La Sección 3 se ocupa de ilustrar lo especiales que somos los economistas cuando nos dedicamos a hacer ciencia. 
Por último, en la Sección 4, tratamos de razonar que, ya que somos tan especiales, algo deberíamos de pensar para mantenernos dentro de algún tipo de ortodoxia. 

2 EL FENÓMENO CIENTÍFICO. 

 Comenta Chalmers (1982), al comienzo de su libro, que decir que algo es científico es asignarle un reconocimiento especial y esto no sólo en el campo del conocimiento, sino en campos más de la vida diaria, como una crema dentrífica o el proceso de elaboración de un coche. 
Cuando se dice que una crema de dientes ha sido elaborada siguiendo un método científico, parece que se ofrecen más garantías sobre la excelencia del producto. En definitiva, se intenta decir que se trata de un producto mejor. 
Pero si esto es así para muchos productos, la mayor relevancia de etiquetar algo como científico tiene lugar en el campo del conocimiento. Se da por supuesto que el conocimiento científico es un conocimiento superior a otro tipo de conocimientos como el vulgar o el ideológico. 
Como indica Mayer (1995), cuando no estás de acuerdo con un colega puedes transtornarlo diciéndole que su pensamiento es erróneo; pero todavía lo transtornas más si le dices que su pensamiento no es científico. 

Inmediatamente surge la siguiente cuestión: 
¿Cuáles son las razones que hacen que la vitola de científico sea tan deseada?. 
Limitándonos al campo del conocimiento, el término científico evoca, al menos, lo siguiente: 
- Conocimiento científico, en primer lugar, se identifica con conocimiento objetivo, válido universalmente, que se acepta no por las características personales de quien lo formula sino por el proceso que se ha seguido en su adquisición. 
- Existe el convencimiento de que la utilización del conocimiento científico con fines prácticos llevará a mejores resultados que los que podrían obtenerse utilizando otro tipo de conocimiento.
En concreto, hay dos cosas que solamente con el concurso del conocimiento científico pueden hacerse de forma satisfactoria: la predicción y el análisis causal cuantitativo bivariante. Con la predicción, se pretende anticipar la evolución de ciertos acontecimientos futuros. En el análisis bivariante se trata de determinar qué cambio cuantitativo experimenta una variable al modificar en una determinada cuantía la trayectoria de otra variable. 

 El conocimiento científico se asocia, por tanto, con la posibilidad de lograr conocimiento objetivo y alcanzar altas cotas de satisfacción cuando dicho conocimiento se utiliza para resolver los problemas de nuestro entorno. 
 La comunidad de científicos, pretende tener un código de aplicación semiautomática que les garantice el carácter científico del pensamiento que elaboran y que les permita resolver de forma mecánica las dudas que van surgiendo en el proceso de adquisición del conocimiento. 
En un determinado momento esta aspiración parecía satisfacerse con el llamado Positivismo Lógico que se desarrolló en torno a un grupo de filósofos que formaron el llamado Círculo de Viena en los años 20 y 30. 
El código asociado con el Positivismo Lógico había destilado las esencias de los desarrollos habidos tanto en los métodos lógicos como en las corrientes empiristas. Ver, por ejemplo, Ayer (1959), Kolakovski (1977) y Porta (1983). Los principales rasgos en los que se apoyaba este código del Positivismo Lógico son: principio de determinación, progreso acumulativo y unicidad de método. 

El principio de determinación nos dice que si se aplica correctamente el código elaborado por los positivistas lógicos, entonces a partir de la realidad se llega a un solo modelo teórico explicativo. Se puede hablar de un proceso en dos etapas que nos lleva, en primer lugar, de la realidad a los hechos y, a continuación, de los hechos a las leyes generales en forma de teorías o hipótesis. Para los positivistas, el tránsito de la realidad a los hechos se hace de forma inmediata y no requiere mucha explicación. Basta abrir los ojos y, con un equipamiento sensorial normal, la percepción será la misma para todos: son los hechos puros y duros. 

Como indica Russel Hanson (1977), caricaturizando la posición del positivista estandar: 

“Para los filósofos simplistas la observación consiste en abrir los ojos y mirar.
Los hechos son simplemente las cosas que suceden dura, directa, llana y simplemente”. 

 La segunda etapa nos lleva de los hechos a las leyes generales. La lógica nos indica que, para llevar a cabo esta etapa, el único camino correcto es la aplicación de las reglas de inferencia deductiva.
Esta admite dos variantes: transferir la verdad hacia delante, de las premisas a las 5 conclusiones (modus ponens) o transferir la falsedad hacia atrás de las conclusiones a las premisas (modus tollens).
Uno de los requisitos para que esta inferencia sea válida es que, en el camino, ni se añada ni se reste contenido. En las ciencias empíricas existen diferentes circuitos en los que las conexiones se justifican por la aplicación de la inferencia deductiva. Algunos de estos circuitos pueden verse en la Figura 1.
Así, podemos considerar un argumento en el que las premisas son el conjunto de postulados iniciales, que son enunciados universales, y las conclusiones son las leyes o teorías que son también enunciados universales. 
Puede pensarse también en un segundo argumento en el que las premisas son las leyes o teorías, que son enunciados universales, conjuntamente con las hipótesis auxiliares, que son enunciados singulares, y las conclusiones son las explicaciones o predicciones, que son enunciados singulares. Pero, en las ciencias empíricas, los argumentos más relevantes son aquellos que ponen en conexión a los hechos con algún elemento del esquema teórico. 

                    -----------------------------------------------        
                     Base de postulados iniciales 
                    --------------------------------------
                                       I
                                       I
                                      V
           -----------------------------------------------
           Leyes Universales Hipótesis o Teorías 
           -----------------------------------------------
                                      !
                                      !         
                                                   ---------------------------------------------------------
                                                   Condiciones Iniciales o Hipótesis Auxiliares
                                                 --------------------------------------------------------- 
                                         /
                                      !
           ----------------------------------------------
                 Explicaciones o Predicciones 
-         ------------------------------------------------

Figura 1. Método científico.  

Se puede considerar un argumento en el que las premisas son el conjunto de hechos y las conclusiones son o bien el conjunto de postulados iniciales, o bien las leyes universales, teorías o hipótesis. Esta es la llamada inferencia inductiva. De un conjunto de enunciados singulares, los hechos, se trata de validar un enunciado universal, sea este un postulado o una teoría. Pero de un conjunto de enunciados singulares, por muy numerosos y  variados que estos sean, no se puede derivar la validez de un enunciado universal. Así, llegamos al problema de la inducción. El modus ponens cuando se pretende ir desde la evidencia empírica hasta los postulados o hipótesis es ilegal dentro de la Lógica. Por lo tanto, a partir de la evidencia no se puede verificar la verdad de ningún enunciado general. 

 Nos queda el modus tollens. Si, a partir del contraste empírico, se concluye que alguna de las predicciones es falsa, entonces se puede concluir con que la teoría es falsa. En el camino, nos vamos quedando con aquellas teorías que, todavía, no han sido falsadas. En lugar de proclamar que hemos verificado la verdad de la teoría que mantenemos, nos conformamos con decir que, hasta el momento, la teoría no ha sido falsada (aunque puede serlo en futuros contrastes). Parece que, de esta manera, el código sigue manteniendo la ortodoxia y el rigor exigidos por la Lógica. En este sentido, Popper (1962) escribe: “Mi propuesta está basada en una asimetría entre la verificabilidad y la falsabilidad: asimetría que se deriva de la forma lógica de los enunciados universales. Pues estos no son formas deducibles de enunciados singulares, pero sí pueden estar en contradicción con estos últimos. En consecuencia, por medio de inferencias puramente deductivas, (valiéndose de la lógica clásica), es posible argüir de la verdad de los enunciados singulares la falsedad de enunciados universales”. 

Podemos decir que, en los años 50 y 60, los practicantes del positivismo lógico se mueven bajo las influencias de estas dos grandes corrientes positivistas: el verificacionismo y el falsacionismo. Los verificacionistas, aún asumiendo el problema de la inducción, seguirán insistiendo en que el objetivo debe ser el aportar la máxima evidencia empírica a favor de una teoría. Se hablará de la verificación en términos de probabilidad, se distinguirá entre verificación fuerte y verificación débil, se defenderá el concepto de confirmación gradualmente creciente, todo esto orientado a demostrar que, aunque no sea posible verificar la verdad de ninguna ley universal a partir de la evidencia empírica, sí que es posible hablar de que una teoría está más o menos apoyada por la evidencia empírica tanto absolutamente como relativamente respecto al apoyo recibido por otras teorías. 

Como ya hemos comentado, los falsacionistas renuncian a verificar en aras a mantener la ortodoxia de poder justificar la aplicación de la inferencia deductiva. La diferencia con los verificacionistas es sutil pero importante especialmente cuando se presta atención a los requisitos formales que los falsacionistas especifican como una condición necesaria para que una teoría pueda ser aceptada en el campo de la ciencia. Las teorías deberán ser falsables, informativas, arriesgadas; todo esto, simplemente, para ser tenidas como candidatas en la competición científica; luego, se mantendrán si no han sido falsadas. El requisito formal de la falsabilidad es importante porque es algo que los verificacionistas, en 7 su afán de que la teoría siempre tiene que estar de acuerdo con los hechos, habían pasado por alto. Un contraste empírico es tanto más relevante cuanto más arriesgado sea. Esta es, en mi opinión, la gran aportación del falsacionismo. 

El segundo de los rasgos que caracteriza al Positivismo Lógico es el del progreso acumulativo. En la secuencia de generación de teorías en la historia de la ciencia, cada teoría es mejor que la anterior siendo esta un caso particular de la primera. Las teorías son compatibles y, en la secuencia, se puede medir el avance que supone una teoría dada respecto a la anterior. 

Por último, el tercer rasgo hace referencia a la unicidad en la aproximación científica. Todas las ciencias deben seguir el mismo método con ligeras variaciones con respecto a las recomendaciones que emanan de las normas del código. 

En un afán de ser simples, podríamos decir que esta era la situación epistemológica a principios de los años 60 en torno a un código monolítico con escasas rendijas. Pero como suele ocurrir, todo esquema monolítico tiene su reforma y su contrarreforma. Los partidarios de la reforma ponen patas arriba todo el edificio conceptual y cuestionan uno por uno los fundamentos en los que se apoya el código positivista. Los seguidores de la contrarreforma trataron de salvar los elementos esenciales del código dando entrada a variaciones, más o menos relevantes, en algunos de ellos. 

Los reformistas encontraron dos tipos de incoherencias en la aplicación mecánica del código positivista: lógicas e históricas. Las incoherencias de tipo lógico hacen referencia a situaciones en las que la aplicación automática de las normas que emanan del código no resuelven de forma unívoca las dudas que se plantean en el proceso científico. Desde el punto de vista histórico, los reformistas nos dicen que el comportamiento de los científicos a lo largo de la historia conocida de la ciencia no es lo que resultaría de la aplicación del código positivista. Los comportamientos de los científicos se han alejado, en muchas ocasiones, de lo que cabría esperar si hubieran seguido el credo positivista. Por lo tanto, si el código positivista no se mantiene desde el punto de vista lógico, y no ha sido seguido por los científicos a lo largo de la historia, se hace necesario un cambio. A esta tarea se han dedicado con entusiasmo autores como Feyerabend, Kuhn, Russel Hanson, Toulmin y otros en torno a lo que se ha llamado la Nueva Filosofía de la Ciencia. Es el ataque al antiguo régimen como lo llama Hands (2001). Veamos, a continuación, algunas de las críticas más relevantes. 

Hemos comentado que el principio de determinación era uno de los bastiones del código positivista. Del mundo real a las leyes generales sólo hay un camino parando en la posada de los hechos a la mitad del mismo. Los reformistas cuestionan todo este planteamiento especialmente en lo que 8 se refiere a la posibilidad de una observación objetiva que conduce a una única percepción compartida por todos. Frente a lo que ellos consideran como una visión simplista de la percepción, defenderán lo que llaman una “observación cargada de teoría”. No hay hechos objetivos libres del componente subjetivo del observador. Cada cual ve lo que está preparado para ver; lo que las preconcepciones teóricas adquiridas le permiten ver. Los libros de los reformistas están llenos de referencias a esta cuestión. Por ejemplo, Kuhn (1971) escribe lo siguiente :“Lo que ve un hombre depende tanto de lo que mira como de lo que su experiencia visual y conceptual previa lo ha preparado a ver” y más adelante: “Lo que antes de la revolución eran patos en el mundo del científico, se convierten en conejos después”. Feyerabend (1975), por su parte, escribe lo siguiente: “La impresión sensorial, por simple que sea, contiene siempre una componente que expresa la reacción del sujeto que percibe y que no tiene correlato objetivo”. Parece claro que dos observadores normales que vean el mismo objeto desde el mismo lugar en las mismas circunstancias físicas no tienen necesariamente idénticas experiencias visuales ni tampoco la misma traducción lingüística, es decir, los mismos hechos, de dichas experiencias. Y esto ocurre tanto en la experiencia diaria como cuando se analiza el resultado de la actividad científica como son los resultados de un experimento en un laboratorio. 

Por lo tanto, de la realidad no vamos de forma única a los hechos. No hay una determinación única de estos hechos. No hay nada dentro de la Lógica que permita esa unicidad compartida por todos los observadores. Esto bastaría para hacer saltar por los aires el principio de determinación porque impide continuar el proceso tanto en la dirección del modus ponens como en la del modus tollens. Pero la labor de los reformistas va más allá y su crítica afecta también a los procedimientos de inferencia contemplados en la segunda etapa. 

Ya nos hemos referido a las dificultades que planteaba la aplicación del modus ponens cuando se pretendía pasar la verdad de los hechos a enunciados universales. El problema de la inducción nos indicaba que cualquier incremento de contenido en el proceso de transferencia era merecedor de una tarjeta roja. Esto ya lo habían percibido los propios seguidores de la línea positivista. Por esta razón, las críticas se orientaron a desenmascarar las incongruencias asociadas con la aplicación del modus tollens. En principio, esta aplicación parecía estar libre de cualquier alteración de la ortodoxia dentro de la Lógica. Si alguna predicción no concordaba con los hechos, el rechazo de la teoría parecía ser el resultado normal. Pero, como puede verse en la Figura 1, el camino a seguir no es tan automático. Las predicciones son las conclusiones de un argumento en el que las premisas son, por un lado, las teorías, que son enunciados universales, y, por otro, las hipótesis auxiliares, que son enunciados 9 singulares. Si las predicciones no concuerdan con los hechos, ¿Qué hacemos: rechazar la teoría o rechazar alguna de las hipótesis auxiliares? Dentro del código positivista no hay una única respuesta a esta pregunta; la respuesta que se dé en cada situación será el resultado de tomar en consideración una serie de aspectos que no están reflejados en los tratados de lógica. Este es el llamado problema de Duhem. 

Si, a partir de la realidad, podemos llegar a diferentes conjuntos de hechos según sea el esquema teórico previamente asumido por el observador, y si el problema de la inducción y el problema de Duhem impiden llegar a una conclusión única a partir de un conjunto de datos, ¿qué queda del principio de determinación? Aparece un panorama en el que la lógica formal sigue jugando un papel importante pero que, a su lado, aparecen otros protagonistas como el pragmatismo, la retórica, las circunstancias históricas en que se genera la teoría, los componentes subjetivos del investigador, etc. que también desempeñan un papel importante en el proceso de elaboración de la ciencia. Como escribe Brown (1983) “En contraste con el empirismo lógico, el rasgo más destacado del nuevo enfoque es el rechazo de la lógica formal como herramienta principal para el análisis de la ciencia y su sustitución por la confianza en el estudio detallado de la historia de la ciencia”. A partir de ese análisis se espera calibrar el protagonismo relativo de cada uno de los ingredientes que acompañan a los instrumentos lógicos.

Pero la crítica de los reformistas no se para en el principio de determinación. También afecta a los otros dos puntos sobre los que se apoyaba el enfoque positivista. No aceptan la idea de que la ciencia avance en línea recta en forma acumulativa en la que cada teoría que sigue subsume a la anterior como un caso particular. Frente a esta idea de progreso acumulativo, los practicantes de la nueva filosofía de la ciencia destacan el principio de la inconmensurabilidad entre esquemas conceptuales alternativos. Los hechos son diferentes; los conceptos en muchas ocasiones no son comparables; los criterios de justificación científica son también diferentes.
 Todo esto hace que, para los reformistas, la comparación entre esquemas teóricos alternativos sea una cuestión difícil y que la consideración de uno de ellos como un caso particular del otro sea prácticamente imposible.

 Tampoco aceptan que haya un solo método para todas las ciencias. El objeto que estudia cada ciencia es diferente, las posibilidades de experimentar también son diferentes, el papel del contexto externo varía de una ciencia a otra, etc. y todos estos factores pueden aconsejar un cierto pluralismo metodológico frente al monolitismo positivista. 

Redman (1991), resume de la siguiente manera la situación que, según él, queda después de la reforma: “Pero especialmente desde los años 60 la imagen racional de la ciencia se ha ido empañando. Los fundamentos 10 de la ciencia del siglo diecisiete- en el sentido de que la ciencia se deriva de la observación y el experimento- no son fiables. La ciencia entendida como un proceso de acumulación y como una empresa progresiva ha sido puesta en duda. Una tajante división entre la teoría y la observación se ha mostrado que es inválida así como la distinción entre el contexto de justificación y el contexto de descubrimiento. Se encontró que los conceptos científicos no eran tan precisos como se había estipulado y que la pretensión de lograr un método universal para una ciencia unificada tenía que abandonarse”. 

¿Qué proponen los reformistas cuando se trata de dar cuenta del camino seguido por los científicos a lo largo de la historia de la ciencia y cuando se van a formular las recomendaciones que todo científico debería tener en cuenta si se va a dedicar a elaborar ciencia en el futuro? Hemos comentado que el principal rasgo de la Nueva Filosofía de la ciencia es el rechazo de un código monolítico del que emanan las reglas que guíen el actuar de los científicos. Por lo tanto, no esperemos encontrar otro código como alternativa. Más bien, lo que podemos encontrar es un abanico de propuestas con ciertos elementos comunes pero sin pretensión de ser monolítico. Dow (1985), a la hora de caracterizar esta corriente que llama modo de pensamiento babilónico, escribe lo siguiente: “Utiliza varios hilos argumentales con diferentes orígenes que, cuando la teoría funciona bien, se refuerzan unos con otros; ningún argumento se fundamenta en la aceptación de un conjunto de axiomas. El conocimiento se genera mediante la consideración de ejemplos de aplicaciones de teorías, utilizando una variedad de métodos”.
Por razones de espacio, no podemos dar cuenta de las diferentes propuestas realizadas bajo el espíritu de la reforma. Voy a limitarme a resumir brevemente la que, al mismo tiempo, ha tenido más impacto y ha sido elaborada con mayor precisión. Me refiero a la propuesta de Kuhn (1971) en torno a los paradigmas. Según este autor, la actividad científica se desarrolla en torno a la siguiente secuencia: adopción de un paradigmaciencia normal- crisis-revolución-adopción de un nuevo paradigma. Todo comienza con la adopción, por parte de la comunidad científica, de un paradigma. Un paradigma es un marco conceptual que, al menos, incluye 1) una perspectiva para observar el mundo y derivar unos hechos determinados, 2) un consenso respecto a los rasgos que deben acompañar o caracterizar una buena teoría, 3) un marco teórico para plantear problemas y 4) un consenso respecto a como contrastar empíricamente una teoría. En un momento determinado, la comunidad científica adopta un paradigma porque tiene más éxito que sus competidores para resolver unos cuantos problemas que el grupo de profesionales ha llegado a reconocer como agudos. Kuhn indica que una ciencia madura está regida por un solo paradigma. Una vez que los 11 miembros de una comunidad científica han aceptado un paradigma se entra en el periodo de ciencia normal en el que los científicos se dedican a resolver problemas sin cuestionar los fundamentos del paradigma. Esta resolución de problemas se desarrolla dentro de un esquema rutinario y con total previsión dando lugar a pequeñas anomalías que no llaman la atención del grueso de la comunidad. Pero, en un momento determinado, las anomalías empiezan a ser más relevantes bien debido a que afectan a los propios fundamentos del paradigma, bien porque son importantes con relación a alguna necesidad social apremiante o bien porque su número empieza a ser considerable. Este es el momento en el que la acumulación de anomalías empieza a socavar la confianza en el paradigma vigente y la comunidad de científicos empieza a considerar alternativas. En el periodo que abarca la revolución se consuma el cambio. Para explicar este cambio hace falta algo más que un tratado de lógica. Como escribe Chalmers (1984) “No existe ningún argumento puramente lógico que demuestre la superioridad de un paradigma sobre otro y que, por tanto, impulse a cambiar de paradigma a un científico racional”. Kuhn vincula el cambio de paradigma con una especie de conversión religiosa y escribe “Los científicos individuales aceptan un nuevo paradigma por toda clase de razones y, habitualmente, por varias al mismo tiempo. Algunas de estas razones están fuera del ámbito de la ciencia. Otras deben depender de idiosincrasias de autobiografía y personalidad”. Por unas razones u otras el nuevo paradigma es aceptado y la comunidad científica entra, de nuevo, en un periodo de ciencia normal. Este es el espíritu de la reforma. Pero, como ocurre en casi todos los campos, la Epistemología también ha tenido su contrarreforma. Esta se ha materializado en diferentes propuestas que, desde dentro, han intentado mantener las esencias del código positivista dando entrada a aquellas variaciones que la crítica reformista hacía inevitables. Hemos comentado que la principal crítica del reformismo estaba dirigida contra el principio de determinación. Ni hay hechos objetivos universalmente aceptados, ni hay procedimiento válido de inferencia que permita justificar leyes generales a partir de enunciados singulares. Esto es lo que los autores situados bajo el paraguas de la contrarreforma van a discutir y matizar. El planteamiento será siempre: Sí, pero... Comencemos con los hechos. Seguramente que es difícil, hoy día, encontrar un positivista que piense en una determinación unívoca que vaya de la realidad a los hechos; que exista un conjunto de hechos que sean infalibles. La cultura positivista ha asimilado todas estos incumplimientos del código original. Baste, como ejemplo, la posición de Popper (1962): “Siempre que una teoría se someta a contraste, ya resulte de él su corroboración o su falsación, el problema tiene que detenerse en algún enunciado básico que decidimos aceptar. Hay que reconocer que los 12 enunciados básicos en los que nos detenemos, que decidimos aceptar como satisfactorios y suficientemente contrastados tienen el carácter de dogmas....Mas este tipo de dogmatismo es inocuo ya que en cuanto tengamos necesidad de ello podremos continuar contrastando fácilmente dichos enunciados”. Por lo tanto, la aplicación mecánica y automática del código que nos lleve de la realidad a unos hechos libres de cualquier ganga teórica ya no resulta aceptable ni para los propios positivistas. PERO, eso no significa que tengamos que aceptar que cada teoría tiene sus propios hechos; es posible pensar en muchas situaciones en las que dos sistemas teóricos comparten parcialmente algunas esferas y discrepan en otras. Es lo que Andersson (1984) llama conocimiento básico aproblemático. Si Tycho Brahe lo que observa es que “en el amanecer, el sol se eleva” y Kepler lo que ve es que “el horizonte se hunde”, entonces cabría pensar en considerar un enunciado del siguiente tipo: “a la salida del sol, la distancia entre el horizonte y el sol crece”. Para aceptar este enunciado basta una especie de teoría rudimentaria de la medida de la distancia que es compatible con los dos sistemas teóricos defendidos por Brahe y Kepler. Por lo tanto, puede pensarse en una base de enunciados básicos compatibles con diversas teorías cuya validez puede contrastarse tomando en consideración dicha base. Pasemos ahora a los métodos de inferencia. El problema de la inducción es uno de los temas que mayor atención han recibido por parte de los positivistas. Las paradojas que surgían en torno a este problema han sido tratadas extensamente en la literatura positivista. Ver, por ejemplo, Swinburne (1974) y Black (1979). Lo mismo puede decirse con respecto al falsacionismo y el problema de Duhem. Pese a los esfuerzos, ninguna de estas cuestiones ha recibido una solución formalmente satisfactoria dentro de la Lógica. PERO, en el fondo, todos somos inductivistas de un tipo u otro y, aunque no se ha llegado a una solución lógica definitiva de los problemas mencionados, sí que se han hecho aportaciones que pueden ayudarnos a entender el fenómeno científico. Por ejemplo, Black (1979) concluye su revisión sobre el problema de la inducción escribiendo lo siguiente: “ El término ‘inducción’ será usado aquí para designar todos los casos de argumentación no demostrativa, en la que la verdad de las premisas, aunque no entraña la verdad de la conclusión, pretende ser una buena razón para creer en ella”. Glass y Johnson (1989), se refieren al concepto ‘confirmación gradualmente creciente’ y escriben “Si bien nosotros no podemos verificar una teoría universal sobre la base de observaciones singulares, los inductivistas han sugerido que, conforme el número de observaciones favorables crece nuestra confianza en la teoría crecerá también. En otras palabras, en lugar de hablar de la verificación de una teoría podemos hablar de confirmación gradualmente creciente de una teoría”. Se repite ‘no queremos demostrar’ o no se pretende ‘verificar 13 la verdad’ de ninguna teoría todo ello fruto de los problemas en torno al inductivismo. Pero eso no significa renunciar a establecer una graduación de las teorías según el apoyo empírico recibido que pueda permitir, en un momento dado, preferir a una frente a las demás. Aunque Glass y Johnson se limitan a considerar el número de observaciones favorables, eso no excluye la toma en consideración de otras características de la evidencia como, por ejemplo, la variedad y precisión del apoyo empírico, la generación de nuevas hipótesis contrastadoras, el apoyo teórico o la simplicidad, tal como puede verse en el Capítulo 4 de Hempel (1980). Pero, con ser importantes todos estos aspectos, lo más relevante para determinar el grado de apoyo que proporciona una evidencia a una teoría son los criterios formales establecidos dentro del falsacionismo. Hemos comentado, que los falsacionistas se ocuparon especialmente de establecer las condiciones para concluir que una teoría es falsable. Y no sólo esto, sino que machaconamente repiten que cuanto más falsable es una teoría más apoyo recibirá de un contraste favorable. Y su recomendación es clara: la preferencia entre dos teorías que concuerdan con la misma evidencia empírica debe recaer en aquella que es más informativa, más arriesgada, en definitiva, más falsable. Podemos ver cómo los seguidores de la contrarreforma, aún aceptando la mayor parte de las criticas formuladas por los reformistas, han logrado mantener un esquema de comparación de teorías no muy alejado de las esencias del código positivista. Se trata de un esquema de comparación bipolar en el que, por un lado, se valoran los aspectos formales adoptados por las teorías y, por otro, se tiene en cuenta la cantidad, la variedad y la precisión del apoyo empírico recibido. Es lo que Watkins (1982) llama el Ideal Bacon-Descartes que lo formula así: “El ideal es bipolar: tiene la aspiración de lograr una explicación profunda en uno de los polos, y la de lograr la certeza en el otro”. Se hablará de un contraste auténtico, severo que tenga en cuenta esa doble dimensión. No se trata de verificar nada, no hay que fundamentar ni demostrar deductivamente la verdad de ningún enunciado. Se trata de adoptar un enfoque preferencialista en línea con el siguiente párrafo de Radnitzky (1982): “Tan pronto como se reconoce la falibilidad esencial del saber científico y se abandona, por tanto, la pretensión de certeza, la metodología no trata ya de la fundamentación, sino de la preferencia”. Vemos como dentro de la contrarreforma, se perfila un enfoque preferencialista que ha recibido formulaciones diversas que pueden verse en el libro de Radnitzky y Andersson (1982) y en el de Lakatos (1983). Veamos una pequeña muestra de estas formulaciones. Koertge (1982), escribe lo siguiente: “En la ciencia deseamos teorías interesantes y altamente informativas, y estamos dispuestos a sacrificar la certeza con tal 14 de obtenerlas... Los científicos buscan sistemas teóricos tanto interesantes ( es decir, profundos, explicativos, informativos y simples) como verdaderos. Pero en este proceso de su investigación se ven a veces forzados temporalmente a cambiar el interés por la verdad y viceversa”. La formulación de Watkins (1982) gira en torno al Ideal Bacon- Descartes al que, anteriormente, nos hemos referido. A Bacon se le asocia con la certeza y ajuste de las prácticas inductivas y a Descartes con la dimensión de información y profundidad. Y sobre la compatibilidad de estos dos factores dice lo siguiente: “En concreto, la petición de profundidad y certeza caminan en direcciones opuestas. Desde las últimas décadas del siglo XIX ha persistido el tema de la aversión a la profundidad.....El principio de verificación del Círculo de Viena era una versión modernizada y de metanivel de la exigencia de certeza. Y este requisito se acompañó con una especie de horror a la profundidad”. Radnitzky (1982) plantea la contradicción entre los dos polos de la siguiente manera: “Cuanto mejores sean las posibilidades de conocer con certeza la verdad de un enunciado, menos contenido tendrá y, al contrario, cuanto más atrevido se sea al afirmar un enunciado, más difícil será confirmarlo. En pocas palabras, certeza y contenido difícilmente son compatibles”. Terminaremos esta revisión con el que puede considerarse el principal protagonista de la contrarreforma: Lakatos. Este autor desarrolla el enfoque preferencialista en torno al concepto de programa de investigación. Un programa de investigación consta de dos elementos- el núcleo y el cinturón protector- y dos códigos de conducta- la heurística positiva y la heurística negativa. El núcleo está formado por aquellos elementos que realmente caracterizan al programa y que siempre aparecen en cualquier formulación del mismo. El cinturón protector se refiere a todos aquellos elementos que pueden alterarse sin modificar sustancialmente a la esencia del programa. Las heurísticas nos informan de lo que podemos cambiar y lo que no podemos cambiar. Para Lakatos, la actividad de los científicos siempre se desarrolla dentro de un programa de investigación. Mientras este programa sea progresivo, la comunidad de científicos se sentirá satisfecha y no considerará programas alternativos. Pero cuando el programa manifieste síntomas de agotamiento y se convierta en degenerativo, entonces la comunidad de científicos buscará algún recambio que le pueda garantizar el carácter progresivo. Pero ¿cómo se distingue un programa de investigación progresivo de otro degenerativo o seudocientífico? Lakatos contesta: “Todos los programas que admiro tienen una característica en común. Todos predicen hechos nuevos, hechos que han sido bien impensables, o bien han sido contradichos por programas rivales....Lo que realmente importa son predicciones inesperadas, dramáticas y sorprendentes.......Un teoría es aceptable si tiene un contenido 15 informativo adicional corroborado respecto a su rival, esto es, solamente si lleva al descubrimiento de hechos nuevos”. Llegamos así al 2006 entre las propuestas de los reformistas y de los contrarreformistas una vez que la referencia al código positivista no parece tener ninguna utilidad para dar cuenta del fenómeno científico. Tanto unos como otros parecen haber resuelto las incongruencias de tipo lógico que acosaban al código anterior y, además, parecen dar cabida de forma satisfactoria a la evolución seguida por la ciencia a lo largo de su historia. La reforma y la contrarreforma comparten algunos criterios frente al código positivista: protagonismo del elemento convencional, observación condicionada, cambio gradual y acumulativo de los esquemas científicos, etc. Pero también hay diferencias. Las principales afectan al concepto de inconmensurabilidad y a los criterios que se tienen en cuenta a la hora de explicar el cambio científico. Para los reformistas, el cambio es el resultado del efecto de muchos factores entre los cuales los criterios lógicos juegan un papel, a veces no el principal, junto a otros factores. Para la contrarreforma, hay también muchos factores que influyen en el cambio científico pero el protagonismo corresponde a alguna regla lógica del tipo ‘contenido informativo adicional corroborado’ que trata de definir el equilibrio bipolar mencionado anteriormente.

2. LAS PECULIARIDADES DE LA ECONOMÍA

VER MÁS AQUÍ

LA ECONOMÍA DE LO PÚBLICO

Núcleo economía de lo público 

La globalización para los países como el nuestro ha impuesto nuevas reglas en la eficiencia, en la producción y en la asignación de recursos. Así, la búsqueda por hacer compatible el interés individual y el colectivo, el incremento de la competitividad, la satisfacción de las demandas ciudadanas y la posibilidad de ―escogencia social‖, se debate con una economía que debe garantizar las condiciones básicas sociales, de producción y de acumulación de las micro y mezo economías.1 La economía de lo público es una disciplina que se encuentra en un proceso de transición y se refiere, según Fernando Rojas (1996)2 , generalmente a la manera como se priorizan y se satisfacen, con recursos escasos, los bienes y servicios de interés colectivo. Así ante la dicotomía entre lo público y lo privado de la economía, el estado y sus aparatos deben velar por ofrecer marcos regulatorios que garanticen los derechos y deberes entre la sociedad civil, sus intereses particulares y los del colectivo. En el campo de la administración pública, se trata de combinar los recursos institucionales de una sociedad no solamente los del aparato público que se caracterizan por funciones de producción y cambios constantes3 . 

Introducción general 

La historia del pensamiento económico se ha desarrollado de manera dispar a través del tiempo, es decir, ha presentado momentos de estancamientos y momentos de grandes evoluciones, por eso el desarrollo del pensamiento económico no ha ocurrido de manera sistemática y uniforme sino por el contrario lleno de saltos e intermitencias. 
Aunque la economía moderna surge hacia la segunda mitad del siglo XVIII en un momento de grandes revoluciones del pensamiento y con la aparición de personajes importantes como Galiano, Beccaria y Hume entre otros, se puede afirmar que desde el antiguo pensamiento griego se puede rastrear la historia de un pensamiento económico aunque este no tenía las complejidades de una ciencia moderna como la de nuestros tiempos. 

Se puede notar en los griegos la preocupación por la administración del hogar y el nacimiento de algunas ideas que eran absorbidas por otro tipo de ciencias sociales que eran de mayor importancia en su época como la filosofía. 

En la edad media ocurrió algo similar pues la economía estaba enmarcada dentro de la filosofía moral. 

Para la mayoría de autores la economía se empieza a concebir como ciencia a partir de la aparición de la obra ―La riqueza de las naciones‖ de Adam Smith, que no es otra cosa que una compilación de problemas económicos tratados por diversos autores mercantilistas en los dos siglos previos. 
Además buena parte de estos temas habían sido tratados por los antiguos griegos. 
A partir de las últimas décadas del siglo XVIII, con una exposición más formal, se puede entonces reconocer existencia a la ciencia económica con Smith y en especial con Ricardo. 
La primera mitad del siglo XIX dio lugar a la aparición de un numeroso grupo de economistas que alarmados por la pauperización que crecía junto con la industrialización expusieron un pensamiento socialista en los que se destacan Owen, Saint Simon y Fourier entre otros, y más tarde le dio paso a Marx quien revisó en detalle la teoría clásica, aportó la revisión histórica de la formación del capitalismo, las teorías sobre el dinero y de las crisis recurrentes derivadas de la concentración del ingreso. 

Esta parte del siglo XIX vio también surgir tesis económicas que retomaban los aportes de los mercantilistas alrededor de la necesidad de promover la industria y protegerla con regulación comercial, en oposición a las tesis de Smith y Ricardo respecto a la desregulación del comercio internacional, ideas que fueron sintetizadas por List en su ―Sistema de Economía Nacional‖ publicado en 1840. 

La tendencia que defendía el libre mercado recuperó ánimos a partir de la segunda mitad del siglo XIX con los trabajos de una oleada de autores –Jevons, Walras y Pensamiento económico  Marshall- que aplicaron nuevos métodos matemáticos al análisis económico, corriente esta que se conoció como la revolución marginalista y que logró predominar. 

No obstante el predominio de las ideas sobre libre mercado en el comercio internacional, en el siglo XIX los únicos países que abrieron sus mercados fueron aquellos sobre los que Estados Unidos y las nuevas potencias europeas aplicaron su conocida ―diplomacia de las cañoneras‖. 

Esta forma de trato consistía en bombardear los puertos de los países que se negaban a abrir sus mercados pero eran incapaces de defenderse militarmente. 
Incluso la reina de Inglaterra intentó aplicarla a Bolivia, un país que ya en ese momento no tenía costa, pues le fue arrebatada por Chile; cuando la reina Victoria se enteró de este hecho ordenó que Bolivia fuere borrada de los mapas. 

La escuela histórica alemana –con Hildebrand, Roscher, Knies y Schomoller reaccionó en contra del método utilizado por el marginalismo con el argumento de que era excesivamente abstracto y generalizador, que el deductivismo utilizado carecía de la suficiente evidencia empírica, que por eso era prudente postergar la formular leyes hasta cuando se hicieran suficientes estudios históricos mediante la ciencia descriptiva. 

Menger, de la escuela austriaca, terció a favor del método deductivo afirmando que es inútil intentar construir teoría mediante el inductismo pues ni siquiera los historicistas propusieron la forma de hacerlo y que es mediante razonamientos abstractos –deductiva- que se puede comprender y formular teoría económica. 

No obstante los esfuerzos de un grupo de autores norteamericanos como Veblen que volvieron a llamar la atención sobre la importancia de las instituciones y la política económica, sobre la necesidad de un mayor control social y participación gubernamental en la economía, no fue sino hasta la crisis de 1929 que los gobiernos se vieron obligados a intervenir para mejorar la coordinación económica resolviendo el problema de demanda efectiva que había sido advertida por Marx. Kalecki y Keynes fueron los autores que estuvieron atentos a responder a la crisis con una revisión teórica que puso en cuestión la tesis de que los precios en condiciones de libre mercado aportasen mecanismos automáticos para ajustar los mercados. 

A continuación, y en gran medida como producto de haberse demostrado de forma dramática las limitaciones del libre mercado, surgió una nueva tendencia que se conoció como la ―economía del desarrollo‖ –con Prebisch, Kalecki, Kaldor, Rosenstein Rodan, Furtado, Hirschman y Lance, entre otros- cuyas tesis iban más allá de lo expuesto por Keynes. 

Los economistas del desarrollo encontraron en el Estado la alternativa para proveer directamente el financiamiento y subsidio a la inversión, realizar proyectos de infraestructura básica, regular el sector externo y los monopolios, junto a la promoción del progreso técnico, y la redistribución del  ingreso. 

Todo esto era más cercano List y los mercantilistas que a Smith, Ricardo y los marginalistas. Países como Japón, China y los del Sudeste Asiático les dieron la razón a los economistas del desarrollo pues lograron industrializarse con altas tasas de crecimiento e incremento del bienestar con el apoyo del Estado. 

En contraste el desarrollo les ha sido ajeno a los países que han reducido las funciones del Estado, aún aquellos que han aplicado las versiones más recientes del librecambismo.

------
1 Tomado del Programa Curricular de Ciencias Políticas y Administrativas. Escuela Superior de Administración Pública. 1998. 
2 ROJAS, Fernando. Economía Pública Contemporánea. Escuela Superior de Administración Pública. Taller de Publicaciones de la ESAP. 1996. 
3 Ibid.13. 
4 Tomado del Documento de Condiciones Iniciales, Factor No 4 Estructura Curricular. Escuela Superior de Administración Pública. Programa a Distancia. 2004.

LEER MÁS CLIQUEANDO AQUÍ
http://www.esap.edu.co/portal/wp-content/uploads/2017/10/3-Pensamiento-Economico.pdf