ESCRIBA LO QUE DESEA LEER EN ESTE BLOG

lunes, 21 de marzo de 2022

 

E. Roy Weintraub
The Concise Encyclopedia of Economics

Neoclassical Economics

by E. Roy Weintraub
About the Author


Economists publicly disagree with each other so often that they are easy targets for standup comedians. Yet noneconomists may not realize that the disagreements are mostly over the details—the way in which the big picture is to be focused on the small screen. When it comes to broad economic theory, most economists agree. President Richard Nixon, defending deficit spending against the conservative charge that it was "Keynesian," is reported to have replied, "We're all Keynesians now." In fact, what he should have said is "We're all neoclassicals now, even the Keynesians," because what is taught to students, what is mainstream economics today, is neoclassical economics.

By the middle of the nineteenth century, English-speaking economists generally shared a perspective on value theory and distribution theory. The value of a bushel of corn, for example, was thought to depend on the costs involved in producing that bushel. The output or product of an economy was thought to be divided or distributed among the different social groups in accord with the costs borne by those groups in producing the output. This, roughly, was the "Classical Theory" developed by Adam SmithDavid RicardoThomas Robert MalthusJohn Stuart Mill, and Karl Marx.

But there were difficulties in this approach. Chief among them was that prices in the market did not necessarily reflect the "value" so defined, for people were often willing to pay more than an object was "worth." The classical "substance" theories of value, which took value to be a property inherent in an object, gradually gave way to a perspective in which value was associated with the relationship between the object and the person obtaining the object. Several economists in different places at about the same time (the 1870s and 1880s) began to base value on the relationship between costs of production and "subjective elements," later called "supply" and "demand." This came to be known as the Marginal Revolution in economics, and the overarching theory that developed from these ideas came to be called neoclassical economics. (The first to use the term "neoclassical economics" seems to have been the American economist Thorstein Veblen.)

The framework of neoclassical economics is easily summarized. Buyers attempt to maximize their gains from getting goods, and they do this by increasing their purchases of a good until what they gain from an extra unit is just balanced by what they have to give up to obtain it. In this way they maximize "utility"—the satisfaction associated with the consumption of goods and services. Likewise, individuals provide labor to firms that wish to employ them, by balancing the gains from offering the marginal unit of their services (the wage they would receive) with the disutility of labor itself—the loss of leisure. Individuals make choices at the margin. This results in a theory of demand for goods, and supply of productive factors.

Similarly, producers attempt to produce units of a good so that the cost of producing the incremental or marginal unit is just balanced by the revenue it generates. In this way they maximize profits. Firms also hire employees up to the point that the cost of the additional hire is just balanced by the value of output that the additional employee would produce.

The neoclassical vision thus involves economic "agents," be they households or firms, optimizing (doing as well as they can), subject to all relevant constraints. Value is linked to unlimited desires and wants colliding with constraints, or scarcity. The tensions, the decision problems, are worked out in markets. Prices are the signals that tell households and firms whether their conflicting desires can be reconciled.

At some price of cars, for example, I want to buy a new car. At that same price others may also want to buy cars. But manufacturers may not want to produce as many cars as we all want. Our frustration may lead us to "bid up" the price of cars, eliminating some potential buyers and encouraging some marginal producers. As the price changes, the imbalance between buy orders and sell orders is reduced. This is how optimization under constraint and market interdependence lead to an economic equilibrium. This is the neoclassical vision.

Neoclassical economics is what is called a metatheory. That is, it is a set of implicit rules or understandings for constructing satisfactory economic theories. It is a scientific research program that generates economic theories. Its fundamental assumptions are not open to discussion in that they define the shared understandings of those who call themselves neoclassical economists, or economists without any adjective. Those fundamental assumptions include the following:

    1. People have rational preferences among outcomes. 2. Individuals maximize utility and firms maximize profits. 3. People act independently on the basis of full and relevant information.

Theories based on, or guided by, these assumptions are neoclassical theories.

Thus, we can speak of a neoclassical theory of profits, or employment, or growth, or money. We can create neoclassical production relationships between inputs and outputs, or neoclassical theories of marriage and divorce and the spacing of births. Consider layoffs, for example. A theory which assumes that a firm's layoff decisions are based on a balance between the benefits of laying off an additional worker and the costs associated with that action will be a neoclassical theory. A theory that explains the layoff decision by the changing tastes of managers for employees with particular characteristics will not be a neoclassical theory.

What can be contrasted to neoclassical economics? Some have argued that there are several schools of thought in present-day economics. They identify (neo-)Marxian economics(neo-)Austrian economicspost-Keynesian economics, or (neo-)institutional economics as alternative metatheoretical frameworks for constructing economic theories. To be sure, societies and journals promulgate the ideas associated with these perspectives. Some of these schools have had insights that neoclassical economists have learned from; the Austrian insights on entrepreneurship are one example. But to the extent these schools reject the core building blocks of neoclassical economics—as Austrians reject optimization, for example—they are regarded by mainstream neoclassical economists as defenders of lost causes or as kooks, misguided critics, and antiscientific oddballs. The status of non-neoclassical economists in the economics departments in English-speaking universities is similar to that of flat-earthers in geography departments: it is safer to voice such opinions after one has tenure, if at all.

One specific attempt to discredit neoclassical economics developed from British economist Joan Robinson and her colleagues and students at Cambridge in the late fifties and early sixties. The so-called Two Cambridges Capital Controversy was ostensibly about the implications, and limitations, of Paul Samuelson and Robert Solow's aggregating "capital" and treating the aggregate as an input in a production function. However, this controversy really was rooted in a clash of visions about what would constitute an "acceptable" theory of the distribution of income. What became the post-Keynesian position was that the distribution of income was "best" explained by power differences among workers and capitalists, while the neoclassical explanation was developed from a market theory of factor prices. Eventually the controversy was not so much settled as laid aside, as neoclassical economics became mainstream economics.

How did such an orthodoxy come to prevail? In brief, the success of neoclassical economics is connected to the "scientificization" or "mathematization" of economics in the twentieth century. It is important to recognize that a number of the early Marginalists, economists like William Stanley Jevons and F. Y. Edgeworth in England, Leon Walras in Lausanne, and Irving Fisher in the United States, wanted to legitimize economics among the scholarly disciplines. The times were optimistic about a future linked to the successes of technology. Progress would be assured in a society that used the best scientific knowledge. Social goals would be attainable if scientific principles could organize social agendas. Scientific socialism and scientific management were phrases that flowed easily from the pens of social theorists.

Neoclassical economics conceptualized the agents, households and firms, as rational actors. Agents were modeled as optimizers who were led to "better" outcomes. The resulting equilibrium was "best" in the sense that any other allocation of goods and services would leave someone worse off. Thus, the social system in the neoclassical vision was free of unresolvable conflict. The very term "social system" is a measure of the success of neoclassical economics, for the idea of a system, with its interacting components, its variables and parameters and constraints, is the language of mid-nineteenth-century physics. This field of rational mechanics was the model for the neoclassical framework. Agents were like atoms; utility was like energy; utility maximization was like the minimization of potential energy, and so forth. In this way was the rhetoric of successful science linked to the neoclassical theory, and in this way economics became linked to science itself. Whether this linkage was planned by the early Marginalists, or rather was a feature of the public success of science itself, is less important than the implications of that linkage. For once neoclassical economics was associated with scientific economics, to challenge the neoclassical approach was to seem to challenge science and progress and modernity.

The value of neoclassical economics can be assessed in the collection of truths to which we are led by its light. The kinds of truths about incentives—about prices and information, about the interrelatedness of decisions and the unintended consequences of choices—are all well developed in neoclassical theories, as is a self-consciousness about the use of evidence. In planning for future electricity needs in my state, for example, the Public Utilities Commission develops a (neoclassical) demand forecast, joins it to a (neoclassical) cost analysis of generation facilities of various sizes and types (e.g., an 800-megawatt low-sulfur coal plant), and develops a least-cost system growth plan and a (neoclassical) pricing strategy for implementing that plan. Those on all sides of the issues, from industry to municipalities, from electric companies to environmental groups, all speak the same language of demand elasticities and cost minimization, of marginal costs and rates of return. The rules of theory development and assessment are clear in neoclassical economics, and that clarity is taken to be beneficial to the community of economists. The scientificness of neoclassical economics, on this view, is not its weakness but its strength.

About the Author

E. Roy Weintraub is an economics professor at Duke University and associate editor of History of Political Economy.

Further Reading

Becker, Gary. The Economic Approach to Human Behavior. 1976.

Dow, Sheila. Macroeconomic Thought: A Methodological Approach. 1985.

Mirowski, Philip. More Heat Than Light. 1989.

Weintraub, E. Roy. General Equilibrium Analysis: Studies in Appraisal. 1985


Premio Nobel de Economía 2018: Sobre las Contribuciones de Paul Romer

 

Premio Nobel de Economía 2018: Sobre las Contribuciones de Paul Romer

William Nordhaus y Paul Romer fueron galardonados con el Premio Sveriges Riksbanck en Ciencias Económicas 2018 (el cual coloquialmente llamamos Nobel de Economía). En su comunicado, el comité especifica que les fue otorgado para “premiar el diseño de modelos y métodos para estudiar algunas de las mas fundamentales …. preguntas de nuestro tiempo, como el desarrollo de largo plazo de la economía global y el bienestar de sus ciudadanos” (ver acá).

No creo ser el único que se ha sorprendido por que se haya decidido otorgarle el premio a dos académicos que estudiaron temas un tanto inconexos. El comité tiene un argumento basado en la existencia de una “piedra angular” común que es más o menos así: “… las contribuciones de ambos premiados comparten un punto de partida común en el modelo neoclásico de crecimiento por el cual Robert Solow fue premiado con el Nobel de Economía en 1987” (para un detallado análisis, ver acá). Dado el estado actual de la profesión y la academia, tanto el argumento para otorgárselos y esta relación resultan al menos un tanto vago. Pero bueno, veamos que podemos entender de las contribuciones de Paul Romer.

Los que hemos enseñado durante algún tiempo temas vinculados a crecimiento económico, explicamos el nacimiento de la literatura sobre “crecimiento endógeno” mas o menos de la siguiente manera. A fines de los ’80, hubo un explosivo resurgimiento del interés por estudiar con mayor intensidad modelos de crecimiento económico de largo plazo y no ya solo modelos de ciclos económicos de corto plazo. Esto es, si los gobiernos deben intervenir en la economía, los esfuerzos podrían estar no solo orientados a atenuar fluctuaciones de las variables agregadas (consumo, ingreso, etc.) sino también a determinar medidas orientadas a lograr un mayor y sostenido desarrollo económico. Esto último estaba cercanamente vinculado a diseñar e implementar políticas para que, en general, las economías crezcan mas. Es muy difícil no mencionar aquí uno de los párrafos, que a mi entender, ilustra el mencionado entusiasmo (escrito por uno de los economistas mas brillantes de nuestra era):

“Is there some action a government of India could take that would lead the Indian economy to grow like Indonesia’s or Egypt’s? If so, what, exactly? If not, what is it about the ‘nature of India’ makes it so? The consequences for human welfare involved in questions like these are simply staggering. Once one starts to think about them, it is hard to think about anything else.”

R.E. Lucas, Jr, “On the mechanics of economic development” (1988)

Ahora bien, los modelos tradicionales de crecimiento que se utilizaban para estudiar distintas preguntas básicas sobre el tema estaban basados en la pionera contribución de Solow y sus extensiones (Cass-Koopmans, etc.). Así, el modelo neoclásico de crecimiento tiene como uno de sus ingredientes fundamentales a una tecnología de producción con rendimientos a escala constantes. Esto significa que si la economía dobla la cantidad de factores de producción, la cantidad producida se multiplica por dos. Estos modelos estaban diseñados de tal manera que la única fuente de crecimiento económico sostenido de largo plazo era la tasa del aumento de la productividad del factor trabajo (ampliamente definido). De no ser así, los rendimientos decrecientes del capital (nuevamente, ampliamente definido) agotarían en el largo plazo las fuentes del crecimiento endógenas.

En estos modelos, se supone que  la tecnología para transformar factores de producción está representada por una función de producción

Yt = F( K, At L)

donde Yt, K y Lt representan las cantidades en el momento t de producto, de capital y horas de trabajo, respectivamente. La función F(.), que transforma factores de producción en bienes, satisface r Yt = F( r K,  r At L) para cualquier r > 0 (i.e. es homogénea de grado 1 representando los rendimiento constantes a escala). Otro factor crítico es la existencia de rendimiento marginales decrecientes de los factores, en particular del capital, donde su productividad se acerca mas y mas a 0 cuando el stock de capital agregado acumulado en la economía se vuelve mas y mas grande (i.e. FK → 0 cuando K→∞).

El elemento clave para explicar crecimiento de largo plazo es At, que representa el factor tecnológico que transforma horas trabajadas, Lt, en unidades efectivas de trabajo, Et = AtLt. La determinación de A y su evolución en el tiempo es el factor crítico para explicar el crecimiento económico de largo plazo. En este sentido, estos modelos de crecimiento exógeno suponían que, precisamente, At crece exógenamente a la tasa g; esto es, At = (1+g) At-1. Esto lo podemos reinterpretar así: el stock de tecnología que determina la productividad del trabajo utiliza como único input la tecnología pre-existente para producir el stock de tecnología actual. Muy importante para nuestra discusión es que ningún ingrediente en la producción de esta tecnología depende de las decisiones de los agentes económicos en el modelo; es decir, las fuentes del crecimiento son exógenas.

Desde el pionero trabajo de Solow, los modelos de crecimiento exógeno evolucionaron en diferentes dimensiones para explicar el impacto sobre las variables agregadas y su distribución (consumo, ingreso, etc.) de la transición hacia una senda de crecimiento de largo plazo determinado por g. Por lo tanto, no explicaban el crecimiento de largo plazo sino que lo tomaban como dado para estudiar sus implicancias.

Una fracción de la literatura que comenzó a estudiar la determinación endógena de la tasa de crecimiento planteó investigar que factores determinados por decisiones de los agentes económicos (esto es, endógenamente) podían afectar el nivel de At y su evolución.

  1. Romer I: “Increasing Returns and Long-Run Growth” (1986)

El primer trabajo de Romer que causó un impacto importante en la profesión se publicó en 1986 y fue parte de su tesis doctoral en la Universidad de Chicago, donde precisamente Robert Lucas Jr. estaba estudiando temas relacionados. Menciono esto último porque, al menos para mi, la relación entre las estrategias  de Romer y de Lucas para estudiar la determinación de la tasa de crecimiento endógenamente están claramente relacionadas.

Para el propósito de esta breve nota, lo voy a presentar de una manera simplificada. Imaginemos que el parámetro que transforma horas de trabajo en unidades efectivas de trabajo, At, se “construye” con una tecnología como la siguiente:

At = KtHt1-e

donde el nuevo ingrediente Ht denota el stock de capital humano acumulado al momento t, y el parámetro tecnológico e está entre 0 y 1.

El objetivo de Romer era estudiar el proceso de acumulación de conocimiento. Su estrategia inicial (luego estudiada mas rigurosamente en sus trabajos posteriores, como lo veremos a continuación) fue suponer que el stock de conocimiento y su evolución era una consecuencia de la acumulación de capital físico, una suerte de learning-by-doing a la Arrow (1962a) que ya había sido incorporado en el modelos de crecimiento y acumulación por Shell (1973). Un aspecto fundamental de la teoría de Romer era que el stock de capital K relevante para la formulación anterior era la cantidad acumulada a nivel agregado, mientras que las firmas individuales tomaban sus decisiones de inversión tomando dicho valor como dado; esto es, no internalizaban el impacto agregado de sus decisiones individuales de acumulación. El conocimiento en este contexto, por lo tanto, tiene las características de los bienes públicos: 1. No-rivalidad en su utilización; 2. No-exclusión. En el caso que sigue, esto último no será así.

Si en la formulación anterior suponemos que e = 1, a nivel individual las firmas enfrentan rendimientos constantes a escala pero a nivel agregado los rendimientos de equilibrio son crecientes. Esto es, en equilibrio

Yt = F( K, Kt L) = Kt  F( 1 , L),

Esto le permitió a Romer eludir los rendimientos marginales decrecientes del capital a nivel agregado pero manteniendo el análisis con mercados competitivos.

Naturalmente, la presencia de esta externalidad implica que la producción privada es ineficiente, dado que al no internalizar el beneficio marginal extra en el stock de conocimiento, el stock de capital agregado resultante es mas bajo que el óptimo. Esta situación genera un margen para intervenir. Por ejemplo, la asignación eficiente se puede descentralizar a través de subsidios a la acumulación de bienes de capital o a la producción. Estos subsidios funcionan porque elevan la tasa de retorno de la inversión y así eliminan la brecha entre el retorno social y el privado.

Para completar el análisis de esta sección, y por una cuestión de preferencias personales, entiendo que es oportuno entender la diferencia entre el modelo de Romer (1986) y el modelo con capital humano presentado en Lucas (1988). Este último en una versión sin externalidades,[1] se puede reinterpretar poniendo e = 1. En equilibrio tenemos que

Yt = F( K, Ht L) = Ht  F( zt , L)

donde zt = Kt/Ht. En el largo plazo, zt = z*, Lt = L* y la economía crece a la tasa constante a la que crece el stock de capital humano.[2]

En este sentido, Romer (1986) haya difícilmente influido fundamentalmente en como interpretar el motor de crecimiento moderno en la práctica. Sin embargo, fue en alguna medida un punto de partida para analizar modelos con progreso tecnológico endógeno  mas elaborados, como el mencionado de Lucas (que si tuvo un fuerte impacto en lo que respecta a su evaluación empírica) y el que discutiremos a continuación de Romer.

  1. Romer II: Endogenous technological change (1987, 1990)

Inspirado en el trabajo de Arrow (1962b), Romer encaró la cuestión de la generación endógena de crecimiento de largo plazo de una manera alternativa. El argumento central es que el proceso de producción de conocimiento, y así nuevas tecnologías, insume recursos. Los descubrimientos dependen en parte de investigaciones deliberadas (R&D). Ahora bien, el modelo neoclásico en un marco plenamente competitivo implica que los beneficios de producción de equilibrio son 0. Pero esto impediría compensar a los innovadores que han utilizado recursos para desarrollar conocimientos y nuevas tecnologías. En el contexto de esta no convexidad (generada por un costo fijo inicial), una teoría descentralizada del proceso de producción de  tecnologías requería cambios que implican, entre otras cosas, la nada trivial tarea de  incorporar estructura de mercados que impliquen competencia imperfecta.

Como hemos dicho, la teoría que plantea Romer sobre el proceso de creación de conocimiento tiene su origen en el trabajo de Arrow (1962b). El conocimiento presenta ingredientes muy peculiares que lo acercan a un bien público. Por un lado, la utilización por parte de un agente no impide la utilización por parte de otros; esta no-rivalidad en su utilización implica que su costo marginal es cero. Por otro lado, una cuestión delicada es la exclusión en su uso. Sin ninguna intervención ni regulación, puede resultar difícil excluir a alguien de la utilización de una idea. Esta es la tensión tradicional que surge en la provisión privada de un bien con características de bien publico. La exclusión requeriría otorgar ciertos derechos monopólicos con sus consecuentes efectos asignativos negativos. La no exclusión desalentaría la inversión en el proceso de desarrollo de ideas y conocimiento.

Romer (1990) propone estudiar un contexto donde las firmas innovadoras pueden impedir el acceso al uso de la tecnología desarrollada, otorgándoles cierto poder de mercado. En un caso extremo, estos mantienen un poder monopólico sobre el uso de idea desarrollada, y en un caso mas extremo aun ese poder monopólico es para siempre. Esto permite remunerar su actividad creativa previa al proceso de producción, al costo social de cobrar un precio ineficientemente alto por encima del costo marginal.

La idea básica del modelo de Romer es que se crean endógenamente variedades de productos de la siguiente manera (en una versión aquí simplifica): la tecnología para producir bienes finales de consumo es

Yt = (Lt)a ∑i=1N (xi,t)1-a = (Lt)a N x*

donde xi,t es la cantidad de bien intermedio de producción i utilizada en el periodo t y 0 < a <1. Supondremos un contexto simétrico en el cual el precio fijado por un monopolista que produce el bien intermedio i, pi,t, resulta en una elección optima xi,t = x*. N aquí denota la cantidad de variedades, una variable crucial en el funcionamiento del modelo.

Como se determina su evolución? Por un lado, al haber libre acceso al sector de producción de ideas pagando un costo fijo, la tasa de interés de equilibrio es la que iguala los beneficios monopólicos descontados al costo de crear una nueva variedad/tecnología. Esta tasa determina el flujo de ahorro de los consumidores, los cuales se canalizan a financiar nuevos proyectos de inversión en desarrollo de nuevas ideas. De esta manera se determina la tasa de crecimiento de largo plazo endógenamente.

El modelo tiene predicciones testeables sobre qué factores afectan tanto al proceso de producción de nuevas tecnologías como al proceso de crecimiento en el largo plazo. De hecho, Romer (1990) en particular y la literatura con este enfoque sobre la generación de progreso tecnológico endógeno vía innovación en general (Grossman y Helpman, 1991), han tenido un impacto importante en la determinación de políticas orientadas a alentar el crecimiento. Por ejemplo, el hecho que la provisión privada de conocimiento sea ineficiente, generó un intenso debate sobre el diseño óptimo tanto de patentes como también de subsidios a R&D que permitan a los innovadores capturar ciertas rentas de sus invenciones pero teniendo en cuenta las distorsiones mencionadas.[3] El impacto de esta literatura ha ido mucho mas allá de hecho: modelos con estas características se han usado para entender mejor las consecuencias del comercio internacional, la relación entre la innovación y el desempleo, o las dinámicas de creación y destrucción de empresas, etc. Indudablemente las contribuciones de Romer cumplieron un rol fundamental en esta literatura.

 

 

 

Referencias

 

ARROW, K. J. (1962a). “The economic implications of learning by doing”, Review of Economic Studies, vol. 29.

 

ARROW, K. J. (1962b). “Economic Welfare and the Allocation of Resources for Invention”, in The Rate and Direction of Inventive Activity: Economic and Social Factors, Princeton University Press.

 

BOLDRIN, M. & LEVINE, D. K., 2008. «Perfectly competitive innovation,» Journal of Monetary Economics, Elsevier, vol. 55(3).

 

GROSSMAN, G. M. and HELPMAN, E. (1991). Innovation and Growth in the Global Economy, Cambridge University Press.

 

LUCAS, R. E. Jr (1988). “On the mechanics of economic development”, Journal of Monetary Economics, vol. 22.

 

ROMER, E M. (1986). “Increasing returns and long run growth”, Journal of Political Economy, vol. 94.

 

ROMER, E M. (1987). “Growth Based on Increasing Returns Due to Specialization”, American Economic Review, Papers and Proceedings, 77(2), 56-62.

 

ROMER, P. M. (1990). “Endogenous technical change”, Journal of Political Economy, vol. 98.

SHELL, K. (1967), “A Model of Inventive Activity and Capital Accumula- tion” in K. Shell (ed.), Essays on the Theory of Optimal Economic Growth, Cambridge, Mass.: MIT Press, 67-85.

ROBERT M. SOLOW (1956). “A Contribution to the Theory of Economic Growth”, The Quarterly Journal of Economics, Vol. 70.

VER AQUÍ

Decálogo de un economista escéptico

 

Decálogo de un economista escéptico

271005_escepticismo@agaviriau

“Un escéptico, alguien que haría mejor las cosas si solo supiera cómo hacerlas.”

– Michael Oakeshott

Uno. La mezquindad humana es inmodificable; la convivencia entre egoísmos, problemática. De allí las dificultades del cambio social. De allí también la necesidad de una resignación compasiva (o de una compasión resignada) a la hora de juzgar muchas empresas humanas.

Dos. Los ideólogos de izquierda desconocen el progreso social; los de derecha, el avance moral. Unos y otros son inmunes a los datos. Pero vale la pena enseñárselos de vez en cuando (con alardes positivistas, por supuesto), así solo sea con el motivo perverso de hacerlos rabiar.

Tres. Los gobiernos no siempre controlan las principales variables económicas. “Los políticos están a cargo de una economía moderna –dice el economista Paul Seabright– del mismo modo en que un marinero está a cargo de un pequeño navío en una gran tormenta: su influencia sobre el curso de los hechos es poca en comparación con la influencia de la tormenta que los rodea. Nosotros, sus pasajeros, fincamos todas nuestras esperanzas y temores en ellos, y expresamos una profunda gratitud si llegamos a buen puerto, pero solo porque no tiene sentido agradecerle a la tormenta”.

Cuatro. La economía depende de las decisiones diarias de millones de personas. Los economistas podemos medir con exactitud los resultados de las decisiones descentralizadas (la desigualdad, el desempleo, etc.) y podemos también estudiar sus determinantes con pretensiones científicas, pero no podemos modificarlos a nuestro antojo. Algunas metas de los planes de desarrollo presuponen erróneamente que el gobierno controla la economía del mismo modo en que un jefe de planta controla la producción de una fábrica.

Cinco. La regeneración social no depende del Estado.

Seis. El cambio social no depende de la buena voluntad de unos cuantos héroes altruistas o misioneros sociales: Bono, Yunus, Sachs y similares.

Siete. Las «musculosas capacidades de la política» son una ilusión.

Ocho. Muchas tendencias sociales son irreversibles. La familia está desapareciendo lentamente, con consecuencias inquietantes. Pero no hay mucho que podamos hacer al respecto más allá de identificar las causas del problema.

Nueve. Las capacidades estatales se construyen gradualmente, poco a poco. Entre el “comuníquese” y el “cúmplase” pueden pasar años.

Diez. Las constituciones modernas prometen en general más de lo que pueden cumplir. La institucionalización de la demagogia caracteriza a muchas democracias occidentales.

(Publicado previamente en El Malpensante, no. 125, noviembre de 2011)

VER AQUÍ