ESCRIBA LO QUE DESEA LEER EN ESTE BLOG

miércoles, 17 de abril de 2013

A Propósito del Premio Nobel de Economía a Lloyd Shapley

Lloyd Shapley
Este 15 de octubre, del año pasado, el Banco Central de Suecia otorgó el “Premio Nobel de Economía” a Lloyd Shapley y Alvin Roth.

Shapley es un matemático pionero de la teoría de juegos y Roth es un economista que amplió y aplicó las teorías del primero.
Me parece que ambos investigadores no son ampliamente conocidos en las ramas que actualmente tienen mayor desarrollo dentro de la economía, pero si en algunos temas relacionados con la teoría de juegos y la intervención del Estado en la regulación o diseño de algunos mercados. En este post comentaremos brevemente algunos de los aportes de Shapley pues, debo reconocer que salvo un paper de Roth y Verrecchiasobre reparto de costos comunes en base al Valor de Shapley, no he leído los aportes más aplicados de Roth. De acuerdo a las referencias estos aportes se asocian con el rediseño de instituciones para un mejor funcionamiento, entre las que destacarían sistemas para que los nuevos médicos pudieran ser combinados los antiguos en los hospitales de forma más eficiente o el reparto de profesores con diferente rendimiento en diferentes aulas.
Shapley nació en 1923 en Cambridge, USA. Estudió en Princeton (donde hizo su tesis doctoral en matemáticas con el profesor Tucker) y trabajó en la Rand Corporation en la década del cuarenta y cincuenta, siendo durante muchos años profesor de la Universidad de California Los Angeles (UCLA) hasta su retiro. En sus inicios fue uno de los principales investigadores en teoría de juegos, habiendo escrito un paper  sobre el juego de poker con John Nash, premio Nobel de economía en 1994 y famoso por la película y libro “Una Mente Brillante”. Es más, Lloyd Shapley sería uno de los amigos que apoyó a Nash para volver a enseñar luego de sus crisis de esquizofrenia.
El principal aporte de Shapley consistió en el famoso “Teorema del Valor de Shapley” (1953)1, el cual se encuentra dentro de la tradición de las primeras aplicaciones de la teoría de juegos en el marco de la teoría de Von Newman y Morgenstern, donde el enfoque era más bien buscar soluciones que cumplan con ciertos axiomas deseables para problemas donde hay varios agentes con diferentes intereses y aportes pero que pueden crear más valor cooperando entre ellos. Este enfoque alcanza incluso a las demostraciones del equilibrio general competitivo o al famoso  teorema de imposibilidad de Kenneth Arrow. En el caso de Shapley, lo que se buscaba era “repartir” el valor que aportaba un agente a las diferentes coalisiones posibles de un juego cooperativo. Este esquema era particularmente importante como criterio normativo en los juegos que no tuvieran “núcleo” (es decir asignaciones no dominadas por otras para todos los agentes).
Shapley sugirió que se tomara una única imputación o asignación como preferible a las demás si cumplía con una serie de criterios deseables. Él demostró que existe una única imputación que cumple los siguientes criterios:
1)                 Que no dependa de las denominaciones
2)                 Que sea eficiente para el conjunto, es decir que reparta todo el valor generado por la coalisión
3)                 Que otorgue xi = 0 si “i” es inútil
4)                 Que un par de elecciones óptimas unidas den otra elección óptima
El teorema al que llegó es que la única función que cumplía con estos criterios era:
La idea era otorgar una suerte de suma ponderada de las posibles contribuciones del jugador i a las coaliciones de las que podría formar parte.
La interpretación de  sería la siguiente:
Donde:
PA = Probabilidad que el individuo i se ubique en un lugar s cualquiera para todas las posibles coaliciones que se puedan formar con s miembros.
PB = Probabilidad de que se forme una coalición de s-1 miembros sin el individuo i. Es decir, con un número máximo de n-1 miembros.
A modo de ejemplo, se puede tomar un caso típico de problema de reparto conocido como el problema del “Uso de la Tierra” 3, donde se tienen tres jugadores, un agricultor dueño de un terreno, un industrial y un urbanizador, tal que la función de valor del juego está caracterizada de la siguiente forma:
En este caso se puede calcular las asignaciones que corresponden al “núcleo” del juego, que tienen que cumplir con las condiciones de racionalidad grupal e individual:
Estas son diferentes a las imputaciones según la función de Shapley que serían las siguientes:
Análogamente se obtiene que:
Las aplicaciones de esta propuesta han sido diversas, como comentamos justamente le dieron el Nobel a Roth por este tipo de aportes. En mi caso particular, he llegado a ver algunos papers y tesis sobre el uso de este concepto para repartir costos comunes, en particular el costo de la transmisión de electricidad que no se puede recuperar con el pago en base al modelo marginalista. En este caso, la propuesta consiste en analizar “el uso” de cada usuario de las  líneas de transmisión. Sin embargo, en este caso la propuesta compite con otras como la aplicación de “precios Ramsey” (aumentar los costos de los nodos en proporción inversa a la elasticidad de la demanda), criterios más ingenieriles y el reparto en base a beneficios.
Como se puede ver, la teoría de juegos cooperativos ahora no está dentro de las principales ramas de investigación de la economía pero ayudó en su momento a entender mejor muchos tipos de problemas. En particular, su auge se dio durante la guerra fría y los períodos donde el comercio internacional se analizaba en un sentido más restringido. Shapley es pues un heredero de este período y el enfoque de Von Newman, una de cuyas principales preocupaciones era encontrar analizar las condiciones de estabilidad y ausencia de conflicto luego de la segunda guerra mundial. Algo que uno siempre se pregunta cuando entregan los Nobel es sobre los otros investigadores que han estado muy cerca de los aportes, en este caso el que se habría quedado sería el profesor Martin Shubik, conocido por sus aportes en aplicaciones de la teoría de juegos a la economía política y la teoría del oligopolio.
Adjunto un link de una presentación que hiciera hace ya algunos años sobre este tema para los que quieran revisar algunos detalles de la notación y otros ejemplos (esta presentación está en deuda con Ramón García – Cobián quien en un curso de investigación de operaciones en la PUCP nos enseño a un grupo pequeño de alumnos los avances en juegos cooperativos):
Referencias
1 Alvin E. Roth y Robert E. Verrecchia (1979) The Shapley Value As Applied to Cost Allocation: A Reinterpretation: Journal of Accounting Research, Vol. 17, No. 1 (Spring, 1979), pp. 295-303
Shapley, Lloyd (1953) A Value for n-person Games [1953], en Contributions to the Theory of Games volumen II, H.W. Kuhn y A.W. Tucker (eds.).
Más detalles de este tipo de modelos se pueden ver en:
- Owen, Guillermo (1968) “Game Theory” New York: Academic Press.
- Mass-Collel A., M. D. Whinston and J. R. Green (1995) “Microeconomic Theory” Oxford University Press (Anexo A del capítulo 18).
4 Una de las primeras tesis en este campo fue:
-  Contreras, Javier (1997) A Cooperative Game Theory Approach to Transmission Planning in Power Systems. Tesis doctoral en Ingeniería Eléctrica y Ciencias de la Computación. Universidad de California en Berkeley.

Ver

Ronald Coase, fundador del Análisis Económico del Derecho y de la “Nueva Economía Institucional”


El 29 de diciembre -de hace dos años- cumplió 100 años de vida el famoso economista Ronald Coase. 
 Ronald Coase es considerado el fundador del Análisis Económico del Derecho y de la “Nueva Economía Institucional”, habiendo recibido el premio Nobel de Economía en 1991. 
Algunas personas les sonará familiar este nombre por diversos motivos, uno de los cuales es el reconocimiento explícito que suele hacer Hernando de Soto a su influencia e incluso el comentario que hizo Coase del libro de De Soto “El Misterio del Capital”. 

Sin embargo, los aportes de Coase a la teoría económica y, más en general al análisis de las instituciones y organizaciones, es múltiple y va más allá de algunas ideas divulgadas hasta el cansancio por algunos de sus discípulos.

Ronald Harry Coase nació en Willensden Reino Unido. Es hijo de dos empleados de correos. Estudió en la London School of Economics donde se graduó en 1932 y empezó a trabajar como profesor en la Dundee School of Economics and Commerce (1932-1934), en la Universidad de Liverpool (1934 -1935) y en la London School of Economics (1935-1939 y 1946-1951). Emigró a Estados Unidos, trabajando en la Universidad de Buffalo (en el Center for Advanced Studies in the Behavioral Sciences), en la Universidad de Virginia y a partir de 1964 en la Universidad de Chicago en la escuela de leyes. Fue editor de la revista “Law and Economics” de 1964 a 1982.

El primer artículo famoso de Coase fue el denominado “The Nature of the Firm” (“La Naturaleza de la Empresa”), escrito en 1937 para la revista Economica. En este examina de una forma documentada y original las diferentes teorías que pretendían explicar el origen de la empresa, demostrando que todas fallaban en ese propósito puesto que les faltaba considerar las formas alternativas en las cuales se podían organizar las actividades económicas. Así, las explicaciones de la generación de economías de escala, de ganancias por la especialización (propuesta por Adam Smith y desarrollada por Maurice Dobb), la del manejo de riesgos de Frank Knight y otras eran insuficientes para explicar de forma lógica porqué surgían las empresas, cómo se explicaban sus límites (porqué no hay una sola gran empresa) y que sucede en su interior. Lo que les faltaba a estas teorías era considerar que existen costos de organizar de forma interna las actividades pero que también existen costos de usar el mercado, a lo que denominó “costos de transacción”. Estos costos incluyen desde el tiempo necesario para identificar el producto que se va a comprar, incluyendo la calidad, hasta el costo de hacer respetar los contratos y protegerse del oportunismo. Este costo se incrementa cuanto más específicas son las transacciones..

Entre los discípulos de Coase destacan Oliver E. Williamson, premio nobel de economía en el año 2009, quien ha desarrollado el cuerpo teórico de la teoría de los costos de transacción y ha mostrado su poder de análisis desde temas de organización industrial hasta el funcionamiento del mercado laboral, tal como lo muestra su espléndido libro “Las Instituciones Económicas del Capitalismo” de 1985. Sin embargo, algunas explicaciones dadas por Williamson a casos emblemáticos como la fusión entre General Motors y la empresa que le proveía carrocerías (Fisher Body) han sido bastantes diferentes y ha dado origen a uno de los últimos artículos académicos escritos por Coase en el año 2000 ( “The Acquisition of Fisher Body” by General Motors, publicado en el Journal of Law and Economics) donde argumenta que la fusión más que a problemas de oportunismo de los hermanos Fisher se debió a problemas de coordinación intrínsecos a estas transacciones.

Estas ideas y otras fueron desarrolladas con mayor detalle en su artículo de 1960 en el Journal of Law and Economics llamado “El Problema del Costo Social” (The Problem of Social Cost), considerado el artículo más citado en la literatura económica donde argumenta que cualquier sistema de asignación de precios tiene un costo y que es posible hacer un análisis económico de las reglas, las formas de organización y los métodos de pago.

El aporte más conocido de Coase, y más bien puntual dentro de su teoría, es el famoso “Teorema de Coase”, llamado así por su amigo George Stigler de la Universidad de Chicago. Este “teorema”(nunca fue formulado de forma analítica), se inserta dentro de la discusión de un fenómeno denominado en economía como “externalidades”, las cuales consisten en efectos de las actividades económicas no considerados en el sistema de precios sobre otros agentes, siendo el caso típico es de la contaminación ambiental. Una primera propuesta a estos problemas fue dada por el profesor Pigou quien proponía justificar la intervención del Estado mediante la imposición a quien contamina. Coase critica este argumento por varias razones. La primera es que la recaudación del impuesto difícilmente va a ir a los perjudicados. Segundo, si se ponen impuestos con este motivo también tendrían que establecerse subvenciones Tercero, es necesario identificar bien la magnitud del impuesto porque con un impuesto sobre una externalidad negativa ésta disminuirá. Pero no siempre es deseable eliminar toda la externalidad, porque es posible que lo que se gane con ello sea menos de lo que se pierde con la eliminación de la actividad productora de externalidades. Ante ello plantea una situación hipotética de dos agentes, (A y B), donde A causa una externalidad al agente B y es responsabilizado por estos daños (porque así lo establecen los tribunales). A puede compensar a B de tal manera que lo que pierda B por seguir llevándose a cabo la actividad (ya sea de producción o de consumo) generadora de la externalidad (o debido a los gastos por protegerse de la misma), sean menores que lo que gana como consecuencia de la compensación o indemnización por parte de A; mientras que el pago que realiza A deberá ser inferior a la pérdida que podría tener si tuviera que cesar su actividad o trasladarse a otro lugar para efectuarla. Es decir, en ausencia de costos de transacción y con derechos de propiedad bien definidos (más debía decirse como indican algunos “derechos de apropiación”) es posible que por medio de la negociación los agentes lleguen a una solución de la externalidad que reduzca el costo social y revele mejor sus preferencias. Esta “solución” dio origen a una serie de críticas y análisis, incluyendo las realizadas por Samuelson, las cuales sería largo discutir en este breve artículo.

Coase siempre estuvo interesado también en los servicios públicos, quizá por el trabajo de sus padres, habiendo realizado artículos sobre fijación de precios en el caso de correos, los faros y las emisoras públicas de radio, siendo destacada su crítica a la fijación de precios basada en los costos marginales para los servicios públicos. Como se recordará en los años treinta surgieron una serie de discusiones sobre cómo fijar precios a los servicios públicos donde había importantes economías de escala y ámbito y operadores que tenían características de monopolio natural (es decir donde era eficiente que exista un solo operador). --

En su artículo “The Marginal Cost Controversy” de 1946, publicado en la revista Economica, argumenta que cobrar sólo el costo marginal (que la teoría estándar indica como la primera opción para maximizar el bienestar), haría necesario que los costos no cubiertos por el monopolista (se sabe que en estos casos el costo medio es mayor que el marginal), tendrían que ser cubiertos con ingresos de impuestos u otra fuente de financiamiento lo cual tiene un costo de oportunidad de uso de los fondos públicos. Ello podría hacer que se terminen financiando proyectos que no son rentables socialmente debido a que no se cobra en el sistema de precios todos los costos del proyecto. Ante ello planteó un esquema de tarifas en dos partes, cobrar el costo marginal por el consumo de cada unidad y cobrar un cargo fijo que se destine a financiar los costos fijos no cubiertos. Como se demostró posteriormente este sistema era óptimo y aseguraba la rentabilidad social de los proyectos siempre que los consumidores fueran homógeneos. En este caso, la mejor forma de asegurarse si valía la pena o no realizar la obra era ver si los consumidores estaban dispuestos a pagar el cargo fijo, es decir que el bienestar generado sea mayor que el costo no cubierto cobrando el costo marginal.

Ronald Coase también tuvo gran influencia en la reforma del sistema de reparto de licencias del espectro electromagnético para la radio, gracias a su artículo The Federal Communications Commission (1959) donde criticaba el mecanismo de concesión de licencias, proponiendo que los derechos de propiedad eran un método de asignar el espectro a los usuarios.

Otra de sus contribuciones importante es la “Conjetura de Coase”, plasmado en su artículo Durability and Monopoly” publicado en 1972 en el Journal of Law and Economics, donde argumenta de manera más bien informal sobre los monopolistas de productos perecederos. Indica que estos no tienen mayor poder de mercado porque son incapaces hacer creíbles sus compromisos de no bajar los precios en periodos futuros.

Revisando los artículos de Coase uno puede notar que no usa ecuaciones en sus argumentos (pero sí algunos gráficos muy novedosos para su época como los de su artículo “Monopoly Pricing with Interrelated Costs and Demands” en la revista Economica de 1946), lo cual ya no es usual en economía en la actualidad, y que nos hace recordar que lo más importante después de todo son las ideas claras y bien argumentadas, así como la profundidad de la visión de cada tema.

Un link al Ronald Coase Institute 

La lectura de Coase cuando le dieron el Premio Nobel en 1991

 FUENTE

TEORIA DE LA AGENCIA O DE LA FIRMA


Una revisión y ampliación del contenido del texto del Dr. José Pérez Montenegro

La necesidad de entender el ¿porqué existen las firmas o agencias?, ¿qué determina su ámbito de acción?, y ¿cuáles son los procesos para la toma de decisiones por parte de los administradores de las empresas?, ha sido la base para el desarrollo de la Teoría de la Agencia como una de las Teoríasfundamentales de las Finanzas. En 1936, Ronald Coase trataba de responder ¿Por qué existen las firmas? De acuerdo a Coase, la firma existe por su habilidad para economizar en ciertos costos del uso del mercado y, por lo tanto, la organización de determinada actividad económica se realizará dentro de una firma, si los costos de coordinar la producción dentro de ella son menores que los costos en que se tendría que incurrir si se compra el insumo a través del mercado[1]Así, cuando un empresario decide establecer una firma lo hace porque estima que la producción interna de un bien oservicio puede ser más eficiente que la obtención de éstos a través del mercado. Un razonamiento similar surge cuando un empresario decide expandir o aminorar la integración vertical de su empresa, o entrar en una nueva línea de negocio[2]
Varias teorías de la firma, han surgido a partir del trabajo de Coase. El trabajo de Tarzijan[3](2003) revisa la mayoría de estas teorías, muchas de las que corresponden a líneas de pensamiento, generalmente complementarias, que se van integrando unas con otras, dándole forma y contexto a este fenómeno tan complejo y cambiante, como es la Firma o Agencia, cuyos pilares fundamentales de acuerdo a la Teoría de Coase son: los costos decoordinación de organizar las actividades dentro de la firma y los costos de transacción de pasar por el mercado. El significativo aporte de Coase consiste en su proposición básica acerca de la importancia de los costos de coordinación y transacción y esto, más de 60 años después de su contribución original, se mantiene plenamente vigente. Desde esta perspectiva, no habría teorías diversas, sino más bien una teoría para un fenómeno complejo.
De acuerdo con la economía neoclásica tradicional, los agentes interactúan entre sí a través de los mercados. Este enfoque recurre a algunaspresunciones básicas, tales como las de la posibilidad de una previsión y de un conocimiento perfecto. Durante los años sesenta hizo su aparición una rama de la microeconomía, la Teoría de la Firma, bajo el liderazgo de Bearle, Means (1970), basada en la teoría de Ronald Coase de 1936. El tema central de esta nueva teoría fue el estudio de las razones que explican la existencia de firmas con personal y autoridades propias. Con la Teoría de la Firma se desarrolló un nuevo cuerpo de conocimientos, que fue denominado Nueva Economía Institucional (New Institutional Economics –NIE- ), cuya característica central que la distingue de la economía neoclásica es la que se refiere a la incertidumbre económica, que se opone a las presunciones de previsión y de conocimientos perfectos.
Sin embargo, la NIE, presenta tres enfoques que compiten entre sí:
En este aporte se revisa la Teoría de la Firma desde la perspectiva de la Academia, a manera de introducir actualizaciones al trabajo realizado por el Doctor José Pérez Montenegro, sobre este importante tema. Está dedicado a profesionales y estudiantes de la especialidad en Finanzas Corporativas, ya que la Teoría de la Firma conforma una parte estructural de Teoría de las Finanzas, que tuvo su origen en 1936 con el trabajo de Ronald Coase. Elanálisis de este tema a través de investigaciones posteriores, de las cuales han hecho merito las de James Alexander Mirrlees, lo que le hizo acreedor al Premio Nobel de Economía en 1996, y las de George Akerlof, Michael Spence, y Joseph Stiglitz, para que también se hayan hecho acreedores al Premio Nobel de Economía en 2002, por su contribución para analizar las fallas del mercado, los mecanismos de precios en los mercados agrícolas, financieros y de trabajo, son muestra de la importancia y validez que ha tomado la Teoría de la Firma y dentro de ella la asimetría de la información en los mercados.

Partes: 123

Nova Tellvs ya está disponible en el portal



La revista Nova Tellvs editada por el Instituto de Investigaciones Filológicas ya está disponible dentro del Portal de Revistas Científicas y Arbitradas de la UNAM.


La 4a. Conferencia Internacional PKP sobre publicación académica de acceso abierto se realizará en la ciudad de México del 19 al 21 de agosto de 2013, bajo los auspicios del Public Knowledge Project (PKP) y la Universidad Nacional Autónoma de México (UNAM). El sistema Latindex ha sido uno de los promotores clave para la realización de esta conferencia y participa activamente en la organización de la misma. Esta será la primera vez que la Conferencia de PKP se celebre en América Latina, una región que publica casi exclusivamente en acceso abierto. La Conferencia ofrecerá una oportunidad única para el intercambio de enfoques innovadores en torno a la publicación académica de acceso abierto. Se espera la asistencia de editores, bibliotecarios, investigadores, desarrolladores, agregadores, así como de la amplia comunidad de usuarios de PKP alrededor del mundo. Los temas eje de la conferencia serán los siguientes: · Políticas, iniciativas o proyectos de publicación académica de acceso abierto a nivel institucional, nacional y regional · Modelos de sustentabilidad y publicación alternativa de acceso abierto · Calidad, impacto y visibilidad de las publicaciones en acceso abierto · La educación superior y el movimiento de acceso abierto · Interoperabilidad y sistemas de información inteligentes (web semántica, minería de datos, big data) · Nuevas tecnologías para la lectura y la publicación Entre los conferencistas confirmados se encuentran: Lars Björnshauge (DOAJ), Heather Joseph (SPARC), Emir Suaiden (IBICT, Brazil), Imanol Ordorika (UNAM, México), Dominique Babini (CLACSO, Latino América), Hebe Vessuri (IVIC, Venezuela), Jean-Claude Guédon (Universidad de Montreal, Canadá), Elea Gimenez (CSIC, España), David Solomon (Universidad del Estado de Michigan, USA), Ana María Cetto (UNAM y Latindex, México), John Willinsky (Universidad de Stanford y PKP, USA y Canadá), Caroline Sutton (OASPA, Países Bajos) y Henning Jensen (UCR, Costa Rica). Las propuestas (con un máximo de 500 palabras) deberán ser enviadas antes del 15 de abril de 2013, siguiendo las normas de presentación y el formulario disponible en nuestro sitio web. Todas las propuestas serán sometidas a revisión (peer-review) y se informará sobre la decisión de su aceptación el 1 de junio de 2013. También le informamos que ofrecemos un descuento de inscripción (early bird) que se mantendrá disponible hasta el 31 de mayo del 2013. Para mayor información, incluidos la convocatoria (Call for Papers) y el formulario de registro, consulte el sitio web de la conferencia: http://pkp.sfu.ca/pkp2013. Atte: Comité Organizador


La revista Boletín SUAyED editada por la Coordinación de la Universidad Abierta y Educación a Distancia (CUAED) ya está disponible dentro del portal.


Tlalocan, una revista especializada en la documentación de fuentes y textos de tradición oral en lenguas indígenas de México, ya está disponible en el portal.


Les informamos que la revista Estudios de Cultura Maya ingresó al índice Scielo el día 6 de diciembre de 2011. Por lo que les invitamos a consultarla en la siguiente URL: www.scielo.org/php/index.php


3er. Encuentro Internacional de Pintura Mural (creación, investigación y restauración) “Muros frente Muros” Martes 22 de noviembre de 2011, a las 9:30 horas Teatro Cervantes, Guanajuato Informes e inscripciones: LDI Verónica Rosas Morales Instituto Estatal de la Cultura de Guanajuato Guanajuato, Gto. Tel. 01473-7327193 y 01473- 7327193 verox_rosas@hotmail.com Lic. Blanca R. López O. Instituto de Investigaciones Estéticas, UNAM México, DF Tel. 5622-7547 ext. 247 y 5665-2465 ext. 247 movimientomuralistamexicano_unam@yahoo.com.mx


Ya está disponible en el Portal de Revistas de la UNAM la revista Medievalia, del Instituto de Investigaciones Filológicas.


Ya está disponible en el Portal de Revistas de la UNAM la revista Estudios de Cultura Maya.

Concepto De Ingeniería Del Valor

1. Introducción

 En un reciente seminario se trato el término de "Ingeniería devaluada". Basado sobre el contexto de la discusión, no había mal entendidos. El expositor había cambiado "del" por el prefijo "de", pero además quería convertir su frustración con un proceso que no siempre es bien entendido. Conforme la conversación continuo, era claro que el expositor era el diseñador de un proyecto que había recientemente sido evaluado a través de la ingeniería del valor y componentes de el diseño habían sido removidos o sustituidos con algunos menos caros, y presumiblemente de pobre calidad. Desafortunadamente muchos profesionistas comparten la opinión de que ingeniería del valor no es nada mas que un ejercicio de corte de costos que solo intenta reemplazar componentes con lo más barato posible o sustituir y eliminar cualquier parte del diseño que no es claramente entendido.

El método del valor fue desarrollado durante la Segunda Guerra Mundial por Larry Miles como una forma efectiva de encontrar un adecuado reemplazo de componentes que podrían ser usados para manufacturar utensilios comerciales. Durante la guerra, las partes y los materiales que no eran dedicados al "esfuerzo de la guerra" no era la prioridad de nadie, excepto quizá para las mujeres trabajadoras que tenían dinero y necesitaban simplificar sus tareas del hogar. General Electric fue determinante en tomar ventaja en el mercado y Larry Miles hizo que el programa triunfara. La solución de Larry al problema fue crear un equipo con un rango diferente de perspectivas y experiencia, y pregunto cinco cosas enfocadas sobre el problema. ¿Cuales son las partes del problema? ¿Qué hacen? ¿Cuánto cuestan? ¿Que más haría el trabajo? y ¿Cuánto costaría? Sus equipos triunfaron más allá de la imaginación y el grupo de General Electric Appliances se convirtió en ejemplo de calidad, producción, calidad y beneficio en ese tipo de corporación. El proceso fue tan efectivo que General Electric considero el método de Larry como un secreto corporativo.

Todos los secretos son eventualmente revelados y el método del valor de Larry no fue la excepción. Con el paso de los años, el proceso ha sido refinado y codificado en lo que llamamos Ingeniería del valor, Planeación del valor, Análisis del valor, administración del valor, etc. El fundamento del concepto, sin embargo de estudiar un problema enfocados en sus funciones ("¿Qué hace?") ha permanecido intacto.

2.- Concepto De Ingeniería Del Valor

La Ingeniería del Valor (Value Engineering) es una metodología para resolver problemas y/o reducir costos, al mismo tiempo que mejora los requerimientos de desempeño/calidad. Puede aplicarse a cualquier negocio o sector económico, incluyendo la industria, el gobierno, la construcción y los servicios.

La Ingeniería del Valor, el Análisis de la Función (Function Analysis), Análisis del Valor (Value Analysis) y la Administración del Valor (Value Management) son parte de las denominaciones de los procesos genéricamente conocidos como Metodología del Valor (Value Methodology).

En términos generales, esos procesos consisten de una aplicación profesional y un enfoque ordenado de trabajo en equipo que se orienta al análisis de la función de costos para mejorar el valor del producto y facilitar el diseño, sistema o servicio. Su utilización es considerada como una estrategia de negocios muy exitosa a largo plazo. Para mejorar dicha característica de valor, la Metodología del Valor persigue el incremento de la satisfacción del cliente o usuario así como agregar valor a su inversión. Aunque la mayoría de las fuentes consultadas admite como sinónimos de Ingeniería del Valor a los otros procesos anteriormente citados, Análisis de la Función, Análisis del Valor y la Administración del Valor, en la Universidad de Leeds se reconocen algunas diferencias en lo que a sus aplicaciones en la industria de la construcción se refiere. Así, a la Administración del Valor se le relaciona con el término que describe el proceso total de incrementar el valor de un proyecto para un cliente o usuario en tanto que, a la Ingeniería del Valor se le considera una parte del proceso de la Administración del Valor, ya que limita su objetivo al incremento del valor en las etapas de diseño y construcción de un proyecto. De este modo, la Administración del Valor abarcaría una franja más amplia de problemas, que incluyen tanto las cuestiones que están relacionadas con las personas involucradas en el proceso como el análisis técnico de alternativas. Independientemente del nombre que se utilice para referirse al proceso, la metodología comprende los siguientes aspectos:

Identificar los principales elementos de un producto, servicio o proyecto, Analizar las funciones que realizan los elementos del proyecto, Usar tormentas de ideas para desarrollar varios diseños alternativos para ejecutar esas funciones, Evaluar las alternativas para asegurar que no degraden el proyecto, Asignarles costos (incluso los costos de su ciclo de vida completo) a cada una de las alternativas más prometedoras y , Desarrollar recomendaciones aceptables para las alternativas prometedoras. El proceso de ingeniería del valor es establecido para mejorar el producto, proceso o servicio para el usuario, cuando se desarrolla un análisis del valor, siete preguntas básicas deben de ser hechas:

¿Cuál es el producto, proceso o servicio? ¿Cuál es la función fundamental o propósito del ese producto, proceso o servicio? ¿Cuánto cuesta actualmente o cuanto se espera que cueste? ¿Existen algunas oportunidades de mejorar el valor? ¿Cuáles son los métodos alternativos o fuentes del producto, proceso o servicio? ¿Cuánto cuestan las demás alternativas? ¿La alternativa llena el requerimiento mientras agrega valor al producto, proceso o servicio?

3. Beneficios 
 Un análisis del valor es más efectivo cuando se hace en una etapa inicial. 

En ésta fase hay mucho más oportunidad de influenciar el diseño y por eso más potencial para reducir costos y/o mejorar el desempeño mientas se minimizan riesgos. Algunos de los beneficios que pueden ser experimentados a través de la ingeniería del valor son:

Reducir el costo del ciclo de vida. Mejorar la calidad. Mejorar impactos medio ambientales. Mejorar la programación. Mejorar la interacción humana. Algunos riesgos que pueden ser experimentados son:

Análisis hecho demasiado tarde. Compromiso del desempeño del actual sistema. Costos de implementar alternativas no recuperados Resultados de un análisis no implementados.

4. Fases 

 Precisamente, la "aplicación sistemáticamente de técnicas reconocidas" especificadas en la definición de Ingeniería del Valor, se refieren y concentran en el Plan de Trabajo de la Ingeniería del Valor. El Plan de Trabajo contiene ocho fases, cinco de las cuales deberán ser realizadas por un Equipo de Ingeniería del Valor. En general, el plan de trabajo de los procesos de la Metodología del Valor cubre tres períodos de actividad El Pre-estudio, el Estudio del Valor, y el Post-estudio. Todas las fases son realizadas secuencialmente. Conforme va progresando el estudio, se va generando nueva información, lo que puede ocasionar que el equipo regrese a una etapa de una fase previa.

Pre-Estudio Las tareas de preparación involucran seis áreas: definición de los requerimientos del usuario o cliente, acopio de la información del proyecto, determinación de los factores de evaluación, alcance específico del estudio, construcción de los modelos apropiados y determinación de la composición del equipo.

Definición de la posición del usuario o cliente: La posición del cliente se recopila a través del enfoque de grupos y /o por medio de investigaciones de mercado. Entre otros, los objetivos de esta investigación son:

Definir y evaluar la importancia de las características del proyecto; Determinar y tasar la gravedad de las fallas percibidas por el usuario y sus inquietudes o quejas acerca del proyecto; Comparar al proyecto con las otras alternativas en competencia a través de la correlación directa con proyectos similares. Para el caso en que el proyecto se refiera a una construcción nueva, este análisis se puede relacionar a los éxitos y objetivos propuestos. Los resultados de esta tarea se utilizan para identificar incompatibilidades en la fase de información.

Acopio de la información del proyecto: Existen fuentes primarias y secundarias de información. Las fuentes primarias son de dos clases: personas y documentación. Dentro de las personas se incluye al diseñador, al equipo que elabora las estimaciones de costos, a los trabajadores y a los consultores. Las fuentes de documentación comprenden los dibujos, las especificaciones del proyecto, los planos del proyecto y las cotizaciones del proyecto. Las fuentes secundarias incluyen la literatura tal como las normas de ingeniería y diseño, las regulaciones, los resultados de pruebas y los reportes de falla. Otras fuentes secundarias son los proyectos similares. .Es deseable el acopio de datos cuantitativos

Determinación de los factores de evaluación: El equipo determinará cuál será el criterio de evaluación de las ideas y la importancia relativa de cada criterio para las recomendaciones finales y las decisiones de cambio.
Alcance del estudio: El equipo elaborará la declaración de los alcances del estudio. Esta declaración define los límites del estudio basado en las tareas de recolección de datos. En la declaración de alcances se define lo que no está incluido en el estudio. La declaración de los alcances deberá ser verificada por el patrocinador del estudio.

Construcción de los modelos: Con base en el acuerdo establecido en la declaración de alcances, el equipo deberá recopilar los modelos para la comprensión más amplia del estudio. Se incluirán tantos modelos como sean apropiados para cada estudio, tal como: costo, tiempo, energía, flujo de caja y distribución.

Determinación de la composición del equipo. 
El líder del Equipo del Estudio del Valor confirmará el horario del estudio, la localización y la necesidad de personal de soporte. Se revisará la composición del equipo para asegurar que las áreas de usuarios, técnica y de administración estén representadas. El líder del equipo asignará las tareas de recopilación de información a los miembros del equipo para que los datos pertinentes estén disponibles para el estudio.

El Estudio Del Valor El Estudio del Valor constituye la aplicación de la Metodología del Valor, compuesta de seis fases: Información, análisis de la función, creatividad, evaluación, desarrollo y presentación.

Fase de información: 
El objetivo de la fase de información es completar el paquete de datos comenzado en el Pre-estudio. El patrocinador o diseñador del proyecto proporcionará oportunamente al equipo un resumen de las preguntas obtenidas durante la investigación previa. Finalmente, se revisa la declaración de alcances para su ajuste a cualquier aclaración debida a la obtención de información adicional.

Análisis de la función: La definición de la función y su análisis es el corazón de la Metodología del Valor. El objetivo de esta fase es desarrollar las áreas de mayor beneficio para continuar el estudio. El equipo ejecuta los siguientes pasos:

 Identifica y define las funciones de trabajo y de venta del proyecto bajo estudio, utilizando verbos activos y características conmensurables. Frecuentemente esto se refiere como: Definición de la Función Aleatoria ("Random Function Definition"). Clasificación de la función como básica o secundaria. Ampliar las funciones identificadas en el primer punto (opcional) Construir un modelo de la función organizacional lógica ("Model- Function Hierarchy/Logic" o "Function Analysis System Technique , FAST")

Asignar costos u otro criterio de medida a las funciones. Establecer las funciones que valen la pena mediante la asignación de la posición del usuario, establecida previamente para la función.

Comparar los costos para las funciones que valen la pena, para instaurar la mejor alternativa de mejora. Evaluar las funciones para consideraciones de programa de desempeño. Seleccionar las funciones para análisis continuado. Clarificar el alcance del estudio.

Fase creativa: El objetivo de la fase creativa (algunas veces referida como Fase de Especulación) es desarrollar una gran cantidad de ideas para desempeñar cada función seleccionada por el estudio. Este es un tipo de esfuerzo creativo, totalmente ajeno a hábitos, tradiciones, actitudes negativas, restricciones asumidas y criterios específicos. Durante esta actividad no se presentan discusiones ni se emiten juicios.

Existen dos claves para el éxito en la fase creativa: la primera, el propósito de esta fase no es concebir la manera de diseñar, sino desarrollar las maneras para ejecutar las funciones seleccionadas. Segundo, la creatividad es un proceso mental en el que las experiencias pasadas se combinan para formar nuevas combinaciones que cumplan con las funciones deseadas al menor costo y mejoren su nivel de desempeño anterior.

 Existen varias técnicas para la generación en la fase anterior y seleccionar las ideas factibles de desarrollar para la mejora específica del valor

Utilizando el criterio de evaluación establecido durante el Pre-estudio, las ideas son clasificadas y evaluadas de acuerdo al cumplimiento de esos criterios. Generalmente, el proceso involucra varias etapas:

Eliminación de ideas absurdas.

Agrupación de ideas por categorías de acuerdo a implicaciones de largo y corto plazo. Entre los miembros del equipo se acordará quienes defenderán cada una de las ideas en las discusiones y evaluaciones futuras. De no haber voluntarios, la idea o concepto será desechado.

Se listarán las ventajas y desventajas de cada idea.

Jerarquización de las ideas dentro de cada categoría de acuerdo a la prioridad del criterio de evaluación mediante técnicas como la indexación, evaluación numérica y consenso del equipo.

Si aún existen combinaciones competitivas, se analizará mediante una matriz la jerarquización de ideas mutuamente exclusivas que satisfagan la misma función.

Selección de ideas para desarrollar la mejora del valor.

Si al finalizar no existe ninguna combinación que parezca satisfacer el criterio, el equipo retomará la fase creativa.- Fase de desarrollo: El objetivo de la fase de desarrollo es seleccionar y preparar la mejor alternativa para la mejora del valor.- El paquete de datos elaborados por la defensa de cada uno de las alternativas deberá proporcional tanto información técnica, de costos y de programa como práctica para que el diseñador y patrocinador del proyecto puedan hacer una evaluación inicial relacionada con la factibilidad para la implantación. Se incluyen los siguientes pasos:
--
 Empezando con la alternativa mejor jerarquizada, se desarrolla un análisis de beneficio y establecimientos, incluyendo la estimación de costos de implantación, tomando en cuenta el riesgo y la incertidumbre.

Conducción de un análisis de beneficios

Compilación de un paquete de datos técnicos para cada alternativa propuesta

Describir el diseño original y alternativas propuestas.

Bosquejar el diseño original y alternativas propuestas Mostrar datos de costos y desempeño, que identifique claramente las diferencias entre el diseño original y las alternativas propuestas.
- Utilizar cualquier técnica de respaldo de datos tal como fuentes de información, cálculo y literatura. Resumir el impacto del programa

Preparar un plan de implantación, incluyendo el programa de implantación de actividades propuesto, asignación del equipo y requerimiento de la dirección

Completar las recomendaciones incluyendo cualquier condición única para el proyecto bajo estudio tal como tecnología emergente, asuntos políticos, impacto en otros proyectos en curso, planes de comercialización, etcétera.

 Fase de presentación: El objetivo de la fase de presentación es obtener el consentimiento y un compromiso por parte del diseñador, patrocinador del proyecto y otros directivos para proceder con la implantación de las recomendaciones. Esto involucra una presentación oral seguida de un reporte escrito completo.

Como la última tarea dentro de un estudio del valor, el equipo presentará sus recomendaciones a los tomadores de decisiones. A través de la presentación y su discusión interactiva, el equipo obtiene ya sea la aprobación para proceder con la implantación, o la orientación de la necesidad de información adicional.

La organización específica del reporte es única para cada estudio; contendrá los documentos con el reporte escrito y las alternativas propuestas junto con los datos de soporte, y la confirmación del plan de implantación aceptada por la directiva.

Post-Estudio

El objetivo de las actividades durante el Post-estudio es asegurar la implantación de las recomendaciones de cambio aprobadas por el estudio del valor.

En tanto que el líder del equipo del valor pueda rastrear el progreso de la implantación, en todos los casos será la persona designada como responsable de la implantación. Cada una de las alternativas debe ser diseñada y confirmada independientemente, antes de su implantación en del proyecto, incluyendo los cambios contractuales, si se requiere. Además se recomienda que los departamentos de finanzas (contabilidad, contraloría, etc.) realicen una auditoria para verificar los beneficios del estudio de la Ingeniería del Valor.

 5. Diagrama FAST

Conceptos:

La técnica de FAST ha sido usada en ingeniería de valor para analizar costos. Pero el método puede ser además útil en ingeniería de diseño.

 El diagrama FAST es una técnica para analizar la estructura funcional de un sistema técnico. Puede servir como una táctica útil con cualquier estrategia sistemática de diseño. FAST significa Técnica sistemática de análisis funcional, fue concebida por Charles W. Bytheway en 1965, como una forma para organizar sistemáticamente y representar las relaciones funcionales de un sistema técnico. El análisis funcional se lleva a cabo en 5 fases: Listado de funciones. Organización. Caracterización. Ordenación jerárquica. Evaluación. Finalmente se representa el diagrama funcional (FAST) DEL PRODUCTO O PROSESO. La función expresada como un verbo-sustantivo, ha sido un concepto fundamental de la ingeniería del valor; hasta el desarrollo del FAST el concepto de función sirvió únicamente para enfocar la atención en aspectos funcionales del producto y para ayudar en la diferenciación entre sus funciones básicas y secundarias. Esto dividió el producto en elementos manejables para ser tratados separadamente. El diagrama FAST se construye y extiende sobre este concepto. En FAST las funciones del sistema son identificadas y desplegadas gráficamente con respecto a la relación entre las preguntas ¿Cómo? y ¿Por qué?

Construyendo el diagrama FAST: Para elaborar un diagrama FAST para un sistema, todas las funciones conocidas que pueden ser asociadas con el sistema técnico interno y externo deben ser identificadas. Las funciones deben ser, como en ingeniería del valor, una combinación de verbo y sustantivo.

 El verbo debe ser un verbo activo (sostiene, protege, rota, mueve, controla, dirige, etc.), este es el efecto de la operación que es desempeñadas, pasivo o verbos indirectos (proporciona, provee, convierte, etc.) deben evitarse. El verbo describe los efectos físicos que toman lugar dentro del sistema.

El sustantivo debe ser descriptivo y general, es el operante sobre el cual la función toma lugar. Este sustantivo puede ser convenientemente identificado como forma de material, energía, información o abstracción (como reliabilidad). Nombres y descripciones específicas deben ser evitadas ya que limitan la oportunidad de alternativas creativas. El uso de adjetivos y adverbios no son usados por la misma razón. Los términos elementales son los más deseados en el inicio. Esto es específicamente verdad para la descripción de la función inicial del sistema técnico, más adelante nombres específicos pueden ser útilmente agregados como tantas decisiones de diseño sean hechas.

Al principio no es esencial que las funciones sean desarrolladas en una manera ordenada o que estén completas. Se ha encontrado que la identificación de las funciones tiende a ocurrir en una manera un tanto aleatoria. En esta etapa, es conveniente escribir cada función sobre una tarjeta separada.

Durante la descripción de un existente sistema técnico, es fácil identificar todas las funciones. Con un nuevo sistema, puede ser necesario empezar con las funciones esenciales derivadas directamente de las necesidades, objetivos y especificaciones del sistema.

Las funciones son clasificadas en funciones básicas y secundarias (funciones de soporte). Las funciones básicas son esas para las cuales el sistema técnico existe, la función básica es la función del sistema técnico. Las funciones secundarias son todas las demás funciones que son parte del sistema técnico y apoyan la función básica. Puede haber además funciones innecesarias en un sistema técnico.

En un sistema FAST orientado a la técnica, el objetivo es determinar la única función básica. En FAST orientados al producto, cuatro funciones primarias de soporte están además presente, una que asegura dependencia, otra conveniencia, satisfacción y la que atrae al usuario.

Dos flechas son colocadas en la parte de arriba del diagrama FAST, una apuntando a la derecha con el texto ¿Cómo? y otra apuntando a la izquierda con el texto ¿Por qué? Las funciones básicas y de apoyo son seleccionadas y colocadas una sobre la otra para iniciar el diagrama FAST, con la función básica de más jerarquía. Las funciones secundarias están acomodadas a la izquierda o a la derecha de las funciones, sobre el diagrama dependiendo sobre la pregunta que contesten ¿como? o ¿por qué?. Si la función es hacer cilindro, la función remover metal iría a la derecha porque responde a la pregunta ¿como? la función "fit orificio" iría a la izquierda ya que contesta la pregunta ¿por que? Cuando las funciones ocurren al mismo tiempo están colocadas una sobre la otra.

Las funciones que contestan a las preguntas ¿Cómo? y ¿Por qué? son inicialmente seleccionadas de la previa colección de funciones identificadas, si una función requerida no esta disponible entonces una función apropiada es producida. Como las funciones son agregadas al diagrama FAST, estas se unen por una línea para indicar la relación causa y efecto. Cuando dos o más funciones son requeridas para contestar la pregunta ¿como? las líneas se unen a ellas serán conectadas juntas a la derecha. Si hay funciones alternas pero exclusivas que contesten la pregunta ¿como? serán unidas independientemente a su ¿por qué? de la función sobre la derecha.---- Si el sistema técnico esta completamente definido, y alguna de las funciones originalmente propuesta no ha sido usada, la descripción del sistema debe ser reexaminado para ver si algo ha sido omitido, o si la función anticipada fue innecesaria. Para mostrar el alcance del sistema técnico dos líneas verticales son dibujadas, una en el extremo izquierdo y otra en el extremo derecho. Todo lo que cae dentro las líneas de alcance debe constituir una descripción del sistema funcional. Aquellas funciones que caen fuera de las líneas de alcance representan las entradas y las salidas. Las funciones a la izquierda de la línea de alcance izquierda son las necesidades que satisface el sistema. Las de la derecha de la línea de alcance derecha representan los recursos requeridos.

Cada diagrama FAST tendrá un camino crítico de funciones, yendo de derecha a izquierda a través de la línea de alcance. Sobre la línea del camino crítico estará únicamente la función básica, las funciones secundarias requeridas y las necesidades externas. La función básica del sistema será la función inmediata a la derecha de la línea de alcance izquierda sobre el camino crítico. Si alguna función sucede al mismo tiempo o es causada por una función de el camino critico es colocada abajo del camino crítico, si una función ocurre al mismo tiempo es colocada sobre el camino critico. Si hay algún objetivo o especificación critico del diseño que es fijo es colocado sobre el camino primario encerrado en un recuadro.

Reglas generales de los diagramas FAST:

Todos los diagrama fast deben incluir una línea de alcance del lado izquierdo del diagrama. La línea de alcance limita el proyecto. La jerarquía mayor de funciones debe colocarse a la izquierda de la línea de alcance. En el diagrama FAST orientado a una tarea, la función de jerarquía mayor debe construirse por las necesidades del usuario y del cliente. La pregunta ¿COMO? Se contesta por medio de las funciones al lado derecho de la función a prueba, usualmente se incluye de 3 a 4 funciones secundarias.

El FAST orientado a la técnica, se utiliza en una variedad de libros de trabajo de corporativos y gobierno. Los proyectos de diseño y de construcción siguen estos formatos.

El FAST orientado a una tarea, se ha utilizado principalmente en estudios corporativos y en productos completos. Ejemplo de un diagrama FAST de un Ensamble de Celda para medir la Humedad de diferentes clases de granos:

La terminación del diagrama: El diagrama fast terminado es una descripción funcional del sistema técnico. Las funciones a la derecha indican ¿Cómo? las funciones de la izquierda están siendo producidas. Las funciones a la izquierda indican ¿Por qué? las funciones a la derecha son desempeñadas.

Todas las funciones que están sobre el camino primario deben tomar lugar para satisfacer la función básica del sistema técnico. Consecuentemente, es ventajoso indicar el camino primario en una forma especial. Todas las otras funciones pueden o no pueden ser requeridas, y están disponibles para intercambiarse, o pueden ser completamente desechadas.

Oportunidades con FAST: El análisis de funciones es capaz de iluminar cada rutina de un proyecto y encontrar las características únicas (funciones) las cuales están relacionadas con el costo-diseño.

Las funciones preparan al equipo para la creatividad. Ellos cierran el espacio entre la información y las fases de creatividad. Como Miles escribió: El lenguaje de la función es el lenguaje del corazón del problema. Si el análisis de función es el puente, FAST es una de las herramientas necesarias para construir ese puente.

Dificultades con FAST: Algunas dificultades son encontradas en aplicar FAST para construir proyectos porque: Toma tiempo hacer el FAST adecuadamente y completamente Toma entrenamiento perfeccionar la técnica FAST FAST es un mapa de funciones un diagrama lógico Como/Porque/Cuando. No es un proceso difícil, pero requiere paciencia. Si muchos miembros del equipo no son entrenados en la aplicación del FAST pueden convertirse solo en observadores. No queriendo hacer el estudio de Ingeniería del Valor en un Taller de ingeniería del valor. Hay muchas interpretaciones de FAST. La mayoría del tiempo la tendencia ha sido agregar cambios sutiles, haciendo el proceso cada vez más complejo. Los fundamentos de FAST son pocos:

Verbos activos y pronombres medibles ¿Cómos? se leen a la derecha; ¿Porqués? a la izquierda. La función básica esta dentro de la línea de alcance izquierda La función de orden superior esta afuera de la línea de alcance izquierda La función de inicio esta fuera de la línea de alcance derecha Nada más se requiere para construir un diagrama FAST. No hay diagrama FAST perfecto, no hay respuestas correctas; cada equipo producirá su único FAST para cada proyecto. Con el tiempo se aprende, como Parker dijo, FAST "corrige el factor de ignorancia y abre la puerta a la creatividad"

6. Referencias Bibliográficas

SPERLING, Roger B. (1993). The PDQs of FAST: SIMPLIFYING FUNCTIONAL ANALISIS FOR CONSTRUCTION VALUE STUDIES. Internet Web Site: http://www.value-eng.or/pdf-docs/confernce-proceedings/1993/9307.pdf

MORALES PÉREZ, María de Carmen Guadalupe. ¿Qué es la ingeniería del valor? Internet Web Site: http://www.imt.mx/cgi-bin/pubs/pubs?nt=1

KARDOS G. Carlenton University, Ottawa Canadá (1993). FAST FOR SYSTEMATIC DESIGN. Internet Web Site http://www.carleton.ca/ ~gkardos/88403/FAST/FAST5.html

IS THERE VALUE IN VALUE ENGINEERING? Internet Web Site: http://www.denvercsi.com/articles/valuengineerart.html

TAYLOR, Keith. ALE. How to improve performance and reduce costs through value engineering. Internet Web Site: http://www.ale.com/Pages/valpap1.htm

Ingeniería Económica

La ingeniería de valor en un contexto de Diseño y Construcción

La ingeniería de valor en un contexto de Diseño y Construcción, asigna el trabajo de definir lo que se entiende por “valor” a la parte adecuada: el propietario.

- Aunque en algunas ocasiones se le considera erróneamente como un método para reducir costos de una instalación, los Méritos de la Ingeniería de Valor cada vez tienen mayor relevancia en la Organización del Diseño y Construcción integrados.

Mucho antes que el “valor” se convirtiera en la última moda de la mercadotecnia de la década de los noventa, la ingeniería de valor ya se aplicaba al proceso de construcción de instalaciones. Sin embargo, sus orígenes se encuentran en la manufactura. En la década de los treinta, General Electric comenzó a usar el proceso de “análisis de valores” – que consistía en identificar costos innecesarios, o costos que no contribuían en lo absoluto a la calidad, uso, ciclo de vida, apariencia o características deseadas por los cliente. Aunque el propósito del proceso era analizar el valor general de un elemento, pronto se hizo famoso por su habilidad de reducir costos.

Lo que comenzó como un pequeño departamento de la empresa, pronto creció para convertirse en una parte integral de toda la organización. Los ahorros que logró GE hicieron que otras compañías de los EE.UU. adoptaran el concepto y desarrollaran las técnicas que son la base para la ingeniería de valor como la conocemos actualmente. Fue el Departamento de Defensa el que llevó la ingeniería de valor al proceso de desarrollo de instalaciones. La Oficina de Barcos de la Marina llamó al proceso “ingeniería de valor” para reflejar su énfasis y relación con la aplicación de diseño de ingeniería. La práctica se extendió a muelles, patios e instalaciones de suministros. Poco tiempo después todas las fuerzas armadas hicieron de la ingeniería de valor una práctica estándar en el desarrollo de todas las instalaciones. En la década de los sesenta, los diseñadores y constructores del sector privado incorporaron la ingeniería de valor a sus procesos.

 Más

Ingeniería de valor


Principios Ingenieria from toryneutral

Lecturas



Alfabeto griego
Andar tranquiliza
Antioquia 2020
Ballenas jorobadas
Café tostado
Conversar, conversar
Cortesía electrónica
Decálogo del maestro
Derechos Intergeneracionales
El bus de las 6:30
Elogio de la dificultad
El País de la Canela
El puente de Kingsbridge
"El sutil arte de detectar camelos"
El vuelo de los gansos
García Márquez a Llinás
La alcantarilla de París
La Catedral de Burgos
La Esquina del Idioma...
La experiencia
La ingeniería
La Josefina
La navaja de Occam
La palabra
Las tres formas de la sustancia
Libertad de cátedra
Los cuatro porqués
Los ingenieros lo complican
Los porqués del agua
Los visitantes recomiendan...
Método de estudio
Mi sobrino Bolívar
Modos de aprender
No beberás
"No hay preguntas estúpidas"
No tenemos tiempo
Orden de las letras
Oro español
Palabras al agua...
Predicciones
¿Quién es importante?
¿Quién posee el pez?
¿Qué significa enseñar?
Reglas para filosofar
Responsabilidad intelectual
Revista EIA
Ser, saber, servir
Si futuro
Técnicas de comunicación
Teoría del conocimiento
Trabaja
Una Universidad nueva
Unidades de medida confundidas