Sáb 04.10.2003
futuro

Caprichos...

Por Pablo Capanna

No hace tanto tiempo escuché a un economista “ortodoxo” que describía al mercado como un perfecto sistema inercial. En condiciones ideales, su equilibrio estaba garantizado por el utilitarismo, la selección natural y unas leyes tan inmutables como las de Newton.
Nadie que estuviera en su sano juicio –proclamaba– podía llegar a dudar de que, más allá de cualquier “externalidad”, el consumidor se comporta de un modo estrictamente racional, eligiendo siempre calidad y precio. En un mercado justo y libre, el producto y la tecnología más aptos acabarían siempre por imponerse.
En esos días andaba yo lidiando con la Teoría General de Sistemas de Ludwig von Bertalanffy y, perdido entre las ecuaciones, acababa de tropezar con un pasaje donde se decía algo más creíble para cualquiera que haya pisado un supermercado.
Según Von Bertalanffy, lo más parecido a una conducta racional era el comportamiento del animal, que es “raciomorfo” porque da prioridad a las necesidades básicas. Pero, como es sabido, los seres humanos somos capaces de comer y beber sin hambre ni sed, y hasta de recurrir al sexo sin deseo.
El cliente del supermercado, decía el biólogo, no elige calidad sino la marca, el envase o la promesa de un viaje al Caribe. La maquinaria de la publicidad está precisamente para hacer más irracionales nuestras elecciones. El mejor producto no es el que más se vende, como sabe quien haya visto algo tan triste como el best seller del año pasado en una mesa de saldos.
Si la cultura no fuese uno de los sistemas más complejos que conocemos, el mercado se comportaría de un modo tan previsible como la física clásica. Por ejemplo, se diría que la tecnología con que contamos es la mejor que puede ofrecernos la investigación. Pero no siempre ocurre eso. Hasta la racionalidad tecnológica está sujeta a pequeñas fluctuaciones que terminan por autoorganizarse formando sistemas técnicos complejos, cuyo curso es difícil de determinar.

Pelucas, corbatas y el mercado
Cuando Luis XIV empezó a perder el cabello, no encontró nada mejor que lanzar la moda de la peluca, que adoptaron tanto la nobleza como la burguesía, al punto que todavía sobrevive en los tribunales ingleses. El capricho real demostró tener tanta vitalidad como el sistema británico de pesas y medidas, que también nació de la real gana y se niega a desaparecer.
La corbata, por su parte, vio la luz durante el segundo Sitio de Viena (1683), cuando los vieneses espiaban el atuendo de los turcos que acampaban al pie de sus muros. Ocurrió que los otomanos usaban una tira de tela anudada como amuleto para protegerse de los ataques a traición, tal como hacían los antiguos egipcios para defender a sus momias de los peligros del más allá. Pero a partir de entonces la corbata se instaló en Occidente hasta convertirse en importante requisito para conseguir trabajo, asistir a actos oficiales o casarse. Usar corbata hasta puede volverse peligroso cuando uno anda por calles oscuras y solitarias.
Estos procesos, puestos en marcha por causas aleatorias, no tienen otra explicación que la histórica. Se puede rastrear el origen de estos símbolos, pero no hay razones para decir que uno es mejor que el otro. En sí, usar una peluca perfumada o una corbata de seda sólo puede ser ventajoso o no en un determinado contexto social.
Se diría que con la tecnología debería ocurrir todo lo contrario, porque las soluciones técnicas tienen ventajas y desventajas objetivas. En un mercado libre, justo y newtoniano, poblado de consumidores cartesianos, es obvio que tendría que imponerse la mejor tecnología. Pero la sociedad es más que esa abstracción que llamamos “mercado”: es un sistema tan complejo y mudable como la propia naturaleza.

Caminos obligados
Cualquier persona que entiende algo de computación sabe que la computadora MacIntosh era mejor que la IBM, pero ésta fue la que se impuso gracias a la capacidad de la Big Blue para ocupar el mercado y generar dependencia en sus clientes.
Algo parecido ocurrió con los reproductores de video. El sistema BETA, que era técnicamente superior al VHS, fue desplazado cuando los productores inundaron el mercado con películas en VHS, los videoclubes las adoptaron y los clientes se hicieron dependientes.
Un bloqueo parecido se produjo en 1957, cuando los Estados Unidos estaban poniendo en marcha el programa “Atomos para la Paz”. En ese momento existían reactores enfriados tanto por agua como por gas. Los expertos consideran que los de gas son más costosos pero más seguros y con mayor eficiencia térmica.
Pero entonces sobrevino el Sputnik y Eisenhower apuró el proyecto. De urgencia, se optó por un reactor enfriado por agua que la Marina había desarrollado para los submarinos nucleares. Este fue el diseño que desde entonces se impuso en Estados Unidos, y los reactores de gas sólo tuvieron una modesta evolución en Inglaterra.
No era la primera vez que ocurrían estas cosas.
Cualquier ingeniero es capaz de explicarnos que desde el punto de vista termodinámico el motor a explosión está lejos de ser el más eficiente. Muchos creen que si el auto a vapor hubiera tenido un siglo para desarrollarse hoy tendríamos coches más seguros, menos contaminación y hasta menos guerras por el petróleo.
Hasta 1895 los autos a vapor dominaban el mercado. Cuando Ransom Olds obtuvo la primera patente norteamericana de un motor de explosión, casi nadie confiaba en él. Pero en 1914 ocurrió lo imprevisto: una epizootia arrasó con la población de caballos, y con ellos desaparecieron los bebederos donde los autos a vapor solían reaprovisionarse de agua. Para entonces, los hermanos Stanley ya habían desarrollado un condensador que les daba mayor autonomía a sus steamers. Pero era tarde, porque ya había gasolineras en todas partes y los clientes se pasaron al motor de explosión.
Otro hecho que la economía neoclásica sólo puede explicar a posteriori es la concentración de ciertas ramas de la industria en determinadas áreas. En principio, los empresarios son dueños de instalarse donde más les convenga, planificando racionalmente la circulación de insumos y productos. Pero no parece haber razones para que las industrias de punta terminaran por apiñarse en lugares como Silicon Valley o la Ruta 128 de Boston. Tampoco para que ya en el Medioevo los artesanos se concentraran en callejones llamados “Cuchilleros y Orfebres” o que la calle Warnes sea el mercado de autopartes de Buenos Aires, sin que ningún plan municipal lo haya dispuesto.

El caballo-patron
Hay otra historia que quizás sea más conocida aunque no está de más recordarla. La trocha de los ferrocarriles estadounidenses es de 4 pies y 8,5 pulgadas (141,25 cm). Cualquiera diría que es una cifra extraña: ¿por qué no es de un metro, cinco pies o cualquier otro número entero?
Alguien se puso a investigar y descubrió que las vías las habían tendido los ingleses, lo cual explicaba que la medida fuera tan arbitraria como el codo o la pulgada. Pero los ingleses se habían limitado a hacerlas del mismo ancho que tenían los ejes de los tranvías a caballo.
¿De dónde venía la trocha del tranvía? Pues del eje de los carruajes, porque los primeros tranvías habían sido construidos por los fabricantes de diligencias. ¿Y los carruajes? Pues habían tenido que adecuarse al ancho de las huellas que tenían los caminos de tierra, los cuales habían sido trazados mil años antes por los conquistadores romanos.
Resultó pues que los proveedores de la NASA tuvieron que respetar esa medida para que los cohetes de combustible sólido que impulsan al trasbordador espacial pudieran pasar por los túneles ferroviarios. De manera que el Shuttle se ajusta a un patrón de medida que corresponde al lomo de dos caballos romanos, algo así como 2 eq (equus). Esto, sin olvidar que la potencia de los motores también se mide en caballos (HP o horse-power). Hasta la ingeniería de la NASA sigue condicionada por un arbitrario factor histórico, fijado mucho antes de la era industrial.
Hay casos más cercanos. La duración de un CD es la que conocemos porque el director del proyecto de Phillips dispuso que alcanzara para grabar su sinfonía favorita de Beethoven. En cuanto al diámetro del agujero central, es el de una moneda que sacó de su bolsillo para no seguir discutiendo.

El teclado lento
El teclado “universal” que hoy tienen la mayoría de las computadoras deriva, como todos saben, del que tenían las máquinas de escribir. Es el famoso teclado QWERTY (las primeras letras de la fila superior) que hasta ha llegado a inspirar a muchos escritores en busca de nombre para un personaje.
Cualquier experto en ergonomía sabe que el teclado QWERTY es muy ineficiente. Pero si bien desde hace ochenta años se han venido proponiendo mejores maneras de disponer las letras, que harían más fácil, menos cansador y más veloz el tipeado, el QWERTY sigue invicto. ¿Tendrá alguna ventaja técnica?
La primera patente norteamericana para una máquina de escribir la obtuvo el ingeniero Christopher L. Sholes en 1868. Cuando las máquinas aparecieron en el mercado se vio que tenían un inconveniente: los dactilógrafos escribían más rápido de lo que permitía el mecanismo, de manera que los tipos terminaban trabándose entre sí. Es precisamente lo que hacíamos en el Comercial para inutilizar las máquinas de escribir y zafar de una clase, escuchando las maldiciones del mecánico.
Fue entonces que Sholes se propuso diseñar un teclado que frenara a los tipistas impidiéndoles que escribieran más rápido, y en 1873 inventó el QWERTY. Al poco tiempo Remington & Sons, que fabricaba fusiles y máquinas de coser, se interesó por el invento y produjo masivamente máquinas con el teclado lento. Los dactilógrafos tuvieron que aprenderlo, las escuelas lo enseñaron, y cuando Mark Twain se compró una Remington el nudo quedó atado para siempre. Nunca más logró imponerse un teclado mejor, porque el desarrollo había quedado bloqueado en una ruta obligada. Las computadoras, que en principio no limitan la velocidad de escritura, siguen atadas a un diseño que entorpece al tipista. El día que se extingan los teclados, morirán con el QWERTY puesto.
Todo esto lleva a pensar que el desarrollo de la tecnología no es lineal, sino en buena medida estocástico. Los sistemas técnicos también incluyen factores aleatorios, una buena dosis de inercia y una dinámica propia de crecimiento.

Organos vestigiales
Si el mercado ejerce una suerte de selección darwiniana, tendría que existir alguna paleontología de la técnica. Así como en la evolución biológica hay órganos como el apéndice o el lóbulo de la oreja que sobreviven como vestigios, algo parecido debería ocurrir en la evolución tecnológica. De hecho (para no salirnos del teclado) en las computadoras aún podemos observar un pequeño órgano vestigial (la comilla recta) que es el último recuerdo de la vieja Remington.
Existen tecnologías fósiles, vestigios de desarrollos abortados o relegados por razones que solo el mercado “real” puede explicar.
¿Hay alguna razón para que las agujas del reloj se muevan de izquierda a derecha y den dos vueltas por día? En las antiguas meridianas, la sombra seguía el movimiento del Sol, de Este a Oeste. En algún momento la dirección se invirtió, quizá por motivos mecánicos. Pero en la catedral de Florencia existe un fósil: un reloj que marcha de derecha a izquierda y marca las 24 horas. Lo diseñó nada menos que Paolo Uccello, el pintor del Renacimiento que les enseñó perspectiva a los florentinos.

Los rendimientos crecientes
Muchos clásicos de la economía sufrieron de cierta ceguera ante la tecnología que estaba transformando el mundo ante sus ojos y durante mucho tiempo no se apartaron del tríptico de Capital, Tierra y Trabajo.
La famosa “ley de los rendimientos decrecientes” señala que el incremento de un insumo, como la mano de obra o los fertilizantes en la agricultura, tiene un límite. En algún momento el rendimiento dejará de crecer y comenzará a bajar, porque es imposible poner veinte campesinos a trabajar en un metro cuadrado.
Esto es válido para las economías estáticas, pero cambia sustancialmente con la innovación tecnológica, que produce rendimientos crecientes (aun cuando reduzca el trabajo y aumente los requerimientos de capital) porque cambia la calidad de los factores en juego. Eso es lo que no vio Malthus: si su teoría fatalista de la población hubiese sido correcta, no estaríamos acá para contarlo.
Entre aquellos que vieron la importancia de los rendimientos crecientes que ofrece la tecnología estuvieron Alfred Marshall y Joseph Schumpeter, pero en su tiempo todavía no contaban con recursos matemáticos para estudiarla.
Quien recibió el Premio Schumpeter en 1990 fue Brian Arthur, un científico que habría que calificar como “multimedial” aun en tiempos de trabajo interdisciplinario. Arthur había sido uno de los primeros investigadores del famoso Instituto Santa Fe de New Mexico, Estados Unidos, dedicado al estudio de una nueva ciencia: la complejidad. El Instituto había sido fundado por veteranos como los físicos Philip Anderson y Murray Gell-Mann (el padre de los quarks) y el Nobel de Economía Kenneth Arrow, que estaban dispuestos a buscar un nuevo paradigma científico para el siglo XXI.
Por cierto, el Instituto contaba con importantes aportes de capital, desde que en 1986 John Reed le había encargado esa revisión de la economía que estaba haciendo falta después de la crisis de la deuda externa. Obviamente, este John Reed no era aquel que escribiera sobre “los diez días que conmovieron al mundo”, sino todo lo contrario: era el CEO de Citicorp.

Un hombre multiple
Es muy interesante ver cuál había sido la formación profesional del irlandés Brian Arthur, a quien debemos varios de los ejemplos que hemos visto. Arthur comenzó como ingeniero eléctrico en Belfast; luego estudió investigación operativa, se radicó en los Estados Unidos y se interesó por la economía cuando trabajaba para una consultora en Alemania. Observó que la economía neoclásica estaba muy matematizada, algo que gracias a su formación no lo amedrentaba, pero sufría de una radical dependencia con respecto a la física clásica. La idea central era la de equilibrio, como si la economía fuera un perfecto sistema inercial. Pero la realidad resultaba mucho más inestable y a menudo escapaba al reduccionismo.
Cuando pasó una temporada investigando demografía en Bangladesh, Arthur leyó sobre biología molecular y quedó fascinado por las ideas de Prigogine.
Se le ocurrió entonces la idea de que la economía podía ser un sistema autoorganizativo, más cercano a la biología que a la física clásica. Ya no sería una “física blanda” sino una ciencia de alta complejidad. Sus instrumentos vendrían de la matemática del caos y de la física no lineal. Un ecosistema, un huracán tropical y una crisis financiera podían ser comprendidos mejor con esas herramientas.
Se trataba de estudiar los rendimientos crecientes más que los decrecientes; la dinámica evolutiva, en lugar del equilibrio ideal; el feed-back y los sistemas organizados a partir de factores aleatorios, como los que aparecen en la tecnología. Había que renunciar al reduccionismo para acercarse a los modelos ecológicos y las ciencias sociales.
Los últimos Premios Nobel parecen responder a esta tendencia, espoleados por las crisis globales, las burbujas financieras y otros problemas que los mandarines del FMI no terminan de entender.
Para todos aquellos que andan obsesionados con los nuevos paradigmas, se recomienda dejar de buscarlos por caminos dudosos. Ahí tienen uno.

(Versión para móviles / versión de escritorio)

© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS rss
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux