No hace tanto tiempo escuché a un economista “ortodoxo”
que describía al mercado como un perfecto sistema inercial. En condiciones
ideales, su equilibrio estaba garantizado por el utilitarismo, la selección
natural y unas leyes tan inmutables como las de Newton.
Nadie que estuviera en su sano juicio –proclamaba– podía
llegar a dudar de que, más allá de cualquier “externalidad”,
el consumidor se comporta de un modo estrictamente racional, eligiendo siempre
calidad y precio. En un mercado justo y libre, el producto y la tecnología
más aptos acabarían siempre por imponerse.
En esos días andaba yo lidiando con la Teoría General de Sistemas
de Ludwig von Bertalanffy y, perdido entre las ecuaciones, acababa de tropezar
con un pasaje donde se decía algo más creíble para cualquiera
que haya pisado un supermercado.
Según Von Bertalanffy, lo más parecido a una conducta racional
era el comportamiento del animal, que es “raciomorfo” porque da
prioridad a las necesidades básicas. Pero, como es sabido, los seres
humanos somos capaces de comer y beber sin hambre ni sed, y hasta de recurrir
al sexo sin deseo.
El cliente del supermercado, decía el biólogo, no elige calidad
sino la marca, el envase o la promesa de un viaje al Caribe. La maquinaria de
la publicidad está precisamente para hacer más irracionales nuestras
elecciones. El mejor producto no es el que más se vende, como sabe quien
haya visto algo tan triste como el best seller del año pasado en una
mesa de saldos.
Si la cultura no fuese uno de los sistemas más complejos que conocemos,
el mercado se comportaría de un modo tan previsible como la física
clásica. Por ejemplo, se diría que la tecnología con que
contamos es la mejor que puede ofrecernos la investigación. Pero no siempre
ocurre eso. Hasta la racionalidad tecnológica está sujeta a pequeñas
fluctuaciones que terminan por autoorganizarse formando sistemas técnicos
complejos, cuyo curso es difícil de determinar.
Pelucas, corbatas y el mercado
Cuando Luis XIV empezó a perder el cabello, no encontró nada mejor
que lanzar la moda de la peluca, que adoptaron tanto la nobleza como la burguesía,
al punto que todavía sobrevive en los tribunales ingleses. El capricho
real demostró tener tanta vitalidad como el sistema británico
de pesas y medidas, que también nació de la real gana y se niega
a desaparecer.
La corbata, por su parte, vio la luz durante el segundo Sitio de Viena (1683),
cuando los vieneses espiaban el atuendo de los turcos que acampaban al pie de
sus muros. Ocurrió que los otomanos usaban una tira de tela anudada como
amuleto para protegerse de los ataques a traición, tal como hacían
los antiguos egipcios para defender a sus momias de los peligros del más
allá. Pero a partir de entonces la corbata se instaló en Occidente
hasta convertirse en importante requisito para conseguir trabajo, asistir a
actos oficiales o casarse. Usar corbata hasta puede volverse peligroso cuando
uno anda por calles oscuras y solitarias.
Estos procesos, puestos en marcha por causas aleatorias, no tienen otra explicación
que la histórica. Se puede rastrear el origen de estos símbolos,
pero no hay razones para decir que uno es mejor que el otro. En sí, usar
una peluca perfumada o una corbata de seda sólo puede ser ventajoso o
no en un determinado contexto social.
Se diría que con la tecnología debería ocurrir todo lo
contrario, porque las soluciones técnicas tienen ventajas y desventajas
objetivas. En un mercado libre, justo y newtoniano, poblado de consumidores
cartesianos, es obvio que tendría que imponerse la mejor tecnología.
Pero la sociedad es más que esa abstracción que llamamos “mercado”:
es un sistema tan complejo y mudable como la propia naturaleza.
Caminos obligados
Cualquier persona que entiende algo de computación sabe que la computadora
MacIntosh era mejor que la IBM, pero ésta fue la que se impuso gracias
a la capacidad de la Big Blue para ocupar el mercado y generar dependencia en
sus clientes.
Algo parecido ocurrió con los reproductores de video. El sistema BETA,
que era técnicamente superior al VHS, fue desplazado cuando los productores
inundaron el mercado con películas en VHS, los videoclubes las adoptaron
y los clientes se hicieron dependientes.
Un bloqueo parecido se produjo en 1957, cuando los Estados Unidos estaban poniendo
en marcha el programa “Atomos para la Paz”. En ese momento existían
reactores enfriados tanto por agua como por gas. Los expertos consideran que
los de gas son más costosos pero más seguros y con mayor eficiencia
térmica.
Pero entonces sobrevino el Sputnik y Eisenhower apuró el proyecto. De
urgencia, se optó por un reactor enfriado por agua que la Marina había
desarrollado para los submarinos nucleares. Este fue el diseño que desde
entonces se impuso en Estados Unidos, y los reactores de gas sólo tuvieron
una modesta evolución en Inglaterra.
No era la primera vez que ocurrían estas cosas.
Cualquier ingeniero es capaz de explicarnos que desde el punto de vista termodinámico
el motor a explosión está lejos de ser el más eficiente.
Muchos creen que si el auto a vapor hubiera tenido un siglo para desarrollarse
hoy tendríamos coches más seguros, menos contaminación
y hasta menos guerras por el petróleo.
Hasta 1895 los autos a vapor dominaban el mercado. Cuando Ransom Olds obtuvo
la primera patente norteamericana de un motor de explosión, casi nadie
confiaba en él. Pero en 1914 ocurrió lo imprevisto: una epizootia
arrasó con la población de caballos, y con ellos desaparecieron
los bebederos donde los autos a vapor solían reaprovisionarse de agua.
Para entonces, los hermanos Stanley ya habían desarrollado un condensador
que les daba mayor autonomía a sus steamers. Pero era tarde, porque ya
había gasolineras en todas partes y los clientes se pasaron al motor
de explosión.
Otro hecho que la economía neoclásica sólo puede explicar
a posteriori es la concentración de ciertas ramas de la industria en
determinadas áreas. En principio, los empresarios son dueños de
instalarse donde más les convenga, planificando racionalmente la circulación
de insumos y productos. Pero no parece haber razones para que las industrias
de punta terminaran por apiñarse en lugares como Silicon Valley o la
Ruta 128 de Boston. Tampoco para que ya en el Medioevo los artesanos se concentraran
en callejones llamados “Cuchilleros y Orfebres” o que la calle Warnes
sea el mercado de autopartes de Buenos Aires, sin que ningún plan municipal
lo haya dispuesto.
El caballo-patron
Hay otra historia que quizás sea más conocida aunque no está
de más recordarla. La trocha de los ferrocarriles estadounidenses es
de 4 pies y 8,5 pulgadas (141,25 cm). Cualquiera diría que es una cifra
extraña: ¿por qué no es de un metro, cinco pies o cualquier
otro número entero?
Alguien se puso a investigar y descubrió que las vías las habían
tendido los ingleses, lo cual explicaba que la medida fuera tan arbitraria como
el codo o la pulgada. Pero los ingleses se habían limitado a hacerlas
del mismo ancho que tenían los ejes de los tranvías a caballo.
¿De dónde venía la trocha del tranvía? Pues del
eje de los carruajes, porque los primeros tranvías habían sido
construidos por los fabricantes de diligencias. ¿Y los carruajes? Pues
habían tenido que adecuarse al ancho de las huellas que tenían
los caminos de tierra, los cuales habían sido trazados mil años
antes por los conquistadores romanos.
Resultó pues que los proveedores de la NASA tuvieron que respetar esa
medida para que los cohetes de combustible sólido que impulsan al trasbordador
espacial pudieran pasar por los túneles ferroviarios. De manera que el
Shuttle se ajusta a un patrón de medida que corresponde al lomo de dos
caballos romanos, algo así como 2 eq (equus). Esto, sin olvidar que la
potencia de los motores también se mide en caballos (HP o horse-power).
Hasta la ingeniería de la NASA sigue condicionada por un arbitrario factor
histórico, fijado mucho antes de la era industrial.
Hay casos más cercanos. La duración de un CD es la que conocemos
porque el director del proyecto de Phillips dispuso que alcanzara para grabar
su sinfonía favorita de Beethoven. En cuanto al diámetro del agujero
central, es el de una moneda que sacó de su bolsillo para no seguir discutiendo.
El teclado lento
El teclado “universal” que hoy tienen la mayoría de las computadoras
deriva, como todos saben, del que tenían las máquinas de escribir.
Es el famoso teclado QWERTY (las primeras letras de la fila superior) que hasta
ha llegado a inspirar a muchos escritores en busca de nombre para un personaje.
Cualquier experto en ergonomía sabe que el teclado QWERTY es muy ineficiente.
Pero si bien desde hace ochenta años se han venido proponiendo mejores
maneras de disponer las letras, que harían más fácil, menos
cansador y más veloz el tipeado, el QWERTY sigue invicto. ¿Tendrá
alguna ventaja técnica?
La primera patente norteamericana para una máquina de escribir la obtuvo
el ingeniero Christopher L. Sholes en 1868. Cuando las máquinas aparecieron
en el mercado se vio que tenían un inconveniente: los dactilógrafos
escribían más rápido de lo que permitía el mecanismo,
de manera que los tipos terminaban trabándose entre sí. Es precisamente
lo que hacíamos en el Comercial para inutilizar las máquinas de
escribir y zafar de una clase, escuchando las maldiciones del mecánico.
Fue entonces que Sholes se propuso diseñar un teclado que frenara a los
tipistas impidiéndoles que escribieran más rápido, y en
1873 inventó el QWERTY. Al poco tiempo Remington & Sons, que fabricaba
fusiles y máquinas de coser, se interesó por el invento y produjo
masivamente máquinas con el teclado lento. Los dactilógrafos tuvieron
que aprenderlo, las escuelas lo enseñaron, y cuando Mark Twain se compró
una Remington el nudo quedó atado para siempre. Nunca más logró
imponerse un teclado mejor, porque el desarrollo había quedado bloqueado
en una ruta obligada. Las computadoras, que en principio no limitan la velocidad
de escritura, siguen atadas a un diseño que entorpece al tipista. El
día que se extingan los teclados, morirán con el QWERTY puesto.
Todo esto lleva a pensar que el desarrollo de la tecnología no es lineal,
sino en buena medida estocástico. Los sistemas técnicos también
incluyen factores aleatorios, una buena dosis de inercia y una dinámica
propia de crecimiento.
Organos vestigiales
Si el mercado ejerce una suerte de selección darwiniana, tendría
que existir alguna paleontología de la técnica. Así como
en la evolución biológica hay órganos como el apéndice
o el lóbulo de la oreja que sobreviven como vestigios, algo parecido
debería ocurrir en la evolución tecnológica. De hecho (para
no salirnos del teclado) en las computadoras aún podemos observar un
pequeño órgano vestigial (la comilla recta) que es el último
recuerdo de la vieja Remington.
Existen tecnologías fósiles, vestigios de desarrollos abortados
o relegados por razones que solo el mercado “real” puede explicar.
¿Hay alguna razón para que las agujas del reloj se muevan de izquierda
a derecha y den dos vueltas por día? En las antiguas meridianas, la sombra
seguía el movimiento del Sol, de Este a Oeste. En algún momento
la dirección se invirtió, quizá por motivos mecánicos.
Pero en la catedral de Florencia existe un fósil: un reloj que marcha
de derecha a izquierda y marca las 24 horas. Lo diseñó nada menos
que Paolo Uccello, el pintor del Renacimiento que les enseñó perspectiva
a los florentinos.
Los rendimientos crecientes
Muchos clásicos de la economía sufrieron de cierta ceguera ante
la tecnología que estaba transformando el mundo ante sus ojos y durante
mucho tiempo no se apartaron del tríptico de Capital, Tierra y Trabajo.
La famosa “ley de los rendimientos decrecientes” señala que
el incremento de un insumo, como la mano de obra o los fertilizantes en la agricultura,
tiene un límite. En algún momento el rendimiento dejará
de crecer y comenzará a bajar, porque es imposible poner veinte campesinos
a trabajar en un metro cuadrado.
Esto es válido para las economías estáticas, pero cambia
sustancialmente con la innovación tecnológica, que produce rendimientos
crecientes (aun cuando reduzca el trabajo y aumente los requerimientos de capital)
porque cambia la calidad de los factores en juego. Eso es lo que no vio Malthus:
si su teoría fatalista de la población hubiese sido correcta,
no estaríamos acá para contarlo.
Entre aquellos que vieron la importancia de los rendimientos crecientes que
ofrece la tecnología estuvieron Alfred Marshall y Joseph Schumpeter,
pero en su tiempo todavía no contaban con recursos matemáticos
para estudiarla.
Quien recibió el Premio Schumpeter en 1990 fue Brian Arthur, un científico
que habría que calificar como “multimedial” aun en tiempos
de trabajo interdisciplinario. Arthur había sido uno de los primeros
investigadores del famoso Instituto Santa Fe de New Mexico, Estados Unidos,
dedicado al estudio de una nueva ciencia: la complejidad. El Instituto había
sido fundado por veteranos como los físicos Philip Anderson y Murray
Gell-Mann (el padre de los quarks) y el Nobel de Economía Kenneth Arrow,
que estaban dispuestos a buscar un nuevo paradigma científico para el
siglo XXI.
Por cierto, el Instituto contaba con importantes aportes de capital, desde que
en 1986 John Reed le había encargado esa revisión de la economía
que estaba haciendo falta después de la crisis de la deuda externa. Obviamente,
este John Reed no era aquel que escribiera sobre “los diez días
que conmovieron al mundo”, sino todo lo contrario: era el CEO de Citicorp.
Un hombre multiple
Es muy interesante ver cuál había sido la formación profesional
del irlandés Brian Arthur, a quien debemos varios de los ejemplos que
hemos visto. Arthur comenzó como ingeniero eléctrico en Belfast;
luego estudió investigación operativa, se radicó en los
Estados Unidos y se interesó por la economía cuando trabajaba
para una consultora en Alemania. Observó que la economía neoclásica
estaba muy matematizada, algo que gracias a su formación no lo amedrentaba,
pero sufría de una radical dependencia con respecto a la física
clásica. La idea central era la de equilibrio, como si la economía
fuera un perfecto sistema inercial. Pero la realidad resultaba mucho más
inestable y a menudo escapaba al reduccionismo.
Cuando pasó una temporada investigando demografía en Bangladesh,
Arthur leyó sobre biología molecular y quedó fascinado
por las ideas de Prigogine.
Se le ocurrió entonces la idea de que la economía podía
ser un sistema autoorganizativo, más cercano a la biología que
a la física clásica. Ya no sería una “física
blanda” sino una ciencia de alta complejidad. Sus instrumentos vendrían
de la matemática del caos y de la física no lineal. Un ecosistema,
un huracán tropical y una crisis financiera podían ser comprendidos
mejor con esas herramientas.
Se trataba de estudiar los rendimientos crecientes más que los decrecientes;
la dinámica evolutiva, en lugar del equilibrio ideal; el feed-back y
los sistemas organizados a partir de factores aleatorios, como los que aparecen
en la tecnología. Había que renunciar al reduccionismo para acercarse
a los modelos ecológicos y las ciencias sociales.
Los últimos Premios Nobel parecen responder a esta tendencia, espoleados
por las crisis globales, las burbujas financieras y otros problemas que los
mandarines del FMI no terminan de entender.
Para todos aquellos que andan obsesionados con los nuevos paradigmas, se recomienda
dejar de buscarlos por caminos dudosos. Ahí tienen uno.
(Versión para móviles / versión de escritorio)
© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux