Agustín Berti se especializa en filosofía de la técnica y su investigación se centra en los cambios que introducen los procesos de digitalización y las plataformas en la vida social y política. Es profesor titular de la carrera de Cine y TV de la Universidad Nacional de Córdoba, investigador adjunto en el Instituto de Humanidades y director alterno de la Maestría en Tecnología, Políticas y Culturas de esa universidad. Integra Dédalus, grupo de investigación sobre la técnica. Junto a Diego Parente y Claudio Celis coordinó el Glosario de Filosofía de la técnica (La Cebra, 2022) que reúne 125 entradas sobre el tema de 85 filósofos e investigadores iberoamericanos. Su libro más reciente es Nanofundios. Crítica de la cultura algorítmica (La Cebra/Editorial de la UNC, 2022).
Plantea que en general, desde las humanidades se piensa que la tecnología es algo que se opone a la cultura o que la amenaza, pero en su libro hay hipótesis provocadoras en la dirección contraria: “no hay nada más humano que lo técnico y nada más técnico que lo humano”. Tras reposicionar la técnica en relación a la vida social, Berti plantea que están surgiendo nuevos ordenamientos económicos en los que se agudiza la concentración y ante los cuales urge renovar la respuesta política, más allá de la mera reacción defensiva.
--¿Qué es un nanofundio?
--Es una provocación teórica que recupera el concepto de latifundio, pero en relación con lo infinitesimal de la nanotecnología. Es una propuesta irónica -- pero no tanto-- de expandir la disputa por la distribución de la tierra a las superficies de almacenamiento de la información digital. Facebook es un nanofundio. Y todas las grandes corporaciones digitales tienen un elemento nanofundista desde que capturan información y la privatizan. Google privatiza la experiencia sensible del mundo y al codificarla en sus servidores, realiza una acumulación originaria de los inputs del mundo que pasan a ser privados. No es una acumulación de capital ni es estrictamente plusvalía --para esto tendría que haber trabajo humano— y no hay consenso en los investigadores de que el mero uso de estos dispositivos sea “trabajar”. Tiziana Terranova lo ha conceptualizado como “trabajo libre”, pero otros como Claudio Celis Bueno, revisando las tesis de la economía de la atención, discuten si el mero hecho de prestar atención es trabajar. En todo caso, estas tecnologías funcionan en la medida en que prestamos atención. Son Whastapp, Netflix, Google, Instagram... Si bien capturan datos de distintas esferas del quehacer humano, no me animaría decir que siempre exploten nuestro trabajo en el sentido clásico del término.
--Según Byung Chul Han trabajamos gratis.
--Quizás usar “trabajo” sería forzar un concepto previo –la transformación de la materia mediante el uso de la energía humana-- y no es exactamente lo que sucede en cada momento en que interactuamos con dispositivos que capturan nuestros gestos y nuestros datos, y luego los codifican reconociendo patrones. No creo que esas actividades puedan conceptualizarse como trabajo y extracción de plusvalía. La marxista australiana Mackenzie Wark dice que ya no estamos bajo el capitalismo, sino bajo algo mucho peor por el ascenso de una nueva clase social, los vectorialistas: no son los dueños de los medios de producción sino de las empresas que pueden orientar y controlar los flujos informacionales (Amazon, Facebook, Google, Red X…). La clase capitalista quedaría subsumida a la anterior y sería superada.
--Veo algo así como un trabajo inconsciente. Estamos produciendo una materia prima, un commodity que es el más valioso de la tierra –datos-- que otros monetizan sin pagarnos, salvo con un entretenimiento adictivo que retroalimenta la producción. Al menos el resultado se parece al fruto del trabajo.
--Sí. Hay una apropiación, pero no es estrictamente equivalente a la de la explotación o del extractivismo, si pensáramos a los datos como recursos naturales. Lo que está en juego no es una apropiación del trabajo, sino una expansión de los apropiables, incluso en los momentos de no trabajo. Por eso las nociones clásicas resultan insuficientes. Por supuesto que la jornada laboral también participa de esta dinámica: todas las actividades están siendo sujetas a distintos modos de vigilancia algorítmica. Amazon y otras empresas de logística han avanzado mucho en la cuantificación de los movimientos de los trabajadores utilizando biometría, tracking y otras tecnologías de seguimiento del cuerpo o de la mirada. Pero también otro tipo de empresas como Netflix hacen eso: registran qué es lo que estamos haciendo en la computadora y capturan nuestras acciones, gustos, preferencias y expectativas, generando un saber sobre nosotros que excede el del tiempo del trabajo. Así capitalizan el ocio. Ted Sarandos llegó a decir que la competencia de Netflix no eran HBO ni Fox, sino Facebook y el sueño, aquellos territorios donde la atención no ha sido suficientemente colonizada. Por eso ya no estamos en el régimen del capitalismo industrial del siglo XX. Habría que ver qué es esto, y si sigue siendo pertinente considerarlo capitalismo. El concepto de plusvalía no funciona del mismo modo.
--Su libro habla de la tendencia a la concentración de la cultura digital bajo la forma de una reterritorialización de los flujos de información en granjas de servidores. ¿Qué son estas granjas?
--Son el modo técnico en que Internet pudo ser alambrado para delimitar los nanofundios. Allí se aloja la información sobre billones de personas y también de cosas. El nanofundismo es un sistema particular de gestión de archivos. Para que Internet funcione tengo que tener acceso rápido a los archivos que estoy solicitando. Netflix reproduce un archivo y para que eso suceda, hace falta una infraestructura que pueda soportar toda esa demanda de información multitudinaria de manera simultánea. Esto es distinto al sistema del broadcasting de TV que emite una señal y la toman todos los que quieran y puedan capturar la señal: no afecta en nada que haya un millón de televisores porque no compiten entre sí por la señal que cubre un territorio. Para Internet, que una multitud quiera acceder a las imágenes al mismo tiempo, sí genera competencia por la señal. Para canalizar ese flujo de información se habilita una granja de servidores administrando el acceso masivo. Pero, al tener capacidad de registrar toda la interacción del usuario, se genera una captura masiva de datos. Y para operar sobre esos datos, hay que poder procesarlos. No se trata solo de capturar los datos, sino almacenarlos de manera eficiente y analizarlos. Debe haber Inteligencia Artificial y Machine Learning para que se genere valor mediante reconocimiento de patrones, clasificación y luego generación de patrones. Primero crean un mapa de lo que está sucediendo –operaciones de bolsa, tráfico en la ciudad, consultas sobre síntomas de COVID--, luego se captura el segmento de lo que ocurre y sobre eso se reconoce un patrón. Entonces se entrena al sistema a partir de esos datos y se comienza a generar patrones. Así se gana la capacidad predictiva que está en el corazón de estas tecnologías. No puedo tener tecnologías de este tipo sin un grado de predicción orientada al futuro. Esto no es nuevo: para diseñar el funcionamiento de un arco y flecha --o programar la trayectoria de un misil-- debo poder proyectar en el tiempo a futuro. Hay una relación indisociable entre tecnología y futuro que estas tecnologías predictivas ayudan a determinar de manera cada vez más precisa y veloz.
-¿Qué aspecto y forma tienen esas granjas?
--Una granja de servidores es un edificio que aloja discos rígidos optimizados en grandes racks: pilas y pilas de discos que almacenan información. Son cientos de miles de computadoras en línea, por eso se les dice granjas. Se ven como pasillos donde los operarios tienen acceso a las computadoras conectadas. Está muy extendida la idea de que lo digital es una desmaterialización, una nube que flota sobre nosotros. Pero no, justamente: el chiste de la palabra nanofundios es que no hay desmaterialización, sino codificación, miniaturización e inscripción de la información en servidores en territorio que suelen estar en territorios físicos y amparados por la legislación de ese país. Y en esa condición codificada, la información ya no resulta accesible a nuestros sentidos: para poder percibirla tendríamos que hacer como esos personajes de Matrix que pueden leer directamente el código en la pantalla, pero eso es ciencia ficción. Toda información digital está codificada y necesitamos una computadora que la decodifique para que nos sea accesible: no podemos hacer la cantidad de operaciones mentales que nos permitan transformar ese código en una imagen. Las granjas almacenan esa vastísima cantidad de cadenas de código y las dejan disponibles para que se ejecuten en la computadora cuando lo solicitemos. Eso es la digitalización: la miniaturización y la aceleración de la cultura.
--¿Cuál es el paralelismo entre nanofundio y latifundio?
--El latifundio se refiere a la propiedad de la tierra. Acá la apuesta es empezar a entender este tipo de apropiaciones de la cultura por parte de privados como una nueva forma de latifundismo. Pero que en vez de acaparar la tierra, acapara la cultura humana en formato digital.
--Los nanofundios son “grandes espacios” en un territorio ínfimo
--Sí, pero un territorio donde cabe toda la cultura, todo aquello que es codificable. Y cabe porque está miniaturizado. Es como el cuento de Borges “Del rigor de la ciencia”: el emperador pide un mapa del imperio y como no está contento con el nivel de precisión del mismo, manda a crear uno más grande. Los mapas van creciendo tanto en tamaño que eventualmente hace falta un mapa para navegar dentro de los mapas. Y al final hay mapas del tamaño de una provincia, para los que se necesitan mapas del tamaño de una ciudad… Al final el proyecto es abandonado. Esa idea de un mapa que coincida exactamente con el mundo, es lo que quieren hacer estas corporaciones, pero basadas más en lo “perceptivo” (captar datos) que en lo “inteligente”. La idea de inteligencia artificial es engañosa: lo que hay es percepción artificial, una percepción a una escala que nuestros sentidos nunca podrían acceder.
--¿Máquinas sensibles?
--Un texto de Matteo Pasquinelli y Vladan Joler --“El Nooscopio de manifiesto”-- propone que las IA, más que inteligencias, son sistemas de percepción artificial, sistemas técnicos de magnificación del conocimiento. Así como el microscopio nos permite acceder a lo diminuto y el telescopio a lo lejano, con las IA entendidas como nooscopios se accede a una vastísima cantidad de información, de manera tal que uno pueda ver algo en ella. Nuestros sentidos no pueden procesar esas magnitudes de datos. Así, las IA no “piensan”, son apenas técnicas de visualización de información. Por eso las llaman nooscopios, instrumentos de percepción del conocimiento, utilizando el prefijo “noos” (“intelecto” en griego) en vez de “tele” o “micro”. Son “lentes” para ver el conocimiento. Y operan en los nanofundios, en las granjas de servidores donde se alojan las operaciones bancarias del mundo, las megabibliotecas digitalizadas y los registros de la vida social on-line. Los censistas del pasado usaban un nooscopio analógico: iban casa por casa capturando datos en planillas que luego los analizaban ojos humanos y el resultado se alcanzaba años más tarde. Hoy la segunda parte de ese trabajo se hace en nanosegundos. Ahora le decimos IA, hace unos años le decíamos Big Data. Pero no son ni particularmente grandes (cualquier biblioteca de una universidad mediana ocupa más espacio) ni inteligentes.
--¿Hay un edificio de Facebook donde si cayera un misil desaparecería toda la información?
--Tienen backups en otros lugares físicos. También los llaman data centers. Internet surgió como una red descentralizada para evitar el problema de perder la comunicación en caso de un ataque nuclear o un desastre. En vez de tener un único centro que organiza la información, está distribuida. Además, puede comunicarse entre sí a través de diferentes vías: no es unidireccional. Cada data center es un predio cerrado con un sistema de refrigeración: son dispositivos que están permanentemente computando, consumen energía y se van calentando. El gran costo de las granjas de servidores es el enfriamiento. Hay proyectos de construir granjas de servidores bajo el mar para ahorrar costos energéticos. Por eso es el impacto ecológico de las criptomonedas. El funcionamiento de Bitcoin consume 149 terawatts por año, más de lo que consume nuestro país.
--Se dice que hoy tenemos en el bolsillo más información que la que había en la biblioteca de Alejandría, Google mediante. ¿Cómo se mide la información?
--Este es un problema teórico muy debatido. De la teoría matemática de la información en adelante, hay muchas formas de medir la información. ¿Qué es información? Es la codificación de datos de manera tal, que después puedan ser decodificados y reconstituidos en algo que tenga sentido en términos humanos. Todas las fotos de gatitos del mundo son información. Ahora, en términos del valor de esa información, ¿cuánto valen todas las fotos de gatitos? Poco. Porque esas fotos son información redundante: como suele insistir un filósofo de la computación como Javier Blanco, ahí, en la redundancia, hay muy poca información. Para otras teorías, la información es aquella ocurrencia de algo en el mundo que genera una diferencia. Si no genera una diferencia, es ruido. Hoy en día hay abundancia de ruido y lo necesario para extraer riqueza es obtener información entre el ruido. Y eso implica encontrar, descubrir o reconocer algo desconocido entre toda la redundancia que aporte novedad al mundo.
--La IA y los buscadores buscan patrones de repetición
--Buscan reconocer patrones e identificar anomalías. Porque la anomalía va a estar en aquello que aún no ha sido suficientemente mapeado. Después se puede reconocer un nuevo patrón sobre esas anomalías que la máquina ha distinguido. El paso siguiente es normalizarlas y ponerlas en serie: encontrar otras anomalías similares.
--¿Y así descubrir al terrorista agazapado?
--Sí. Sobre una serie de patrones de movimiento, hay que encontrar el movimiento atípico y prestarle atención solo a ese, y no gastar ni recursos ni agentes en los movimientos típicos. Luego se debe encontrar una explicación de por qué ese movimiento es atípico. Puede que sea un accidente, un error o un terrorista. Incluso puede que sea algo para lo que no hay aun un concepto.
--Toda información no patronizable se desecha. Pero hay ciertos micropatrones que te identifican al que quizás va a cometer un acto terrorista porque está haciendo algo no común.
--Claro, el tema es reconocer esa irregularidad y regularizarla para que nos indique eso va a suceder. Pasquinelli lo llama la policía de los patrones. Por eso, los patrones también pueden ser predictivos. Porque en algún momento se deja de solo reconocer patrones, para empezar a proyectarlos.
--Así funciona la smart city que estudia en vivo los flujos de tránsito y personas.
--Sí. O como se hizo durante la pandemia con la predicción de casos para aplanar la curva. Dada tal secuencia de contagios, era previsible que se llegara a tal pico. Entonces, en función de eso, se tomaban medidas.
--A veces fantaseo con la idea de que algún Bin Laden digital borre Facebook e Instagram. No me parece tan imposible.
--La serie Mr. Robot es sobre esto. Una banda de hackers se propone abolir el capitalismo eliminando las deudas. Planean borrar los registros contables de los grandes bancos. Atentan contra las granjas de servidores y sus back-ups al unísono para que no se activen los protocolos de seguridad que generan copias de resguardo. El encanto de la serie está en que el personaje central es un paranoico y uno no sabe si está alucinando o si efectivamente está destruyendo el capitalismo. La novela Detalle infinito de Tim Maughan postula qué pasaría si un virus se extiende por todo internet y lo destruye. Y la destrucción de internet no resulta allí ser el apocalipsis, sino el regreso a la Edad Media con logísticas mucho más lentas, generando una crisis en la cadena de suministros, hambrunas y pestes. El resultado es una baja sensible de la población. No se acaba la humanidad, simplemente se frena todo, provocando millones de muertes.
--Hay una teoría apocalíptica: si se desarrollara una superintelingencia artificial, actuaría con lógica darwinista, tratando de destruir a todas sus competencias.
--Es la hipótesis de Skynet, la máquina que manda el Terminator desde el futuro en la película de James Cameron. Pero esto supone la posibilidad de pensamiento maquinal, proyectándose así cualidades antropomórficas en tecnologías que no las tienen. Sería como preguntarnos si un submarino puede nadar. ¿Por qué nos preguntamos si una computadora puede pensar? La tesis de la rebelión de las máquinas está desde el origen mismo de la reflexión sobre la técnica, entendida como una pérdida constante de capacidades humanas por la delegación. Pero de ahí a que esa delegación de actividades suponga inteligencia por parte de la máquina… me parece una proyección ingenua, una especie de miedo atávico, un momento animista. Es lo que pasa ahora con la IA. Está esa discusión sobre si llegará la inteligencia artificial general. En realidad, son grandes modelos lingüísticos, máquinas estadísticas. Y los modelos estadísticos no “piensan”.
--Un rasgo de la era digital es que interactuamos con máquinas sensibles que son dispositivos que perciben el mundo y a nosotros, y nos estudian. Antes nos relacionábamos con las máquinas de manera más unidireccional. Las encendíamos apretando un botón y actuaba. No nos escuchaban ni nos miraban. ¿Cómo cambió nuestra relación con la tecnología en el XXI?
--Eran máquinas sin memoria. Justamente por eso la importancia de la granja de servidores, que son la memoria de las máquinas. Es el lugar donde queda asentado el registro de esa percepción de la máquina. Antes había máquinas sensibles, pero con muchas mediaciones humanas. La imprenta es una tecnología de registro y de memoria: puedo leer un libro que escribió alguien hace 500 años. Lo mismo con la fotografía. Incluso las máquinas industriales eran formas de memoria de los gestos del artesano. Se comprendía cuál era el movimiento del zapatero o del hilandero y se producía una máquina capaz de replicar ese trabajo con otros medios.
--Ha surgido en el mundo digital el oficio de tagueador: trabajan para Open IA colocando tags en información para entrenar a la IA. Hay ejércitos de ellos –la mayoría en África—, un trabajo muy repetitivo y mal pago.
--No es tan nuevo. Cuando Jeff Bezos en Amazon encontró un límite a la capacidad de procesamiento de información, inventó el Turco Mecánico de Amazon. El Turco Mecánico fue un mecanismo del siglo XVIII que se presentaba como un autómata ajedrecista. Pero era operado por una persona pequeña oculta adentro que lo manejaba. Cínicamente, Bezos llamó así a su sistema de IA para reconocimiento de objetos en sus almacenes: es una IA “artificial” y no una “orgánica”, ya que requiere muchísimo trabajo humano invisibilizado. Al etiquetar, un humano ve durante un día 2000 fotos de gatos y le informa a la máquina que eso es un gato para que aprenda a reconocerlos. Es una tercerización del trabajo perceptivo. Por eso Pasquinelli y Joler dicen que el nooscopio es una forma de extractivismo de conocimiento. Amazon terceriza el taggeo en esa línea de montaje con sueldos miserables.
--Un rasgo que usted marca en su libro es que nuestra atención es capturada por las máquinas sensibles y esto es parte de disputas geopolíticas mundiales. En EE.UU. algunos quieren prohibir TikTok y China prohíbe Facebook y Google.
--Es porque hay dos modelos de asociación Estado-corporaciones en pugna. El marco político de la vinculación del estado chino con sus corporaciones como Baidu, Alibaba y WeChat, es diferente. TikTok fue la primera empresa china que se adoptó masivamente en Occidente. La respuesta de Facebook a ese fenómeno fue Instagram, que es lo más parecido a TikTok por sus reels y esa nueva dinámica para la captura de atención en tiempos cada vez más breves. Un reel dura cinco segundos y la gracia está en inducir al scroll de contenido en el que, si uno se descuida, pasó 45 minutos viendo el teléfono. Y en esos 45 minutos no estuvimos en otra aplicación: la aplicación retuvo así nuestra atención y luego capturó datos sobre por dónde pasamos, a qué volvimos, qué repetimos. Y terminará ofreciéndonos productos de nuestro interés. Es un sistema perceptivo que se retroalimenta y tiene --como toda la economía de plataformas-- una estructura diversificada dentro de una misma empresa. Zuckerberg tiene Facebook, WhatsApp, Instagram y Threads, que son parte de un mismo ecosistema y que comparten información entre sí. En parte, debido a esto, el aburrimiento hoy se ha vuelto intolerable.
--Heidegger planteó que nuestra relación con la tecnología implica, de alguna manera, una pérdida del ser, como si hubiese una esencia constitutiva y ancestral que se estuviese modificando. Habla de una pérdida. Byung-Chul Han --un heideggeriano-- llora la pérdida del orden terreno frente al orden digital y reivindica cierto regreso a la tierra en un tono de nostalgia, que es bastante difícil en la gran ciudad. Reivindica islas analógicas en su casa como la vitrola, un jardincito en el fondo y la recuperación de la vida contemplativa para que la tecnología no lo arrase. En tu libro pensás distinto. Comparto la idea de que no hay nada más humano que la tecnología: es lo que más nos diferencia de otras especies. Antes que poshumanos, tecnología mediante, seríamos híperhumanos.
--Esa tesis de Han es una reactualización del texto de Heidegger “Serenidad” y la idea de la Gelassenheit, que es la del retiro a una vida más contemplativa en el claro del bosque. El problema es que no hay bosque para todos. Políticamente no es viable. Hay gente que se lo toma más en serio y piensa como Donna Haraway, en un decrecionismo: reducir la población humana desde los 8 mil millones actuales a 2 mil millones en 200 años, para que el planeta sea sustentable. Yo estoy más cerca de alguien que también leyó a Heidegger, pero en otro sentido: Bernard Stiegler y su idea de una coevolución de humanidad y técnica, asumiendo que en realidad nunca hubo una humanidad pura y natural a la cual volver, porque la humanidad siempre tuvo una relación co-constitutiva con la técnica. La oposición entre técnica y humanidad es engañosa. No hay humanidad “natural”, nunca la hubo. Por eso me parecen ingenuas las miradas nostálgicas, porque no reconocen el altísimo grado de tecnicidad implicado en tecnologías “viejas” y las perciben como más “naturales”. Pensemos en la reivindicación del libro, que hoy a veces es considerado como un objeto no tecnológico por oposición al eBook (Han llega a llamar no-cosas a lo digital). En realidad, el libro analógico es un objeto tecnológico sumamente complejo por la cantidad de tecnologías asociadas a la producción de papel y tinta, el diagramado, la impresión, el corte, el cosido, el montado.
--La nostalgia suele encerrar una cuota de conservadurismo. Concuerdo con Stiegler: somos seres protésicos desde que creamos la lanza como extensión del brazo. Y la lanza no es buena ni mala, pero tampoco neutra. No perdemos ninguna esencia por el cambio tecnológico. Si consideramos esencia a un sustrato permanente que nos constituye desde y para siempre, esa parece ser justamente la tecnología, la cual nunca se detiene.
--Stiegler no plantea que la humanidad aparece de un momento para otro, sino que hay un proceso de miles de años de evolución en los cuales el interior humano se desarrolla en paralelo a la evolución del exterior humano. Comenzar a producir objetos permite comprender que hay algo fuera de uno. Y utilizarlos, también funda el tiempo. Porque permite prever cuál será el efecto que ese uso de un objeto desencadenará. Por eso Stiegler dice que “la técnica funda el tiempo”. No hay percepción del tiempo antes de la técnica, porque si no, vivimos en el eterno presente de los animales, algo que por otra parte tampoco es tan así, porque tienen memoria. La técnica es una preservación de formas: la lanza es una forma de memoria del gesto y la capacidad de proyectar la fuerza en ese artefacto externo a mí, creado por otro, pero que yo puedo continuar utilizando.
--Su libro analiza qué es un objeto digital.
--Para poder existir, una máquina común necesita un medio asociado: no hay submarino sin aguas profundas; no existe dique sin río. Ese tipo de negociaciones con el territorio son características de todas las máquinas. La máquina no debe recalentarse para seguir funcionando. Hay límites que les impone el mundo físico. Con el objeto digital pasa otra cosa: el medio asociado en el cual funcionan también es digital. Si tengo un archivo de Word, para que pueda existir como tal, tengo que tener el procesador de texto Word –otro objeto digital-- que necesita del medio asociado Windows, que a su vez necesita del sistema operativo. Es decir que el intérprete del código también es un código. Y un objeto digital justamente tiene esa particularidad: tanto el objeto como el medio --aquello que interpreta que eso es un objeto y le asigna sus propiedades-- son código. Con el resto de las máquinas eso no pasa. Tenemos la máquina por un lado; y por el otro, está el mundo, que es el medio en el que opera esa máquina. Y el mundo no es la máquina. Son dos cosas distintas. El río nunca va a ser represa y el agua nunca va a ser submarino: no puedo hacer esa indistinción ontológica que sí sucede en los objetos digitales. Esta es una particularidad que permite una flexibilidad enorme. Y hace que los objetos digitales tengan una potencia gigante.
--Usted se resiste a las tentaciones evolucionistas que suelen presidir las reflexiones sobre la tecnología.
--Se trata de no aceptar el mito del progreso, la idea de que la tecnología siempre avanza linealmente. Es también una simplificación de la teoría de darwiniana que es más compleja. Y en las personas esa idea de que el futuro siempre será mejor suele coexistir con el temor atávico a la tecnología. Todos tenemos momentos distópicos y momentos tecnoutópicos. Entonces, lo que hay que tener es una comprensión del fenómeno técnico como un aspecto más de lo que las sociedades tienen que discutir y decidir colectivamente. Cada nueva tecnología reformula el mundo, y esto no es para bien o para mal, sino que lo reformula. Por eso para Gilbert Simondon es tan importante la educación tecnológica, para volver a reconciliar la tecnología como parte constitutiva de la cultura.
--No rechazarla sino reapropiarla
--Comprenderla, incorporarla a vida cotidiana, no alienarse de la tecnología. Así como para Marx había que desalienarse del trabajo, para Simondon no hay que alienarse de la tecnología. Que no sepamos cómo funciona una IA hace que se repitan en los medios pavadas como que las máquinas piensan y nos van a destruir. Nos va a destruir la voracidad de los empresarios vectorialistas, no sus máquinas.
--¿Hay espacio para nuevos grandes nanofundios? El ciberespacio ya está colonizado.
--Lo que se pierde de vista es que Silicon Valley pudo desarrollarse, porque atrás estaban el Pentágono, el Ministerio de Defensa, las universidades y todo el desarrollo de DARPA y ARPANET y lo que desembocó en Internet, que es la movilización de recursos de la principal potencia del mundo: detrás de cada gigante digital hay una asignación de recursos e intereses que excede largamente las capacidades de un innovador genial. Hay pocas cosas más subsidiadas que las grandes corporaciones tecnológicas. Lo máximo que puede aspirar un emprendedor es que Zuckerberg le compre su empresa, pero nunca va a llegar a ser un Zuckerberg, quien fue el último de esos emprendedores en llegar. No hay lugar para nadie más; ya se conformaron los oligopolios bajo la forma de lo que en el libro llamo nanofundios. El sistema decantó. Es como con las familias patricias: ya no quedó lugar para ser un terrateniente desde que las tierras las repartió Roca a sangre y fuego. El ciberespacio ya está todo loteado y solo podemos verlo a través del alambrado, que es la interfaz de las plataformas.