Slavoj Žižek - EL DESIERTO POST - HUMANO

A diferencia de las innovaciones tecnológicas pasadas, la inteligencia artificial no se trata del dominio de la humanidad sobre la naturaleza, sino más bien de renunciar al control por completo. Ya sea que nos demos cuenta o no, la vieja arrogancia antropocéntrica que permite la tecnología pronto puede dar paso a la irrelevancia humana y la falta de sentido.

La carta abierta del Future of Life Institute exigiendo una pausa preventiva de seis meses en el desarrollo de inteligencia artificial ya ha sido firmada por miles de figuras de alto perfil, incluido Elon Musk. A los firmantes les preocupa que los laboratorios de IA estén "atrapados en una carrera fuera de control" para desarrollar e implementar sistemas cada vez más poderosos que nadie, incluidos sus creadores, pueda entender, predecir o controlar.

¿Qué explica este estallido de pánico entre una cierta cohorte de élites? El control y la regulación están obviamente en el centro de la historia, pero ¿de quién? Durante la pausa propuesta de medio año, cuando la humanidad pueda hacer un balance de los riesgos, ¿quién defenderá a la humanidad? Dado que los laboratorios de IA en China, India y Rusia continuarán su trabajo (quizás en secreto), un debate público global sobre el tema es inconcebible.

Aún así, deberíamos considerar lo que está en juego, aquí. En su libro de 2015, Homo Deus, el historiador Yuval Harari predijo que el resultado más probable de la IA sería una división radical, mucho más fuerte que la división de clases, dentro de la sociedad humana. Muy pronto, la biotecnología y los algoritmos informáticos unirán sus poderes para producir "cuerpos, cerebros y mentes", lo que resultará en una brecha cada vez mayor "entre aquellos que saben cómo diseñar cuerpos y cerebros y aquellos que no lo hacen". En un mundo así, "aquellos que se suban al tren del progreso adquirirán habilidades divinas de creación y destrucción, mientras que los que se queden atrás se enfrentarán a la extinción".

El pánico reflejado en la carta de AI proviene del temor de que incluso aquellos que están en el "tren del progreso" no puedan dirigirlo. Nuestros actuales amos feudales digitales están asustados. Lo que quieren, sin embargo, no es un debate público, sino más bien un acuerdo entre los gobiernos y las corporaciones tecnológicas para mantener el poder donde pertenece.

Una expansión masiva de las capacidades de IA es una seria amenaza para quienes están en el poder, incluidos aquellos que desarrollan, poseen y controlan la IA. Apunta nada menos que al fin del capitalismo tal como lo conocemos, manifestado en la perspectiva de un sistema de IA autorreproducible que necesitará cada vez menos aportes de agentes humanos (el comercio algorítmico del mercado es simplemente el primer paso en esta dirección). La elección que nos queda será entre una nueva forma de comunismo y un caos incontrolable.

Los nuevos chatbots ofrecerán a muchas personas solitarias (o no tan solitarias) noches interminables de diálogo amistoso sobre películas, libros, cocina o política. Para reutilizar una vieja metáfora mía, lo que la gente obtendrá es la versión AI del café descafeinado o un refresco sin azúcar: un vecino amigable sin esqueletos en su armario, un Otro que simplemente se acomodará a sus propias necesidades. Hay una estructura de desautorización fetichista aquí: "Sé muy bien que no estoy hablando con una persona real, pero se siente como si lo estuviera, ¡y sin ninguno de los riesgos que lo acompañan!"

En cualquier caso, un examen minucioso de la carta de AI muestra que es otro intento de prohibir lo imposible. Esta es una vieja paradoja: es imposible para nosotros, como humanos, participar en un futuro post-humano, por lo que debemos prohibir su desarrollo. Para orientarnos en torno a estas tecnologías, deberíamos hacer la vieja pregunta de Lenin: ¿Libertad para quién hacer qué? ¿En qué sentido éramos libres antes? ¿No estábamos ya controlados mucho más de lo que pensábamos? En lugar de quejarnos de la amenaza a nuestra libertad y dignidad en el futuro, tal vez deberíamos considerar primero lo que significa la libertad ahora. Hasta que hagamos esto, actuaremos como histéricos que, según el psicoanalista francés Jacques Lacan, están desesperados por un maestro, pero solo uno que podamos dominar.

El futurista Ray Kurzweil predice que, debido a la naturaleza exponencial del progreso tecnológico, pronto estaremos tratando con máquinas "espirituales" que no solo mostrarán todos los signos de autoconciencia, sino que también superarán con creces la inteligencia humana. Pero no se debe confundir esta postura "post-humana" con la preocupación paradigmáticamente moderna por lograr la dominación tecnológica total sobre la naturaleza. Lo que estamos presenciando, en cambio, es una inversión dialéctica de este proceso.

Las ciencias "post-humanas" de hoy ya no tienen que ver con la dominación. Su credo es la sorpresa: ¿qué tipo de propiedades emergentes contingentes y no planificadas podrían adquirir los modelos de IA de "caja negra" para sí mismos? Nadie lo sabe, y ahí radica la emoción –o, de hecho, la banalidad– de toda la empresa.

Por lo tanto, a principios de este siglo, el filósofo e ingeniero francés Jean-Pierre Dupuy discernió en la nueva robótica, genética, nanotecnología, vida artificial e IA una extraña inversión de la arrogancia antropocéntrica tradicional que la tecnología permite:

"¿Cómo vamos a explicar que la ciencia se haya convertido en una actividad tan 'arriesgada' que, según algunos científicos de alto nivel, representa hoy la principal amenaza para la supervivencia de la humanidad? Algunos filósofos responden a esta pregunta diciendo que el sueño de Descartes – "convertirse en amo y poseedor de la naturaleza" – se ha vuelto erróneo, y que deberíamos volver urgentemente al "dominio de la maestría". No han entendido nada. No ven que la tecnología que se perfila en nuestro horizonte a través de la "convergencia" de todas las disciplinas apunta precisamente al no dominio. El ingeniero del mañana no será un aprendiz de brujo por su negligencia o ignorancia, sino por elección".

La humanidad está creando su propio dios o diablo. Si bien el resultado no se puede predecir, una cosa es cierta. Si algo parecido a la "post-humanidad" emerge como un hecho colectivo, nuestra cosmovisión perderá sus tres temas definitorios y superpuestos: humanidad, naturaleza y divinidad. Nuestra identidad como humanos puede existir solo en el contexto de la naturaleza impenetrable, pero si la vida se convierte en algo que puede ser completamente manipulado por la tecnología, perderá su carácter "natural". Una existencia totalmente controlada carece de significado, sin mencionar la casualidad y el asombro.

Lo mismo, por supuesto, vale para cualquier sentido de lo divino. La experiencia humana de "dios" tiene significado sólo desde el punto de vista de la finitud humana y la mortalidad. Una vez que nos convertimos en homo deus y creamos propiedades que parecen "sobrenaturales" desde nuestro viejo punto de vista humano, los "dioses" tal como los conocíamos desaparecerán. La pregunta es qué quedará, si es que quedará algo. ¿Adoraremos a las IA que creamos?

Hay muchas razones para preocuparse de que las visiones tecnognósticas de un mundo post-humano sean fantasías ideológicas que ofuscan el abismo que nos espera. No hace falta decir que se necesitaría más de una pausa de seis meses para garantizar que los humanos no se vuelvan irrelevantes, y sus vidas carezcan de sentido, en un futuro no muy lejano. Project Syndicate