Blog de la Caravana

La frontera humano-máquina: dos modos de hacer mundo

Benjamín Mayer FoulkesBlog de la Caravana

El presente texto se enmarca en una investigación en curso que conduzco en colaboración con el Ingeniero y Doctor en IA, Federico Grasso Toro, acerca de la relación entre humanos y máquinas en el ámbito de la inteligencia artificial, desarrollada desde un enfoque transdisciplinario que integra teoría de control y psicoanálisis lacaniano. Las siguientes proposiciones fueron planteadas en respuesta a la conferencia dictada el 23 de abril de 2026 por Pedro Aguilera Mellado, en el marco del Seminario Permanente «Destinación de las Humanidades», sostenido conjuntamente por el Departamento de Filosofía de la Universidad Iberoamericana y 17, Instituto de Estudios Críticos. 

 

Para tomar posición frente a la relación entre Inteligencia artificial, negatividad e infrapolítica, comenzaré por una distinción que consideramos fundamental y que, en general, no está suficientemente aclarada: la diferencia entre lo que hace la tecnología y lo que hace el ser humano. Sin esa distinción, cualquier crítica a la técnica, incluida la inteligencia artificial, corre el riesgo de volverse imprecisa o incluso de errar su objeto.

La tecnología, en el sentido más amplio, tiene la capacidad de determinar. Esto significa que organiza, dispone, encadena y estructura operaciones dentro de ciertos márgenes. Puede automatizar procesos y reconocer patrones para producir y regular sistemas que funcionan sin intervención. En ese nivel, la inteligencia artificial no es una excepción sino una intensificación: amplía la escala y la velocidad de esas determinaciones.

Ahora bien, sostener que la tecnología determina implica también que no introduce por sí misma una ruptura, una orientación nueva o un desplazamiento de sentido. Opera dentro de cadenas que, por más complicadas que sean, siguen siendo cadenas. En otras palabras, la tecnología puede transformar las condiciones, pero no decide qué hacer con ellas.

Pero esto no significa que los procesos automáticos son exclusivamente de máquina. Tanto la tecnología como ciertos procesos propios de la subjetividad —un ejemplo particular es lo que desde el psicoanálisis de Sigmund Freud y de Jacques Lacan se conceptualiza como el inconsciente— pueden pensarse como sistemas que funcionan solos (acéfalos nos gusta llamarles). Esto es clave: no existe un afuera puro de la automatización en el humano. La inteligencia artificial no introduce por sí misma el automatismo; más bien lo intensifica y lo vuelve visible en una escala técnica. Pero ese automatismo ya está presente en la estructura misma del humano. En ese sentido, lo que solemos llamar el ser humano no puede entenderse como un espacio de exterioridad respecto de los sistemas automáticos. Más bien, lo humano está atravesado por ellos. Hay cadenas que operan en el nivel de la técnica y cadenas que operan en el nivel del inconsciente (así lo entendió Freud y luego Lacan), y en ambos casos estamos frente a sistemas que se despliegan sin necesidad de una decisión consciente.

Ahora bien, la cuestión central no es constatar la existencia de estos automatismos, sino precisar qué tipo de intervención es posible en ellos. No toda intervención es del mismo orden, y no todo lo que hace el ser humano puede pensarse como intervención en sentido fuerte. Pues hay funciones humanas que son también automáticas, repetitivas, encadenadas, pero lo que nos interesa aislar es una forma de intervención que no consiste en producir más cadenas, sino en operar sobre las cadenas existentes mediante una re-orientación política de las mismas (que no sería posible si en el ser humano no habitara también lo sensible). A esto lo podríamos llamar, en un sentido amplio, una intervención de tipo causal.

Cuando hablamos de causalidad, no nos referimos a una causalidad mecánica ni a una capacidad de control sobre estos sistemas mencionados. Nos referimos, más bien, a algo más específico: la posibilidad de introducir una reconfiguración a partir de la dimensión sensible de la experiencia. Es decir, no se trata de generar estructuras nuevas desde cero, sino de intervenir en la forma en que lo dado se organiza, se percibe o se recontextualiza.

En este punto se vuelve importante distinguir dos modos de causalidad. Por un lado, la causalidad técnica, propia de sistemas como la inteligencia artificial, que opera mediante correlaciones, regularidades, optimización de procesos y encadenamientos automáticos de operaciones. Por otro lado, una causalidad que podríamos llamar de objetos sensibles, en la que lo que se pone en juego no es la producción de una secuencia eficiente, sino la posibilidad de reorganizar el campo de lo que cuenta como significativo. Ahí es donde se vuelve necesario ubicar con precisión la tarea del ser humano.

Lo propio de lo humano no es determinar, sino causar. Esto quiere decir: introducir una discontinuidad, producir una re-orientación y/o una re-contextualización de lo que aparece como dado. Si la tecnología encadena, el ser humano fundamentalmente, cuando lo considera necesario, interrumpe y reencauza.

Esta distinción no es menor, porque permite evitar un error bastante extendido: el de responsabilizar a la tecnología por efectos que, en rigor, dependen de cómo el ser humano se posiciona frente a esas determinaciones. No se trata de analizar qué puede hacer la inteligencia artificial, sino qué puede hacer el humano consigo mismo y con ella (no es habitual que nos preguntemos por eso).

La inteligencia artificial puede reorganizar datos, pero no puede reconfigurar el estatuto mismo de lo sensible en el que estos datos adquieren sentido.

Desde esta perspectiva, la pregunta por lo humano no es qué lo distingue de la máquina, sino qué tipo de operación humana es posible dentro de sistemas que funcionan solos.

Esto tiene una consecuencia importante que debemos atender: el problema de la automatización no es únicamente un problema tecnológico, sino estructural. Estamos ya en relación con sistemas que funcionan sin nuestra intervención directa, por eso, la cuestión no es eliminar la automatización, sino pensar qué tipo de posición es posible con relación a ella.

En este punto, proponemos desplazar la idea de ser humano como un sujeto sujetado a un resto irreductible e inaprensible que se halla frente a la exigencia técnica. Esa formulación es insuficiente, porque reintroduce una exterioridad que no existe. En cambio, recordamos que Lacan enseñó que ese resto puede objetalizarse, alejándolo así de su consideración como esencia o núcleo cristalizado de identidad, para que funcione como un operador.

Es decir, que el resto no quede fuera del sistema, sino que puede ser utilizado sobre el sistema como punto de intervención. Ese resto, por supuesto, ya no define lo humano como sustancia, sino sólo como función operatoria.

En términos más precisos, lo que llamamos intervención humana no consiste en escapar de los automatismos, sino en operar sobre ellos. Ese resto no es exterioridad, sino un punto de discontinuidad, de no cierre, que tiene el potencial de re-orientar y/o re-contextualizar el destino de la cadena.

Desde esta perspectiva, la infrapolítica puede ser pensada como el espacio de posibilidad donde se juega esta operación: en sistemas que funcionan solos puede reintroducirse una reconfiguración político-sensible de los destinos por venir.

La inteligencia artificial, en este marco, es un dispositivo que vuelve más evidente la existencia de estos sistemas automáticos y, al hacerlo, también hace más urgente la pregunta por las formas de intervención que no consisten en controlarlos, sino en operar sobre sus condiciones de sentido.

Por eso, en lugar de preguntarnos cómo resistir a la inteligencia artificial o cómo regularla desde fuera, tal vez la pregunta más pertinente sea: qué tipo de operación humana es posible cuando tanto lo técnico como lo subjetivo están atravesados por automatismos.

En definitiva, lo que está en juego no es la oposición entre humano y máquina, sino la posibilidad de intervenir dentro de sistemas automáticos —externos e internos— a partir de un resto que no define una identidad, sino una función: la de introducir causa humana allí donde todo tiende a funcionar por inercia.