Generalmente se cree que la filosofía no tiene incidencia en nuestras vidas. Pero la tiene todo el tiempo. A veces esto es un poco más evidente. Como en la llamada pandemia, cuando el neopositivismo como creencia cultural llegó al paroxismo en términos como facts, datos, y la negación de toda interpretación como si fuera false information, o como si la information, así sola, fuera posible.
Ahora pasa lo mismo con la llamada inteligencia artificial.
Siglos y siglos de reflexión filosófica, donde se ha tratado de explicar lo específicamente humano, son ignorados totalmente por no poder distinguir entre un algoritmo y la física cuántica por un lado y una persona que entiende, comprende, ama y decide por el otro. Las neurociencias han asimilado, como un Borg filosófico, a la antropología filosófica, la cosmología ha asimilado a la metafísica y por ende ingenieros informáticos y físicos se erigen ahora como los grandes maestros de la metafísica y de lo humano.
Los que hayan visto la peli “Yo Robot” recordarán por qué el detective protagonizado por Will Smith no quería saber nada con los robots N5. Porque uno de ellos había “decidido” salvarlo a él, que tenía mayores probabilidades de supervivencia, y no a una niña de 12 años que tenía menos. Claro, es que no “decidió” nada. Siguió un algoritmo y “salvó” a la probabilidad mayor (él) de igual manera que una cafetera hace café si ponés agua, café y la prendés.
“Deducir”, calcular, seguir un algoritmo, no es decidir. La decisión se da cuando en el razonamiento práctico, como explica Santo Tomás (a quien casi todo el mundo sigue ignorando) la conclusión no se sigue necesariamente de las premisas de la situación práctica. ¿Voy o no voy a mi clase de Aikido hoy? No hay ningún razonamiento deductivo que me permita decir “luego voy” porque en ese caso no habría decisión libre. Hay infinitas circunstancias que me permitirían decir “por ende no voy”, y a eso Sto Tomás llamaba el libre juicio de la razón. Si yo digo “si p entonces q, ahora bien p, luego q”, “q” no es una decisión. Es una conclusión necesaria. El libre albedrío se da precisamente cuando hay que elegir entre posibilidades contingentes que no obligan necesariamente a la voluntad. Vos podés poner al famoso y nuevo dios chat GPT para que te hable sobre tu novia. Pero si te casás con ella diciendo que el chat etc te lo dijo, el matrimonio es nulo. Está tu libertad de por medio.
Claro, para que haya libre albedrío, tiene que haber entonces inteligencia, que tampoco es sólo cálculo. La inteligencia es captación, comprensión de lo real, autoconciencia. Por más que ingenieros y físicos sigan burlándose de Descartes, una computadora no puede tener autoconciencia y decir “soy”. Cuando una madre le dice a su hija que no salga con un violador serial aunque sea tan atractivo como Brad Pitt, no está calculando. Está comprendiendo lo real. Está entendiendo lo real. Y por eso puede aconsejar. El consejo no es un algoritmo.
Ya que a los informáticos dicen que razonan, razonemos.
Si la inteligencia fuera reducible a lo físico, sea neurona o computadora cuántica, no podría captar sino lo físico, porque ninguna acción puede exceder la naturaleza de quien la hace. (Este razonamiento ya estaba en Sto Tomás con ejemplos de su época).
Pero es así que entendemos algo que está más allá de lo físico.
Luego la inteligencia no se reduce a lo físico.
¿Y cómo sabemos que la inteligencia capta más allá de lo físico?
Popper, que creo que está más cercano a nosotros, lo explicó con su teoría de los tres mundos. (Ya veo a los informáticos diciendo “andate a la M con tu filosofía”, bueno, ese es precisamente el problema). Si preguntamos, conforme al ejemplo de Popper, qué es “la” teoría de la relatividad, la respuesta no es los millones y millones de canales físicos en las que está impresa. Mensaje y canal físico no es lo mismo. El libro físico donde está impresa la teoría no es la teoría. Sea libro físico o silicio.
Tampoco se identifica con el mundo 2, esto es, las emociones humanas que despierta la teoría. Me gusta, no me gusta, me es fácil, me es difícil, nada de eso tiene que ver con la teoría considerada “en sí misma”. La teoría considerada en sí misma es el mundo 3. Las teorías consideradas en sí mismas son el mundo 3, esto es, “lo que” la teoría dice. Y eso no tiene nada que ver con la grabación de un mensaje en una computadora ni con lo que esta última pueda calcular siguiendo un algoritmo.
No casualmente, el mundo de las teorías consideradas en sí mismas está para Popper relacionada con el diálogo y el libre albedrío. Si estuviéramos programados a decir lo que decimos, ¿para qué el diálogo? Si yo quisiera explicar a alguien que X pero ese alguien está determinado, porque es una computadora, a decir NO X, ¿para qué dialogar? ¿Para qué toda la literatura, la filosofía, para qué todo lo humano? Si tu hija, que te ama y te abraza y te dice “papi”, está siguiendo su programa, porque el cerebro humano y la computadora son lo mismo, ¿eso es amor?
Y no casualmente Santo Tomás y toda la tradición escolástica basaron lo específico de lo humano en su capacidad de abstracción.
Sí, ya sé que las llamadas inteligencias artificiales se basan en la física cuántica, pero el indeterminismo cuántico no es el libre albedrío ni la inteligencia. La intederminación onda-partícula no tiene nada que ver con una decisión libre. Si voy o no a ser fiel a mi esposa no es lo mismo que el famoso gato que está vivo o muerto al mismo tiempo. La decisión libre no tierne nada que ver con el experimento de la doble rendija ni con el principio de indeterminación, ni con el entrelazamiento cuántico ni con nada de eso.
Parece que el chat GPT ha hecho explotar una bomba. Y para eso sirve. Ha puesto en evidencia la inutilidad del sistema educativo formal basado en la repetición y no en la inteligencia. Curiosamente, el avance de la computación ha mostrado que el positivismo pedagógico, basado en “escucho/leo – copio – repito – no entiendo nada – me saco 10” es una farsa de p a pá. También ha puesto en evidencia que los estudios universitarios han derivado en tecnicaturas, no en pensamiento; en entrenamientos para la resolución casi mecánica de problemas que obviamente los puede hacer una computadora. Por eso la crisis en temas de informática, administración, medicina, etc.: finalmente, los cálculos los pueden hacer las máquinas. Pero la decisión libre, la prudencia, la experiencia de lo humano, no. Pero si creemos que la inteligencia artificial es inteligencia, entonces creemos y creíamos que las vocaciones humanas son iguales a cálculos. El médico no diagnostica, calcula. El profesor no enseña, repite. El alumno no aprende, repite. El contador y administrador no aconsejan, calculan. El empresario no pondera oportunidades, calcula. El juez no falla, calcula. Y así. Claro, como los cálculos no eran tan avanzados, entonces los humanos estábamos “para lo que le falta aún a la máquina pero que ya va a llegar”. Bueno, llegó. Y como creíamos y creemos que pensar es calcular, nos vemos desplazados. Claro, una buena advertencia para una concepción del mundo donde los humanos ya nos estábamos comportando como máquinas. Una vez, hace 20 años, puse en esos tan usados, antes, contestadores automáticos: “usted está hablando con Gabriel Zanotti. Si quiere saber de Hegel marque 3. Si quiere saber de Descartes, 2. Si quiere saber de Parménides, 1. Y si quiere saber de Heidegger no marque nada y listo”.
El avance de la llamada inteligencia artificial, o sea máquinas de calcular muy avanzadas, no es un problema. El problema fuimos y somos nosotros que nos creemos máquinas. Entonces sí.
Es hora, entonces, de acordarnos de que éramos humanos, es hora de recordar lo no calculable de la filosofía, la literatura, el arte, lo religioso, lo mítico, lo simbólico, lo prudencial, el amor auténtico, la sabiduría del abuelo.
Es hora de que el positivismo cultural entre en su crisis más profunda.
Tardará.
O desaparecemos. Porque Skynet no está en las máquinas. Está en nosotros.