Portada del texto 'Yo… ¿robot?' por  Juan Armando Ramírez García
Imagen: IA

Yo… ¿robot?

INTELIGENCIA ARTIFICIAL

Redimensionar el imaginario

Por Juan Armando Ramírez García   |    Marzo de 2025

¿Hay imbecilidad artificial? Esta cuestión parece subsidiaria de la pregunta ¿aprenden las máquinas? No recibir instrucciones, sino aprender en sentido amplio. Si tal es el caso, ¿qué tipo de aprendizaje sería: asociativo, estadístico, vicario, automático, profundo?
Un minucioso recorrido por la historia de la IA, de la mano de sus teóricos, y una mirada exhaustiva de sus posibilidades y falacias, su sapiencia y ligereza, su narratividad, como el uso del pronombre yo —fuente de interminables problemas filosóficos.


No sería osado decir que cada época se caracteriza por algunos rasgos esenciales a partir de los cuales podemos identificarla. Así, la Revolución Industrial se distingue por la máquina de vapor, y la belle époque por el uso del foco —bombilla eléctrica, dirían los puristas.

[ramirez_1_moulinrouge]
Quadrille en el Moulin Rouge, de Henri de Toulouse-Lautrec. Imagen: Wikimedia Commons

Pasados los años, cuando se inquiera qué fue lo que caracterizó a nuestra época, una respuesta adecuada puede ser el uso masivo de la inteligencia artificial —de aquí en adelante IA—, convertida en un verdadero boom y cuyo embeleso se aprecia en la creciente utilización de las redes sociales y de dispositivos como Alexa o aplicaciones como ChatGPT. Quizá haya que buscar el origen actual de tal fenómeno en lontananza, en la película Matrix, cuyos claros antecedentes debemos, a su vez, buscar en Hillary Putnam, René Descartes y, por supuesto, nuestro entrañable Pedro Calderón de la Barca. Aceptémoslo pues: desde el Fabuloso Fred o el Robot 2-XL hasta el Tamagotchi, tenemos una relación peculiar con las máquinas, largo y sinuoso camino que se inició, según la leyenda, con Dédalo, quien diseñó los primeros autómatas, aunque en la vida real fue el ingeniero alejandrino Ctesibio quien construyó una bomba de agua mecánica y perfeccionó la clepsidra. Pero fue hasta la Edad Media cuando, con Raimundo Lulio, se tuvo la posibilidad teórica de interactuar con un autómata —por medio de inputs y outputs—, nos referimos a su Ars magna, de clara raigambre cabalística, la cual permitía una combinatoria mecánica de conceptos. El Ars magna de Lulio era, dicho en términos contemporáneos, un sistema de información: un sistema informado y a la vez un sistema informante. Gotffried Leibniz y John Wilkins —tan entrañable a Jorge Luis Borges—, con su característica universal e idioma analítico, respectivamente, siguieron por ese sendero tratando de crear un tipo de gramática universal. Hasta aquí tenemos el intento de un lenguaje universal, necesariamente universal y no contingentemente universal como podría serlo el esperanto. Dicho lenguaje necesariamente universal es el propio de un autómata. Esto en cuanto al software. Si inquirimos por el hardware, hay una larga lista de autores que diseñaron con mayor o menor éxito autómatas, entre los cuales están Whilhelm Schickard y Blaise Pascal, pero fue el matemático Charles Babbage quien construyó entre 1828 y 1839 un prototipo de computadora digital. Más tarde, en 1859, el también matemático y economista de la corriente marginalista William Stanley Jevons inventó una máquina lógica.

[ramirez_2_arsmagna]
Miniatura del Breviculum ex artibus de Raimundo Lulio, siglos XIII-XIV, Thomas Le Myésier. Imagen: Wikimedia Commons

Las nociones rigurosas de computación y computabilidad son posteriores a los sucesos referidos. El concepto de computabilidad surgió en la década de 1930, producto de las investigaciones de Kurt Gödel sobre la incompletud de los sistemas axiomáticos y las aserciones indecidibles, investigaciones que dieron una respuesta negativa a la pregunta de David Hilbert y Wilhelm Ackermann sobre si era posible hallar un algoritmo para establecer el valor de verdad de una fórmula en lógica de primer orden aplicada a los números enteros; a esto se le llamó el Entscheidungsproblem (problema de decisión). En la definición de computabilidad fue esencial la labor de Alonzo Church, quien ideó la tesis que lleva su nombre y el de Alan Turing. Esta tesis, y hay que subrayar que es tesis y no teorema, establece —dicho en lenguaje corriente— que todo algoritmo o función computable equivale a una máquina de Turing, es decir, un dispositivo hipotético con una ilimitada capacidad de memoria, mediante una cinta infinita marcada con cuadrados susceptibles de que en cada uno de ellos se imprima un símbolo. No nos dejemos engañar por su simplicidad, la definición de Turing es la formulación teórica rigurosa de las computadoras. Este modelo es capaz de ejecutar cualquier algoritmo, de aquí que se le llame tesis de Church-Turing. Para aspectos de ingeniería aplicada y no de matemática pura, se requieren otros tipos de modelos, tales como los de memoria de acceso aleatorio (RAM, por sus siglas en inglés).

[ramirez_3_opuestos]
Imagen: IA

Con estos antecedentes ya podemos entrar a las nociones de cibernética e informática. Fue Norbert Wiener quien introdujo el término “cibernética”: la definió como ciencia general de los sistemas de información, y fue nada menos que en el Instituto Nacional de Cardiología, ubicado en la Ciudad de México, mientras llevaba a cabo una visita de trabajo, que ideó los fundamentos de tal ciencia. Las investigaciones de Wiener se iniciaron al inquirir sobre la teoría de la comunicación, lo que lo llevaría a investigar la relación entre el sistema nervioso y las máquinas computadoras. Sus investigaciones fueron posibilitadas por los trabajos de Warren McCulloch y Walter Pitts sobre redes neuronales. Cabe decir que Norbert Wiener escribió en 1943 junto a sus amigos Arturo Rosenblueth —uno de los fundadores del Centro de Investigación y Estudios Avanzados (Cinvestav)— y Julian Bigelow un artículo titulado “Behavior, Purpose and Teleology”. Por caprichos estadounidenses derivados de la Guerra Fría, la denominación de cibernética ha cedido su lugar a la de IA, pero el cambio semántico llevó consigo un cambio de objetivo: mientras que, según Wiener, el objetivo de la informática es la transmisión de la información, para la AI el objetivo consiste en diseñar algoritmos, vistos como procesos mecánicos, capaces de imitar el razonamiento humano. Otros dos nombres habían sido propuestos para la materia que nos ocupa por conspicuos investigadores: Claude Elwood Shannon la había llamado teoría matemática de la información y Léon Nicolas Brillouin eligió uno más corto: teoría de la información. En cuanto al término “informática”, fue acuñado por Philippe Dreyfus para designar el tratamiento automatizado de la información llevado a cabo por computadoras. Se puede ver así que la informática es una parte de la cibernética.

[ramirez_4_lynn]
Imagen: IA

Si tuviéramos que dar un año de nacimiento de la IA, incluido el nombre, sería 1956, teniendo como acta de nacimiento tres sucesos: el Primer Congreso Internacional de Cibernética en Namur, Bélgica; otro, allende la Cortina de Hierro: la Conferencia de Balatonvilágos, Hungría, organizada por László Kalmár, matemático de la Universidad de Szeged; el tercero, en este continente: la Conferencia de Dartmouth College, llevada a cabo por John McCarthy, con la ferviente colaboración, entre otros, de Marvin Minsky —cuyos marcos son fundamentales para explicar a los agentes inteligentes— y el ya mencionado Claude Shannon. De este último simposio la crítica dijo que, en los hechos, fue mucho ruido y pocas nueces. Esto es verdad, pero se sentaron las bases para posibilitar en años subsecuentes las investigaciones que redundarían en IA: las lógicas no-monotónicas de Drew McDermott y Jon Doyle, los guiones de Roger Schank y Robert Abelson, la asunción de mundo cerrado de Raymond Reiter, las redes semánticas de Ross Quillian y Allan Collins, el algoritmo de Donald Knuth y Vaughan Pratt, el algoritmo de planificación dinámica de Robert Tomasulo, la ejecución fuera de orden de Lynn Conway, la arquitectura de flujo de datos de Jack Dennis, el razonamiento de sentido común en sistemas inteligentes de Hector Levesque, por citar unos ejemplos.

[ramirez_5_testturing]
Imagen: Bram Janssens

Pero entremos de lleno al tema de la IA y dejemos de lado su historia; en otras palabras, concentrémonos en el contexto de justificación relegando el contexto de descubrimiento. Desde la década de 1950, Turing se preguntó en un artículo muy conocido y ahora paradigmático si las máquinas podían pensar. Su respuesta tuvo un marcado cariz filosófico, pues inquiría sobre la noción misma de pensar. Turing recurrió a cierta paráfrasis para poder responder la cuestión, planteando la pregunta de si las máquinas podían participar satisfactoriamente en un juego de imitación, haciendo su comportamiento indiscernible de un ser humano. La respuesta de Turing fue afirmativa y no pocas veces nos ha agobiado prácticamente a todos, cuando tenemos que descifrar el engorroso “test de Turing completamente automático y público para diferenciar computadoras de humanos” (CAPTCHA, por sus siglas en inglés). Hay que hacer notar que personas con ciertas discapacidades pueden pasar las de Caín para resolver tal prueba. En todo caso la leyenda “no soy un robot” debería sustituirse por “tengo la paciencia y el interés necesarios para lidiar con estos garabatos”. Pero no nos entretengamos en aspectos casuísticos, pues hay casos en los que se puede poner en tela de juicio el test de Turing, por lo cual algunos prefieren el desafío de los esquemas de Winograd, basado en la anáfora. Siguiendo la intuición del eminente matemático inglés, quizá no sea necesario preguntarse por lo que ocurre en la “caja negra” cuando se dice que un individuo piensa, sino ver sus actitudes y respuestas —outputs—, a las cuales calificamos como constitutivos del pensamiento. Esto puede ser modesto, pero evita engolfarse en la intrincada tarea de averiguar qué es eso que llamamos pensamiento, pues ha sido un quebradero de cabezas; por ejemplo, Descartes tenía una concepción muy amplia de lo que es pensar.

[ramirez_6_hiphoperos]
Imagen: IA

Estas reflexiones nos conducen al problema de las mentes ajenas, el cual es asaz complejo. Uno tiene plena seguridad sobre la mente propia, al menos esa es la asunción común. Podemos creer que solamente la mente propia es la que existe y que otras personas son autómatas o zombis. Esta es una postura nada empática, pero tiene argumentos fuertes en su haber. Con fines expositivos, tomaré al pensamiento y a la inteligencia como sinónimos, aunque claramente no lo son. Dicho esto, ¿es el pensamiento una propiedad superviniente o un epifenómeno, es decir, es una propiedad de alto nivel relacionada con una propiedad de bajo nivel o es un fenómeno no físico causado por fenómenos físicos? La interrogante está en el aire. Por cierto, nótese que no nos produce agobio que un ser compuesto por células tenga inteligencia, aunque sea a un nivel básico. El problema surge cuando se trata de una entidad compuesta de materia inorgánica. Quizá tal problema surge de la fascinación del hombre de la calle por el hardware, mientras que, desde las máquinas infinitas de Turing hasta las máquinas de Russell como sistemas prospectivos pseudodeterminados, lo que más interesa a los teóricos es el software.

[ramirez_7_arbolporfiri]
Árbol de Porfirio. Imagen tomada de internet

Una serie de preguntas pertinentes y fascinantes para la IA podrían ser: ¿Se deprimirán las máquinas? ¿Podrán ser malpensadas —cómo sabría una máquina cuando queremos ver pies de Madura que no estamos buscando páginas pornográficas de señoras entradas en años, sino fotos con pies afectados por el micetoma? ¿Aprenden de sus errores? ¿Presentarán akrasia —falta de poder sobre sí mismas? ¿Cómo determinaría un robot qué robots tienen la razón si ambas máquinas están en lo correcto? ¿Se les puede preguntar sobre sus limitaciones? ¿Se pueden autodestruir sin intervención externa? ¿Comprenderá la IA la ironía y la distinguirá del sarcasmo? Para varias de estas tareas se requiere, al menos, que la IA tenga un buen uso de la sinécdoque, metonimia y metáfora; esto conforme a Arsène Darmesteter, Michel Bréal y Jean Paulhan. Hay cuestiones más complejas, que dependen de problemas teóricos de las redes semánticas usadas en la IA en cuanto esquemas de representación, tales como el uso adecuado de cuantificadores —todos, algunos—, la adscripción de creencias: “Juan cree que José sabe carpintería”, así como la elección correcta de los objetos o conceptos de representación (nodos) y relaciones entre nodos (arcos) durante el análisis, puesto que, una vez seleccionada una estructura, no resulta sencillo cambiarla. Los trabajos de Ronald Brachman y Lokendra Shastri son fundamentales al respecto, aunque en todos ellos se asoma, a lo lejos, el famoso árbol de Porfirio. Los aspectos de autodestrucción son interesantes, pues acabarían con uno de nuestros pesares: los virus informáticos. Téngase en cuenta que teóricamente los virus informáticos son un tipo de máquinas autorreplicantes de Von Neumann.

[ramirez_8_vonneumann]
Sondas de Von Neumann. Imagen tomada de internet

No llevemos estas breves disquisiciones a cuestiones de suyo complicadas, concentrémonos mejor en algunos de los problemas periféricos planteados por la IA. El problema que con mayor frecuencia escuchamos al hablar de IA son los peligros que conlleva. Es muy revelador que se insista en reflexionar sobre problemas de la IA y no sobre las posibilidades que facilita o la interacción que —en un marco de igualdad ética y tal vez jurídica— podemos llevar satisfactoriamente a cabo. Quizá porque esto último se considera un hecho dado. Creo que acercarse a un tema como si fuera un reservorio de problemas no es la mejor forma de abordarlo. Algo debe de estar mal si creemos que en la IA subyace un perenne peligro. Esto podría ser el complejo de Frankenstein. Es claro que hasta manejar una cuchara entraña un peligro, pero eso pasa prácticamente con cualquier artefacto. No hay más peligros que los que derivan de la inteligencia no artificial, y sin duda esta ha sido, hasta ahora, la más peligrosa y con creces. Sin embargo, reconozcamos que, desde Isaac Asimov hasta el reciente ganador del Premio Nobel de Física, Geoffrey Hinton, sí se ha elucubrado sobre los peligros de la IA, pero cosas... Algo muy distinto es si un profesor se agobia con la posibilidad de que sus alumnos recurran a la IA para hacer determinada tarea. Esto nos dice al menos dos cosas: el profesor domina poco el tema y, además, conoce mal a sus alumnos. Creo que este es un temor de novatos o de gente poco avezada en IA. Casi como glosa marginal, anotemos que el correlato de la inteligencia artificial debería ser la imbecilidad natural, pero ésta la damos por descontada, pues todos los días tenemos ingentes y nada gratas pruebas de ella. La pregunta interesante es: ¿hay imbecilidad artificial? Esta cuestión parece subsidiaria de la pregunta ¿aprenden las máquinas? No recibir instrucciones, sino aprender en sentido amplio. Si tal es el caso, ¿qué tipo de aprendizaje sería: asociativo, estadístico, vicario, automático, profundo? Hasta ahora los modelos que han dado mejores resultados son el aprendizaje por refuerzo y el supervisado. Solamente cuando las máquinas aprendan en sentido amplio se podrá hablar de imbecilidad artificial, porque existiría la posibilidad de que se equivoquen rotundamente. Tendríamos pues que ampliar el dictum “errare humanum est”, extendiéndolo a las máquinas.

[ramirez_9_frankeinstein]
Imagen tomada de internet

Una duda concomitante a la anterior es: ¿puede una máquina tener prejuicios? No prejuicios como se entienden ordinariamente, es decir, que una máquina programada a mediados del siglo pasado juzgara severamente la homosexualidad de Alan Turing y una máquina programada hoy en día fuera más comprensiva con la homosexualidad de Lynn Conway. No. Prejuicios en el sentido etimológico del término. Esto suena bastante extraño, pero sabemos que la mayoría de los autómatas trabajan con operadores booleanos —de hecho, Norbert Wiener, afirmó que esta ciencia jamás habría visto la luz de no ser por la lógica matemática—; siendo así, ¿qué sucede cuando un programador en la tabla de instrucciones que está diseñando no puede distinguir entre las sutilezas de la disyunción exclusiva (aut) y la disyunción inclusiva (vel)? El autómata verá la luz con ese prejuicio, no pudiendo diferenciar ambos casos, cuyas tablas veritativo-funcionales son muy distintas, pues en la primera únicamente es falsa la disyunción cuando ambos disyuntos lo son, mientras que en la segunda es falsa cuando ambos disyuntos son falsos o verdaderos.

Tal vez lo que nos perturba es la relación que tenemos con las máquinas y que deseamos que siga siendo la misma ad infinitum: que ellas realicen actividades ancilares para nosotros. El problema estriba en que vemos a la IA como un artefacto y deseamos que continúe en esa condición. En otras palabras, queremos una relación permanente de supra a subordinación. No olvidemos que la palabra “robot”, surgida en 1935, proviene del checo y hace alusión a un tipo de trabajo servil. Todo parece indicar que vamos hacia una ética cibernética. Pero entender dicha ética como una ética heterónoma es un despropósito, es decir, una ética del tipo de la ideada por Asimov sobre las tres leyes de la robótica. De igual tenor, para dar otro ejemplo, es el objetivo expreso de la materia de Nanoética de la licenciatura en Nanotecnología de la UNAM. Ni qué decir que los principios expuestos por Wiener en su libro El uso humano de los seres humanos son de la misma tesitura. Una ética cibernética debe ser una ética autónoma: una ética de las máquinas diseñada por las mismas máquinas, no por humanos. Únicamente así puede hablarse de una ética propiamente dicha.

[ramirez_10_cibern_etica]
Imagen: Verlen4418

Quizá una de las principales objeciones a la IA, y la eventual equiparación entre máquinas y humanos, sea que aquellas carecen de “algo” propio de los humanos. ¿Qué es ese “algo” que nos hace humanos? Una pléyade de investigadores ha mostrado reticencias ante la posibilidad de homologar las máquinas con los seres humanos, desde la no tan conocida hija de lord Byron, Ada Lovelace, hasta John Searle con su famoso cuarto chino. Aunque en 1962 Richard Bell advirtió, en el Simposio del Instituto Politécnico de Brooklyn sobre la Teoría Matemática de los Autómatas, que los aspectos de la vida humana más relevantes son en sí mismos no numéricos, considero que, con base en la ontología formal y recurriendo a las definiciones conceptuales de Thomas Gruber y Nicola Guarino, entre otros, se nos debería decir qué es ese “algo”. Por otra parte, una serie de teóricos se adscribe a la tesis computacional de la mente, sea en una visión fisicalista, mecanicista o alguna otra. Sin duda, más allá de los puntos en pro y en contra, esta postura tiende puentes entre máquinas y humanos. Creo que, de seguir por este derrotero, habrá que diseñar modelos para la IA más adecuados que los basados en un sistema binario de valores designados y antidesignados, o incluso la versión de un sistema binario negativo, tal como la propuesta ideada por los lógicos polacos Zdzisław Pawlak y Alicja Wakulicz-Deja. Ambos sistemas tienen, ciertamente, la simplicidad a su favor, pero parece que el razonamiento humano es más complejo para ser capturado por un sistema binario de 1-0 o todo-nada, pues tiene rasgos continuos y discretos, es contradictorio, nebuloso e impreciso, creador y negligente, consistente y absurdo, todo al mismo tiempo. Recientemente, el ganador del Premio Nobel de Física 2020 y experto en topología, Roger Penrose, consideró que quizá la IA tenga que basarse en una lógica cuántica, aunque se ha mostrado escéptico sobre el hecho de que la mente humana sea en su totalidad computable. Lo cierto es que, ya se decanten por considerar que lograremos una IA indiscernible de la inteligencia humana, o bien, que jamás llegaremos a tal objetivo, los investigadores deberían recordar que mucha de su labor en gran parte es heurística y que, en este ámbito, también operan las profecías autocumplidas.

[ramirez_11_tarjeta]
Foto: Vadim Ginzburg

Hace unos días y a propósito de este artículo, hice la misma pregunta a la IA de Meta, a DeepSeek y a ChatGPT: ¿qué es lo que no sabes? Sus respuestas fueron muy elucidantes y en varios aspectos similares. Dada tal similitud, me referiré a ambas indistintamente.

Al responder mi pregunta, usaron los verbos conocer y saber como sinónimos. En este sentido hay que tener claro que, desde un punto de vista epistemológico, no lo son. También respondieron sobre lo que no pueden hacer, pero aquí estamos frente a un parafraseo muy liberal de la pregunta: una cosa es saber y otra muy distinta es poder hacer, la primera se refiere a modalidades estrictamente epistémicas y la segunda a modalidades praxiológicas, pero el mecanismo las tomó como sinónimos. Pese a esto, por lo pronto, se mostró lo que Jacques Monod denominó como teleonomía: una actividad orientada, coherente y constructiva.

Otro aspecto interesante de la IA es que esos tres motores afirmaron no tener pensamiento autoconsciente. El pensamiento autoconsciente es el pensar que piensa, el dar-se cuenta. ¿Es una diferencia respecto de la IA? Nosotros, en la mayoría de las ocasiones, no tenemos pensamiento autoconsciente: afirmamos, dudados, inferimos, examinamos, deseamos, nos retractamos, etcétera, sin darnos cuenta de lo que estamos haciendo o sin reflexionar en todo momento sobre tales procesos. Pero incluso cuando reflexionamos sobre lo que estamos haciendo, ¿qué es en verdad lo que hacemos: “tener” una imagen en la mente, “hablar con nosotros mismos”, tener una experiencia peculiar? Creo que no se puede dar una respuesta concreta al respecto. Siendo así, el pensamiento autoconsciente no puede utilizarse como una criba tajante entre un humano y una máquina. Es muy interesante ver que la IA usó el pronombre yo —fuente de interminables problemas filosóficos— y que habló en primera persona. Esto ya nos indica cómo es su narratividad. Podría haber usado la tercera persona y su información sería la misma, si bien dejando de lado actitudes proposicionales derivadas de construcciones gramaticales tales como “creo que”, “me parece que”, “considero que”, etc.

La IA en cuestión dijo que no tenía acceso a información en tiempo real, por lo que su conocimiento se basa en datos ocurridos hasta octubre de 2023. Vemos que se autoadscribe conocimiento, no opiniones, sino conocimiento. O sea, para usar la definición de Platón, se autoasdcribe creencias verdaderas y justificadas, es decir, sabe que sabe, aunque no estoy seguro de que pudiera dar cuenta satisfactoria del trilema de Agripa, el cual nos dice que las razones de todo conocimiento se basan en un corte brusco, arbitrario y dogmático; en una petición de principio con explicación circular, o en un regreso ad infinitum. Casi siempre la información de tales motores de IA se encuadra en el primer elemento del trilema de Agripa, máxime si tomamos en cuenta que, con frecuencia, sobre todo en temas complejos, cae en la falacia ad verecundiam. En tercer lugar, desde Wiener y Leó Szilárd —uno de los padres de la bomba atómica, tanto en su promoción como en su creación— sabemos que mientras más probable es un enunciado o mensaje, menos información transmitirá. En este sentido, mucha de la información que nos da la IA es irrelevante. Cabe decir que esto no sólo depende de aspectos meramente epistemológicos o incluso gramaticales, sino también de cuestiones léxicas, fonológicas e incluso fonéticas, dado que George Kingsley Zipf demostró que cuanto más larga es una palabra, su ocurrencia es menos frecuente, razón por la cual la susodicha IA elegirá usar “fuente” en lugar de “alfaguara”, condenando a las personas menos cultas a permanecer en dicho estado.

[ramirez_12_trilemamunchhausen]
Ilustración del trilema de Agripa o de Münchhausen; pintura de August von Wille. Imagen: Wikipedia Commons

Igualmente, la IA en cuestión afirmó que no puede dar asesoría médica o jurídica, pero si le planteamos un problema filosófico, responde de lo lindo y con presteza, no quiero decir con precisión. Aquí la máquina ya hace una criba axiológica y considera que dar una respuesta filosófica a un intrincado problema le es posible, pero no así decirnos cómo curarnos la dispepsia o cómo presentar en un juicio el incidente de tachas. Lo cierto es que es precisamente en el ámbito jurídico donde hay todo un campo promisorio para explotar las magníficas posibilidades de la IA. Si una computadora es la que debe juzgar a un individuo, aspectos subjetivos salen sobrando, ya no digamos situaciones francamente condenables y vergonzosas como lo es la corrupción. Con una máquina dotada de una tabla de instrucciones con operadores deónticos, normas procesales —las cuales serían un tipo de sintaxis lógica— y leyes y reglas de inferencia, nos ahorraríamos bastante en jueces y fiscales. Esto no quiere decir que la IA no tenga que enfrentarse a problemas tales como la derrotabilidad de conceptos jurídicos o la famosa paradoja de las obligaciones alternativas, pero son aspectos no privativos de la IA. En el ámbito médico, la IA es de utilísima importancia, y no me refiero a autómatas para realizar operaciones complicadas, sino a la labor misma de diagnosis. Los médicos, lo sepan o no, casi cotidianamente aplican inferencias abductivas. Por ejemplo, los razonamientos del sarcástico Dr. House son siempre inferencias abductivas. Por eso extraña que incluso en materias como Informática Biomédica, impartida por la Facultad de Medicina, el razonamiento abductivo brille por su ausencia, confiriéndole más importancia a indagaciones de tipo heurístico.

La IA afirmó que no podía experimentar el mundo físico. La experiencia del mundo físico no es algo que a uno lo haga humano per se, ahí tenemos el caso de Helen Keller, los autistas, los esquizofrénicos y varios contraejemplos que pueden aducirse. Por otra parte, este también es un tema intrincado y polémico que nos lleva directamente a problemas sobre la naturaleza de la percepción.

Otra aseveración de la IA fue que no podía predecir el futuro. Vaya que tiene razón, y tenemos un ejemplo claro: hace un año Steve Wozniak fue hospitalizado de emergencia aquí en la Ciudad de México, al parecer la IA no previó que eso sucedería, pese a que cualquiera que lo hubiera visto sabría prima facie que no se veía muy sano. Por otra parte, es curioso que, en nuestra interacción, la IA no haya dicho nada acerca del teorema de Gregory Chaitin, quien, partiendo de la paradoja de Berry, demostró que una computadora no puede predecir completamente su propio comportamiento, esto pese a contar con modelos tan complejos como las cadenas de Márkov, las cuales permiten trabajar con procesos donde se involucran variables aleatorias.

[ramirez_13_sentimientos]
Nadie me respeta. Imagen: IA

Asimismo, la IA afirmó que no tenía sentimientos ni opiniones personales. A veces a una persona se le dice que no tiene sentimientos y dudamos que los psicópatas gocen de todos los sentimientos habituales en una persona ordinaria, pero, más allá de esto, los motores referidos de IA usan –y recalco el verbo usar– construcciones gramaticales que son expresiones de lo que consideramos sentimientos. La IA lo atribuye a su programación, sí, pero tengamos presente que los genes también nos programan para actuar de tal o cual manera, cuestión que puede ser reforzada o no por el entorno…, igual que con las máquinas que estamos analizando.

Podemos seguir, pues la “charla” con la IA fue más extensa, pero creo que con esto es suficiente. Tengo confianza en que algún día un robot podría ganar el Nobel sobre aportaciones de física que sean redituables para la robótica. Si tiene derecho a ello o no es otra cosa. Hasta hace unos años, salvo algunos filósofos y etólogos, nadie hablaba de los derechos de los animales, y ahora son un lugar común que no suele ponerse en duda. Pero creo que para que un robot gane el Nobel aún falta tiempo, porque la IA todavía carece de un tipo de refinamiento para saber qué se puede desechar cuando realiza una búsqueda exhaustiva en millones de bases de datos; igualmente carece de lo que los griegos llamaban phrónesis, esa prudencia tan necesaria en los juicios prácticos y de la cual carecen incluso muchos humanos.

Sin duda, un fantasma recorre el mundo: el fantasma de la IA, pero podemos decir que este fantasma ubicuo no es algo diametralmente distinto de la máquina que lo alberga, y esto habrá que analizarlo con una perspectiva holística, bajo la égida de las ciencias de la complejidad. “Se hace camino al andar” y quizá no esté muy lejos el día en que la IA sea indiscernible de la inteligencia humana. ¿Pruebas? Quizá tú, estimado lector, puedes estar seguro de que no eres un autómata, ¿pero puedes estar igualmente seguro de que estas líneas que están por terminar no fueron creadas por IA?






[Foto JUAN ARMANDO RAMÍREZ GARCÍA]
Foto: Cortesía del autor

Licenciado y maestro en Filosofía, JUAN ARMANDO RAMÍREZ GARCÍA estudió también Derecho y es candidato a doctor en Estudios Latinoamericanos de la UNAM. Se especializa en la Revolución cubana, en lógica, filosofía del lenguaje y de la mente.
FB: Juan Armando Ramírez García