El virus Eliza

Fernando Martínez Santiago
Grupo SINAI. Dpto de Informática de la Universidad de Jaén, España

(cc) byourself_4La inteligencia artificial, lejos de ser una disciplina homogénea y bien definida, se ha ido convirtiendo con el paso de los años en un cajón en el que tanto caben fuegos de artificio como impresionantes aplicaciones industriales, capaces de realizar complejísimas tareas de muy diversa índole. Entre todo ello, ¿dónde ha quedado el anhelo original? ¿Realmente queremos encontrar un modelo computacional de nuestra capacidad cognitiva?

[versión en pdf]

El dos de julio de 1993, en el New York Times comparten portada la demostración del Último Teorema de Fermat junto con un hecho asombroso: un programa de ordenador escribe una novela al estilo de Jacqueline Susann, autora del best-seller «El valle de las Muñecas». Sobre las mismas fechas, el programa SME (Structure-Mapping Engine; Falkenhainer, Forbus & Gentner, 1990), siguiendo un modelo del descubrimiento científico, descubre la analogía estructural entre el sistema solar y el modelo atómico de Rutherford. En 1992, Copycat (Hofstadter, 1995) es capaz de establecer analogías entre cadenas de letras del tipo «si a ‘abc’ le sigue ‘abd’, ¿qué sigue a ‘aabbcc’?». El programa responderá cosas del tipo «aabbdd».

De entre todos estos logros, ¿con cuál nos quedamos? Si uno es algo escéptico quizás se sentiría más a gusto ahondando un poco más en cómo hacen las cosas estos programas. Por ejemplo, la Jacqueline Susann cibernética no ha aprendido el estilo de la autora leyendo y releyendo sus libros. Más bien se trata de un programa que dispone de un enorme conjunto de reglas pre-codificadas en base a las cuales combina trozos de texto en función de las apetencias del usuario, que puede así hacerse un libro a la carta. Eso no es exactamente lo que uno entiende por escribir un libro. Respecto al modelo de descubrimiento científico de SME, podemos decir que no llega a sus analogías exactamente mediante el método científico, ni tras el estudio de la literatura, sino que requiere una muy cuidadosa (y por lo tanto artificial) representación del problema, que debe ser hecha por un experto humano. Entonces cabe la duda de hasta qué punto los hallazgos de SME son suyos o del experto humano. Finalmente, Copycat está equipado con algún conocimiento básico relativo a su diminuto dominio: conoce el orden de las letras, es capaz de percibir la repetición de éstas para formar grupos de un determinado tamaño, y algunas cosas más. A pesar de lo humilde de la tarea, puede dar con soluciones ingeniosas. Por ejemplo, para el caso «abc-abd, xyz-?» ocasionalmente descubre la cadena análoga «wyz», en vez de la más evidente y menos sugerente «xya».

Estos tres programas tienen una ligazón clara: de una forma u otra, pretenden modelar parcelas que se creían exclusivas de la capacidad cognitiva que poseemos las personas. O al menos parecen hacerlo. Pero si quitamos el envoltorio y observamos lo que hay dentro, aparece la decepción seguida del escepticismo. Para muchos, la inteligencia artifical (IA) tiene mucho de artificial, poco de inteligente y, en definitiva, en el mejor de los casos es una manera de resolver problemas especialmente difíciles mediante complejas aproximaciones estadísticas y heurísticas. Pero ahí inteligencia no hay, ¿o sí?

El caso del aprendiz de escritor es una variante del conocidísimo Eliza: un programa que simulaba el comportamiento de un psicoanalista sin más recurso que un repositorio de frases vagas que se aplicaban al detectar palabras como «familia», «amor», «odio», etc. en el interlocutor. Eliza no era más que un juego, pero algunas personas aseguraban que Eliza les comprendía como nadie en el mundo. El caso del programa escritor de best-sellers es incluso malintencionado, pretende convencernos de lo que no es, y consiguió recibir el mismo trato en el New York Times que un hallazgo intelectual de primer orden, como es la demostración del Último Teorema de Fermat. Este tipo de cosas contribuyeron a la creencia de que cuando una computadora consigue un logro más o menos humano, entonces eso no requiere inteligencia a fin de cuentas. Tal es el caso de muchos programas que han conseguido resultados realmente espectaculares en muchos ámbitos del conocimiento humano: hay excelentes jugadores de ajedrez, demostradores de teoremas, diagnosticadores médicos, analistas de bolsa… y, sin embargo, nadie piensa seriamente que allí haya inteligencia. Esto es así hasta tal punto que se tiende a redefinir ese concepto: inteligencia es todo aquello que no es capaz de hacer una máquina. Se da así la paradoja de que, conforme la IA avanza, su campo de trabajo se reduce.

¿Qué queda entonces del viejo anhelo? ¿Es la mente humana algo que podamos modelizar algún día? Para muchos, las limitaciones teóricas que tiene una computadora son las que tenemos nosotros (Hoftstadter, 1979). Esta corriente dentro de la IA se llama IA fuerte, en contraposición con la IA débil, dedicada a resolver problemas una vez ha renunciado a entender cómo hacemos las cosas las personas realmente. Y es dentro de la IA fuerte donde se encuadraban tanto SME como Copycat.

Los logros de SME y programas similares como ACME, LISA o, en menor medida, AMBR (Gentner, Holyoak & Kokinov, 2001), nos pueden parecer espectaculares, pero todos requieren que les demos el trabajo convenientemente mascado, casi deglutido. El problema de fondo de estos programas no es lo que hacen, sino el modo en que lo venden. Se podría decir que están infectados por el virus Eliza: tanto parece que hacen que uno puede terminar por pensar que no hacen absolutamente nada. Sin embargo, estos programas tienen un indudable valor. En algunos casos están inspirados en teorías psicológicas avaladas por estudios empíricos desarrollados durante décadas, y tienen resultados contrastados. Nos cuesta darles su justo valor porque realmente sabemos que no hacen exactamente lo que aseguran hacer. SME no es un modelo de descubrimiento científico, pero es muy probable que, en algún momento, nuestra mente use los mecanismos allí descritos para encontrar analogías entre situaciones dispares, aunque ello suponga una pequeña parte, quizás la menos interesante, de todo el proceso. Copycat está dotado de cierta capacidad perceptiva y un rudimentario sentido estético que le guía a lo largo de todo el proceso de descubrimiento y establecimiento de la analogía. Una crítica usual que recibe Copycat es que no es escalable: ¿cómo aplicar este programa a algo medianamente serio? Bueno, el programa no es nada escalable, pero las ideas que le dan soporte son universales.

Ahora que los Elizas no nos engañan y que estamos acostumbrados a los éxitos de la IA débil, quizás sea el momento de retomar el duro camino apenas esbozado por la IA fuerte: la consecución de un modelo cognitivo de la mente humana.

Referencias

Falkenhainer, B., K. D. Forbus, D. Gentner (1990). The Structure mapping engine: algorithm and examples. Artificial Intelligence, 41, 1-63.

Genter, D., Holyoak, K. & Kokinov, B. N. (2001). The Analogical Mind. Cambridge, MA: The MIT Press.

Hofstadter, D. (1979). Gödel, Escher, Bach: un Eterno y Grácil Bucle. Tusquets Editores & CONACYT.

Hofstadter, D. (1995). Fluid Concepts and Creative Analogies. New York: Basic Books.

(Visitado 2.333 veces, 1 visitas hoy)

Los comentarios están cerrados.

Post Navigation