Cuestiones ProblemĚticas
 

La herencia de Hal 9000. El sentido comÖn o el menos comÖn de los sentidos.

Primera Parte

Se cumpli█ hace un aĎo aĎo- mĚs precisamente el 12 de enero de 1997 el nacimiento de Hal 9000 uno de las mĚs portentosos s╠mbolos y metĚforas de nuestra idealizaci█n de la inteligencia maquinal, as╠ como de nuestras proyecciones mĚs infantiles y simplistas acerca de que lo superinteligente es necesariamente malo -como nos lo enseĎ█ y lo sigue cumpliendo a rajatabla no tanto la inteligencia artificial en s╠, como esa fĚbrica de deseos artificiales mucho mĚs productiva y efectiva que es Hollywood.

No vamos a retomar aqu╠ ese circuito que vincula con fuerza las imĚgenes deseadas, las proyecciones al futuro, la constataci█n de que nosotros somos nuestro futuro, y de que el mejor modo de predecirlo es construy╚ndolo (como lo aprendi█ hace rato Bill Gates). Tambi╚n siempre tenemos fresca esa sagaz afirmaci█n de Arthur Clarke para quien cualquier tecnolog╠a lo suficientemente avanzada es indistinguible de la magia.

Hal-9000 el h╚roe psic█pata de Kubrick, es el paradigma de un fin de milenio en donde la tecnolog╠a avanza a mĚs no poder y donde la ╚tica prĚctica retrocede a pasos no menos agigantados.

Porque nos peg█ fuerte (incluso cuando la vimos en la versi█n doble al alemĚn en Viena en 1969), porque marc█ un horizonte todav╠a insuperable, porque importa tanto lo que prometi█ como lo que no cumpli█, porque sigue siendo el l╠mite respecto del cual buscamos pensar lo impensable, Hal es una buena compan╠a para festejar los portentos y la simpotencias del pensamiento.

2001 es una meditaci█n sobre la evoluci█n de la inteligencia, desde el desarrollo de las herramientas inspirado por el monolito (al que Kubrick originalmente quer╠a presentar como un tetraedro), a trav╚s de la Inteligencia Artificial de Hal (tan parecida a la nuestra que no parece tener nada de artificial o al menos no mĚs que nosotros), hasta llegar a la etapa de la estrella niĎo -que puede derrapar tanto en una interpretaci█n m╠stica que no nos seduce, como en una mĚs metaf█rica acerca de las redes como inteligencias mĚs que humanas.

¿Qu╚ pod╠a hacer Hal como nosotros? ¿Qu╚ es lo que nosotros no podemos hacer para que algo/alguien sea como Hal en 1997? Hal pod╠a jugar al ajedrez... como un humano no como Deep Blue. Es muy distinto jugar al ajedrez con alguien (humano o no) que tiende trampas (como hizo la propia Hal en la partida que le gana Bowman en la pel╠cula), que utilizar los principios del minimax (por mĚs chips especializados o procesadores en paralelo cerca de 250 en el caso de Deep Blue a un mill█n de bÖsquedas cada uno). Ejercitar selectividad en las bÖsquedas y especialmente hacer uso del tiempo como hacen los grandes maestros que utilizan adverbios de tiempo como nunca, eventualmente, alguna vez, son actividades que ninguna mĚquina real logr█ hacer hasta ahora.

Ősta juega al ajedrez gracias a la fuerza bruta y el cĚlculo puro, carece de evaluaci█n sofisticada, su aprendizaje es nulo (ya que sus bases de datos son estĚticas), y sus capacidades de razonamiento generales (porque utiliza procesadores ultraespec╠ficos) son prĚcticamente inexistentes.

Hal habla como un ser humano (¡bah de hecho su voz es la del actor canadiense Douglas Rain quien grab█ la sensual y maravillosa voz en un d╠a y medio sin saber para qu╚ era aunque al final su fama qued█ siempre asociada a ese doblaje!). Todo los programas de s╠ntesis del habla, que tenemos hoy, a pesar de pertenecer a la historia de la mĚquinas parlantes, estĚn a aĎos luz de asemejarse a Hal.

Hal 9000, nuestra mĚquina favorita o ese ojo colorado omnisciente tambi╚n escucha... como un ser humano, pero nada de lo que construimos hasta ahora se asemeja ni remotamente al modelo que nosotros fuimos del suyo. En ninguna mĚquina aparece el conocimiento como estratificaci█n de sentido, ninguna es capaz de remedar la impredictibilidad del lenguaje humano que hace tan fascinante tener una conversaci█n con alguien que se la merezca.

Tambi╚n Hal usa el lenguaje... como un ser humano, ve como nosotros, puede leer los labios, en algunas escenas cruciales de la pel╠cula parece verter lĚgrimas de computadora, y sobretodo es capaz de planificar, aunque sea la muerte de nuestros cong╚neres cuando cree -a su (¿mal?)-entender que los nuestros quieren obstaculizar "su" misi█n.

Aunque no podemos entrar en detalles -ver el exquisito libro de David Stork Hal's Legacy- Hal es el resultado de un paradigma de desarrollo de la inteligencia artificial... inexistente. Ninguno de los paradigmas reales que han estado en competencia en los Öltimos 50 aĎos han podido llegar a resolver casi ninguno de los problemas que para Hal son pan comido (y que convierten finalmente a los astronautas en carne para el asador de la Inteligencia Artificial de Hal).

Ello se debe entre otras cosas a que ante la mala pregunta: qu╚ es la inteligencia: ¿reglas o contexto? los dos programas herederos de las cuestiones y discusiones filos█ficas que se inician en 1956 en la Conferencia de Darmouth, se extraviaron y todav╠a hoy pueden a lo sumo generar resultados puntuales exitosos, pero confundiendo totalmente el Ěrbol de sus negocios con el bosque de la autonom╠a y creatividad humanas.

Como bien dijo Minsky en una entrevista "en Inteligencia Artificial no se hicieron bien los deberes". Sus adoptantes tempranos en seguida quisieron ir a los problemas prĚcticos o mĚs inmediatos (ajedrez o reconocimiento de la voz), y dejaron de lado lo mĚs importante que era entender los principios computacionales bĚsicos (aprendizaje, razonamiento y creatividad) que subyacen a la inteligencia. Es por ello que no se ha avanzado demasiado en la construcci█n de una mĚquina verdaderamente inteligente, de una Hal-9000. Tenemos una gran cantidad de especialistas tarados en dominios muy acotados, la verdadera majestuosidad de la inteligencia general nos es aÖn ajena

Por eso mismo Deep Blue le gan█ a Kasparov. Qued█ as╠ demostrado que jugar bien al ajedrez es posible, pero jugar bien al ajedrez no dice nada acerca de lo que es aprender y mucho menos acerca de la inteligencia humana. Lo que a las mĚquinas les sobra es poder de computaci█n. Pero les falta  todo lo relacionado con los desaf╠os que plantea el sentido comÖn, y sobretodo la intrincada trama que hace posible que nos constituyamos en el lenguaje y seamos capaces de representar el conocimiento.

Equivocarse es la esencia de lo humano. Lo menos cre╠ble de Hal (que quizĚs dice mucho acerca de la NASA y de sus hombres) es cuando afirma que "ninguna computadora 9000 ha cometido jamĚs un error", sostiene Douglas Lenat el inventor del programa Eurisko.

Este programa descubr╠a cosa por s╠ mismo, y por ello hab╠a que darle potestad para intervenir con sus propias heur╠sticas de aprendizaje y objetivos. Trabajaba toda la noche pero cada tanto aparec╠a..... muerto. La raz█n de este comprotamiento era parecida a las tribulaciones que sufri█ Hal. Pero a la inversa que nuestro serial killer maquinal, Eurisko pon╠a en un pie de igualdad dos reglas que ╚l mismo valoraba en extremo: "no cometer ningÖn error" y "hacer nuevos descubrimientos productivos". Para no equivocarse, que era lo mĚs creativo que hab╠a encontrado hacer, prefer╠a no hacer nada, es decir prefer╠a suicidarse. Lenat tuvo que aĎadir una nueva heur╠stica que prohib╠a esa equivalencia y que nosotros ya tenemos incorporada en nuestro diseĎo evolutivo.

S█lo hay tres maneras de no equivocarse. O hacemos como Eurisko, es decir, no hacemos nada, o hacemos como Hal/Shakespeare/Clint Eastwood que hacen no quede nadie vivo alrededor para cuestionarnos; o nos confundimos con Dios, que es omnisciente. El resto del tiempo hay que probar y ver que pasa. La verdadera medida de la inteligencia es enfrentarse a situaciones paradojales y sortearlas sin morir ni tener que matar.

Los humanos somos inconsistentes y debemos lidiar con esa inexactitud que proviene de: distintos distintos niveles de generalidad y precisi█n, de distintos status epistemol█gicos, o de informaci█n aprendida en distintos momentos y de diferentes modos.

Todav╠a estamos en los preĚmbulos de estas cuestiones por lo que hablar de mĚquinas inteligentes es en todo caso mĚs revelaci█n de un deseo que constataci█n de una posibilidad.

La fantas╠a de ver enfrentados a humanos y mĚquinas alcanza su paroxismo en muchas escenas de pel╠culas de ciencia ficci█n. A lo mejor si somos capaces de entendernos mejor y tolerarnos mĚs podremos evitar que las mĚquinas hagan con nosotros lo que muchas veces nosotros hacemos con los demĚs. No pidamos piedad a los entes post-humanos si somos incapaces de actuar con paciencia, ternura y cordura frente a nuestros propios cong╚neres.

Segunda Parte

Un nene de pocos aĎos se pierde en medio de la cordillera y sobrevive comiendo dĚtiles o porquer╠a, pues qui╚n sabe... Centenares de miles de chicos de la calle sobreviven cada d╠a en las ciudades cuidados/explotados por otros que apenas tienen unos aĎos mĚs que ellos y sin ningÖn tipo de educaci█n formal.

Nos sorprende mĚs la excepcionalidad del primer caso que la trivial amenaza del segundo, pero en ambos estĚn operando millones de aĎos de historia evolutiva, y miles de aĎos de conocimiento tĚcito generado por la cultura. Si estos chicos y chicas sobreviven fuera de la tutela institucional y del manto protector/inhibidor/represor de la cultura, es porque en ellos estĚ ampliamente desarrollado el sentido comÖn, una capa de inferencias y de predicciones -hist█ricamente con un valor de supervivencia muy grande- que nadie nos enseĎa, ni expresa ni impl╠citamente, pero que nosotros (pre-programados como estamos para aprenderlas) inhalamos con igual avidez que el ox╠geno.

Si la Hal 9000 de Clarke/Kubrick era tan cre╠ble, era porque ╚l/(¿ella?) hab╠a resuelto este formidable intr╠ngulis. De otro modo jamĚs habr╠a podido mantener conversaciones en las que se filtraban expresiones que son pan comido para los humanos pero chino bĚsico o superior para los robots de hoy, tales como: -"estĚ llegando una transmisi█n de tus padres" y no creer que estaban llegando los padres en persona; o decirle a Dave: -"¿puedes acercar el dibujo del Dr. Hunter un poco mĚs? y suponer que se le ped╠a que se lo acercara al "ojo" de Hal y no al de Dave, o decir: -"ese el Dr. Hunter" sin que hiciera falta que se le contestara: -"no, es un dibujo del Dr. Hunter". Y as╠ sucesivamente.

Cuando hablamos entre nosotros no s█lo estĚn impl╠citos los miles y un preconcepciones propias de cada grupo, o los que corresponden a las culturas, los localismos, las nacionalidades, las etnias y las religiones, sino tambi╚n esta mir╠ada de redes de inferencias y de suposiciones siempre presentes y que hacen de la ambigŞedad del lenguaje un pozo de invenci█n del sentido inagotable, pero al mismo tiempo un veh╠culo de comprensi█n posible... a pesar de esa misma ambigŞedad tan deseada/temida.

Cuanto mĚs amplio es ese trasfondo comÖn, o codificaci█n compartida, menos palabras hacen falta para entendernos, el uso de las metĚforas y de la ambigŞedad elaborada puede expandirse y las roturas o torceduras de pescuezo de la gramĚtica (tan poco recomendadas por los tersos profesores de lenguas extranjeras y de la propia tambi╚n) son cada vez mĚs frecuentes y exitosas.

Estamos tan marcados por el peso del sentido comÖn (que ¡ojo! se da en forma estratificada, as╠ que hay un sentido comÖn ordinario y otro extraordinario que corresponde a las carreras profesionales, a las funciones ejecutivas, a los roles diferenciados que cumplimos en la vida, a las expectativas sociales, etc. como bien analiz█ Clifford Geertz en su clĚsico "La Interpretaci█n de las Culturas"), que para nosotros es un descubrimiento saber que no hay momento de la vida en que no operemos bajo su ╚gida.

De hecho en la historia de nuestros acoples con los demĚs (muy ligado a lo que Humberto Maturana llama la pegajosidad) esta co-codificaci█n se vuelve cada mĚs precisa como los ejemplos de los gemelos (hasta llegar al fascinante y repugnante final de "Dead Ringers" de Cronenberg), parejas de larga data o coequipers no menos intensos nos revelan.

Dependemos permanentemente del contexto y del sentido comÖn y ╚ste entra constantemente en funcionamiento, como cuando desciframos la terrible caligraf╠a de los demĚs (o la de uno mismo como es mi caso), o en nuestras acciones cuando debemos frenar o acelerar (indistintamente y en forma no prefijada) para no chocar.

Por eso Lenat sostiene con raz█n que antes de que tengamos robots que manejen taxis (como en la par█dica escena de "El Vengador del Futuro"), tendremos que haber descubierto como destilarles un sentido comÖn lo suficientemente refinado como para que distinga qu╚ vale mĚs, si la vida de una persona o la de un gato (salvo excepciones para m╠ la de los gatos), que los perros j█venes son mĚs proclives a arrojarse bajo las ruedas de los coches que los viejos (como le pas█ a mi finado y amado Bugsy), que la muerte no es algo muy deseable y otras cosas mĚs... que son precisamente las que ni siquiera podemos codificar por darlas nosotros mismo por sobreentendidas.

Todo muy bonito. El sentido comÖn no es tan comÖn y aparte es terriblemente complicado de convertir en reglas. Los robots son bastante idiotas y Hal 9000 es una producto de la ciencia-ficci█n. ¿C█mo salimos del marasmo? ¿SerĚ posible codificar nuestro sentido comÖn de algÖn modo, cuesti█n de alojarlo en el cerebro (o en el programa que hace las veces de) de un robot?

Es lo que cree Douglas Lenat que hace mĚs de 12 aĎos que estĚ tratando de enseĎarle a su programa CYC estas minucias. Para ╚l la operaci█n de traspaso (de invenci█n de mĚquinas con sentido comÖn) requiere de tres pasos correlativos: a) llenarle el bocho de millones de t╚rminos cotidianos, conceptos, hechos y reglas de sentido comÖn que determinan la realidad consensual humana; b) por encima de esta base construir la habilidad de comunicar en un lenguaje natural, tal como el ingl╚s, el castellano, el diaguita o el aymarĚ; c) a medida que se acerque a las fronteras del conocimiento humano en algÖn Ěrea, como no le quedarĚ nadie con quien hablar deberĚ inventar su nueva cotidianeidad y originalidad.

¿CuĚntas cosas y cuĚles debe saber para empezar a andar humanamente por el mundo? ¿Y c█mo enseĎĚrselas? Durante los primeros seis aĎos de su experiencia Lenat y sus asociados trabajaron con las enciclopedias, pero no tanto con lo que ellas dicen, sino con lo que suponen que nosotros sabemos para entender lo que nos dicen. A partir de 1990 invirtieron el enfoque y empezaron a trabajar con una aproximaci█n top-down tratando t█picos enteros de un solo saque y en cierto detalle. Cuando llegaron a 1996 CYC conoc╠a centenares de temas.

Los problemas que se le plantearon a Lenat para representar el conocimiento son impresionantes y lo obligaron a pasar desde una forma de identidades exageradamente sencillas como por ejemplo "tiempo de nacimiento (Hal): 1/12/1997" al uso de la l█gica de predicados de segundo orden, capaz de dar cuenta de las relaciones y que tiene problemas de un tipo obviamente superior (a quien le interese en serio el tema de la evaluaci█n de la primera faz del programa puede animarse con Lenat, D y R.V.Guha "Building large Knowledge-Based Systems" Addison Wesley, 1990).

El desarrollo del programa tuvo dificultades sin par y cambios sobre la marcha de criterios y valoraciones harto significativas. No es lo mismo otorgarle peso probabilista a cada sentencia que se le asignaba a CYC, como se hizo al principio, que suponer que todas son igualmente verdaderas, y debe ser tarea del programa decidir cuĚndo debe creer algo en funci█n de sus propias argumentaciones internas como se decidi█ finalmente.

Tambi╚n hubo que resolver la discrepancia ineludible que hay entre los lenguaje naturales, que son expresivos pero ineficientes y los de programaci█n que son eficientes pero no expresivos. Por Öltimo se decidi█ -con criterio- abandonar el sueĎo borgeano de una base de datos universal y Önica, y se dividi█ el conocimiento acumulado en centenares de microteor╠as consistentes internamente pero potencialmente inconsistentes entre s╠. Gritar cuando algo sale bien en la oficina no queda muy bien pero no hacerlo en la cancha de fÖtbol lo deja a uno pagando.

A diferencia de Deep Blue que en ocasiones puede anticipar las jugadas de ajedrez hasta 8 movidas por anticipado, CYC s█lo ve dos o tres pasos mĚs allĚ y su especialidad son los problemas que requieren hacer buenas inferencias. La propuesta es interesante y en muchos casos es operativa. Con un conocimiento de sentido comÖn apropiado se pueden hacer inferencias rĚpido y fĚcilmente, y si no se tiene sentido comÖn nunca se resolverĚn los problemas que definen nuestra humanidad.

As╠, ya hay pruebas interesantes de sus logros en la comprensi█n del lenguaje natural, en la evaluaci█n e integraci█n de informaci█n en hojas de cĚlculo y bases de datos, y en el encuentro de informaci█n relevante en bibliotecas de imĚgenes y en la WWW. He aqu╠ la maravilla del sentido comÖn, con s█lo tener muy poco podemos llegar muy lejos. La tragedia de Hal fue tener una inteligencia superior con valores muy pobres y un sentido comÖn perforado como un colador.

Los resultados de CYC son mĚs que pobres en t╚rminos de lo que Hal hac╠a, pero infinitamente mĚs prometedores de los que la Inteligencia Artificial tradicional, obsesionada por construir robots pesados y estÖpidos, obtuvo en casi cincuenta aĎos de investigaci█n.

Pero mĚs interesante que una evaluaci█n detallada de sus rendimientos (debida precisamente a sus err█neas bases epistemol█gicas como examinamos en la materia) es la convicci█n que Lenat, su creador tiene de que ni el Hal posible del futuro, ni el CYC verdarero de hoy, ni ninguna de estas mĚquinas o programas tendrĚ emociones (o tendr╠a que tenerlas), porque las emociones no son Ötiles para integrar informaci█n, tomar decisiones basadas en esa informaci█n y cosas por el estilo.

Con un antropomorfismo y un miedo narcisista rara vez expresado con tanta claridad (comparen con lo que dice Mazlisch), Lenat sostiene que una computadora puede llegar a pretender o a inventar emociones s█lo para satisfacer su interacci█n con el usuario. Aqu╠ la pifia y much╠simo y tambi╚n en ideas como ╚stas se ve que por mucho que CYC haya avanzado sus l╠mites ya se sienten en el horizonte.

Tercera Parte

En 2001, una pel╠cula, como en 1997 en la vida, hay una tensi█n constante entre la verosimilitud (aquello que debe ser para que nosotros lo creamos), y la realidad (lo que las cosas son aunque nosotros no las creamos). Entre lo que nosotros necesitamos que sea por razones narrativas, y lo que es pero que al carecer de fuerza ret█rica y de efecto est╚tico, no merece mayor atenci█n por mĚs factible o concretablemente tecnol█gicamente que sea.

En su excelente art╠culo "Living in space: working with machines on the future" de Donald A. Norman contenido en la antolog╠a de Stork (ver las partes una y dos de este ensayo, para una s╠ntesis de las principales discusiones de este volumen elaborado conmemorando el natalicio de la supercomputadora emocional Hal-9000) hay una serie notable de ejemplos de c█mo funciones rutinariamente ejecutadas en la pel╠cula rompen con los encuadres o suponen soluciones tecnol█gicas inalcanzables hoy (y durante largo rato), y por el contrario como los principales ingredientes que vertebran la interacci█n humana: la vida social y la circulaci█n de las emociones, fueron reduccionistamente retaceadas o ignoradas en la proyecciones de un futuro sin sorpresas, realizadas bĚsicamente por diseĎadores (que ignoran a los usuarios), por futur█logos que son incapaces de imaginarse un futuro radicalmente diferente del hoy, y por t╚cnicos y cient╠ficos que cuando trabajan se olvidan de que viven, en un mundo en donde el esparcimiento, la sociabilidad y la convivialidad inteligentes son ingredientes constitutivos de nuestra humanidad.

Contornearemos esas sabias cr╠ticas y lamentos, e ingresaremos en los dos Öltimos espacios en los que las mĚquinas de hoy distan infinitamente del modelo que a veces con picard╠a (sobretodo por su capacidad de mentir, pero otras con notable ignorancia de la inventiva -al no poder imaginar ni las interfases grĚficas pero mucho menos el mundo de la miniaturizaci█n y las formas mas recientes de interacci█n hombre/mĚquina-) fueron sistemĚticamente ignoradas en 2001: a saber el rol de las emociones en los procesos cognitivos, y lo incre╠blemente intrincado y ligado a las emociones y los estados mentales que estĚ la operaci█n de planificar. En los dos pr█ximos puntos nos ocuparemos de lo primero y dejaremos para nuestro borroso futuro la quinta y Öltima entrega sobre esta serie y la planifaci█n en las mĚquinas.

Lo que nos identific█ a muchos de los espectadores con Hal-9000 (a esa altura de la trama nada mĚs ni nada menos que un serial-killer de los mejores) fue su voz. As╠ como algunos nos enamoramos de voces (como las de Elizabeth Vernacci o Nucha Amengual o de cualquiera de las sensuales locutoras en su momento) sorprendi╚ndonos a mĚs no poder si alguna vez llegamos a conocer a la persona que la detenta, es precisamente esa entonaci█n -para nosotros apasionada y profundamente humanizada, aunque sabemos que la voz de carne y hueso de Douglas Rain ni sab╠a lo que estaba grabando- de la computadora cuando la van a desconectar, o en sus diĚlogos tan Turingnianos con la tripulaci█n terrestre.

La emoci█n juega un lugar estrat╚gico en toda obra de arte, por eso no sorprende que 2001 est╚ teĎida de cabo a rabo por sus promesas y excesos. Lo que llama la atenci█n en 2001 es que la mĚquina (es decir una voz, mĚs una arquitectura monumental y superfuturista) expresa mĚs emociones (y las despierta mĚs y mejor en nosotros) que los propios seres humanos. Nos doli█ mucho mĚs la muerte de Hal al ser desconectada por el terrestre Bowman, que la de Frank Poole en el espacio c█smico a manos de Hal.

Lo cierto es que las computadoras de hoy no gimen ni protestan cuando las apagamos, y sus canciones de despedida de la vida (el╚ctrica), jamĚs asumen la forma de una canci█n -como el triste Daisy de Hal- sino a lo sumo un cr╠tico e inexpresivo "unexpected fatal error -60", o mĚs lac█nicamente la bomba "unimplimented trap error 11" que todav╠a seguimos experimentando cada tanto en las veneradas Macs.

Y aunque ocasionalmente alguien le grite a su mĚquina (y alguna vez alguien tambi╚n la haya estrellado contra el piso, o haya hundido un martillo en su pantalla), ╚stas parecen no darse cuenta (a menos que empiecen a funcionar cada vez peor despu╚s de amonestadas, o al menos as╠ nos parece a nosotros cuando las antropomorfizamos mĚs de la cuenta), y a diferencia de nuestras mascotas no tienen la molesta costumbre de que una vez que mean en la alfombra lo siguen haciendo independientemente de nuestros ruegos, reprimendas o mortificaci█n.

Aunque pensĚndolo un poco, ¿tiene sentido creer (esperar, diseĎar) computadoras con emociones? ¿Es un escenario algo mĚs que risible imaginar a alguien entrando en un supermercado de las mĚquinas y escuchar(se) pedir: d╚me la mĚs emocional de sus mĚquinas? ¿No nos precav╠a Lenat de la venganza de las mĚquinas (en el caso de que estuvieran dotadas de emociones) o lo mucho mejor encaminado que estar╠a un mundo en donde quienes tomen las decisiones, como quer╠an las viejas tradiciones filos█ficas, no estuviera contaminada por la volubilidad y voluptuosidad de la pasi█n?

Parad█jicamente todos soĎamos (desde mi madre que espera algÖn d╠a poder comprarse un robot de limpieza casero, hasta el holodeck de Star Trek capaz de inventarse personajes a los que eventualmente se puede besar y amar), con computadoras personales dotadas de personalidad, que nos hagan re╠r y enojar simpĚticamente, que sientan nuestro estados de Ěnimo (y si es posible que lo mejoren), y que sean lo suficientemente divertidas y amigables como para ser consideradas compaĎeras de juego y de trabajo como nuestros amigos mĚs queridos, inteligentes y creativos.

He aqu╠ el quid de la cosa, a diferencia de lo que crey█ la filosof╠a tradicional, y en contra de lo que supusieron los programas pioneros y ancestrales en inteligencia artificial, la inteligencia humana (la propia de un ser que se equivoca e inventa todo el tiempo y hasta goza con sus errores y se aburre de verdades conseguidas mecĚnicamente) estĚ (¿p╚rfida, magistralmente?) permeada por las emociones.

Despu╚s de todo (y desde los cursos sobre interfases avanzadas hasta la p╚rdida incre╠ble de tiempo, productividad y entusiasmo que supone el contacto con las mĚquinas de hoy) estĚ basado, principalmente, en haber desacoplado -como se esmer█ y logr█ para su fracaso y nuestro desinter╚s el programa sint╚tico en inteligencia artificial- las funciones cognitivas de las emocionales. Aunque claro -y esa es la principal lecci█n de 2001- emociones sin control pueden ser tan letales como un control sin emociones.

Es dif╠cil saber qu╚ son las emociones. Porque si el miedo y la rabia son fĚcilmente caracterizables, otros t╚rminos (que designan estados afectivos) como el inter╚s, el aburrimiento, la esperanza o la frustraci█n parecen pertenecer a la misma categor╠a, o no tanto.

Tampoco estĚ nada claro, y hay un mont█n de teor╠as al respecto, que son las emociones: si la mera expresi█n de estados fisiol█gicos tales como la aceleraci█n en el ritmo card╠aco que acompaĎa a la rabia, o si no son mĚs bien -en el otro extremo- meras variantes del pensamiento. Sean lo que sean (y la verdad es que sabemos bastante poco de ellas considerando lo importante que son) nadie discute que las emociones pueden comunicarse, y eventualmente contagiarse al punto tal que un actor efectivo es un maestro en el arte de trasmitir los afectos y de hacerlos variar mĚs o menos a voluntad.

As╠ las cosas, y sabiendo que las computadoras de hoy son mĚs incapaces de comunicarse con nosotros que un marciano con una ameba (a menos que se trate de parientes lejanos y nosotros lo desconozcamos) ¿qu╚ tendr╠a que saber/sentir una mĚquina para poder trasmitirnos sus afectos, pero lo que es mucho mĚs inmediato y necesario para experimentar los nuestros?

Cuarta Parte

Para que la Hal-9000 real de nuestro futuro -pr█ximo o distante- pueda comunicarse mejor con nosotros deberĚ necesariamente reconocer nuestras expresiones faciales y, concomitantemente, nuestros estados afectivos. Entre las muchas razones del cogitus interreptus que se da entre dos personas, las limitaciones del ancho de banda en cuanto a transmitir matices y preservar el contacto del efecto apabullante del sentido literal, son uno de las causas mĚs notorias. ¿Por qu╚ habr╠a de ser distinto entonces en nuestro contacto con la mĚquina?

La historia del correo electr█nico, las flame wars, la cantidad considerable de violencia simb█lica que se transmite en las listas y que aflora en los chats on line, estĚ muy ligada a la imposibilidad (vanamente sustitu╠da por los emoticones, cierta experiencia ducha y las ganas de remendar los horrores), de vehiculizar el tono que es un componente insustituible en los intentos de expresar las emociones humanas.

Si Hal parec╠a tan humana no era tan solo porque compart╠a con nosotros varios de nuestros sentidos (y quizĚs alguno mĚs) con la consiguiente capacidad de escuchar, ver, mirar y hablar a los humanos, con el aĎadido primordial de poder expresar el afecto, sino tambi╚n con el no menos estrat╚gico y determinante de poder reconocerlos. ¿Requisitos del gui█n, deseos de provocarnos, sugesti█n acerca de un futuro en donde los humanos y la mĚquinas cooperaremos finalmente, y podremos intercambiar nuestros rasgos mĚs valiosos, enterrando los detestables, lo cierto es que Hal era mucho mĚs emotiva que los humanos que la secundan (y creen controlarla) en el viaje a JÖpiter?

Entre las grande habilidades de Hal estaba reconocer cuando su interlocutor estĚ atento, interesado, aburrido, preocupado o loco de odio. El problema de Hal es que su habilidad por reconocer los estados de Ěnimo de los humanos (como nos pasa mucho tambi╚n a nosotros) no estĚ acompaĎado, ni lejanamente, por una capacidad de ejecutar acciones que se correspondan con la sutileza en la detecci█n de sus emociones. Matar a la tripulaci█n porque quieren desconectarla es el mejor ejemplo de esta asimetr╠a.

Estamos a aĎos luz de entender qu╚ son las emociones y c█mo programarlas en una mĚquina pero ciertos intentos incipientes en, por ejemplo, el can█nico Media Lab del MIT focalizado en el reconocimiento de expresiones faciales, y en la s╠ntesis de la voz afectiva sugieren por d█nde empezar, aunque quizĚs haya que cambiar de caballo en medio del r╠o.

Un buen ejemplo (imposible de trasmitir con el texto) es tratar de hacer corresponder expresiones faciales que denotan desde la neutralidad emotiva hasta las variantes mĚs t╠picas de nuestros estadios emocionales (bronca, enojo, felicidad o sorpresa) con interpretaciones digitalizadas de patrones que traducidos por la mĚquina revelan las emociones originales. Aunque no aÖn en tiempo real, y reduciendo la muestra s█lo a emociones bĚsicas relativamente sobreactuadas, el reconocimiento alcanza la alt╠sima cifra del 98% de los casos.

Lamentablemente (o por suerte), as╠ como los rasgos faciales trasmiten casi mejor que ningÖn otro nuestras emociones, son tambi╚n los mĚs fĚciles de ser desviados y corregidos en direcci█n de un ocultamiento o desfiguraci█n de las emociones -aunque no enteramente-.

El otro componente bĚsico de la expresi█n emotiva estĚ dado por el tono de voz. Las emociones atraviesan distintos rasgos del lenguaje tales como la cualidad de la voz, la velocidad de la expresi█n y el contorno de su alcance, algo que se puede comparar en forma fantĚstica tanto en un espectrograma como en la amplitud del pitch. El caso inverso, o reconocer como algo es expresado, es casi tan inasible -hoy por hoy- como el anterior. Lo que Hal hac╠a por naturaleza (diseĎada) nosotros ni siquiera sabemos como planteĚrnoslo.

Hollywood y el hermano Bill Gates (ayudado por la NASA, el Departamento de Defensa y otros amigos por el estilo) estĚn imaginando computadoras personales capaces de seguir nuestros estados afectivos, nuestras mĚs m╠nimas reacciones frente a los problemas o usos de la tecnolog╠a y los materiales, de forma invisible, no intrusiva, detallada y efectiva. ¿Big Brother afectivo esta vez?

Todo esto estĚ muy lejos aÖn de llevarnos al fondo a saber ¿es posible (deseable, realizable) crear computadoras que tengan emociones? La discusi█n se abrir╠a aqu╠ indefinidamente pero independientemente de cual fuera el rumbo que tome deber╠a incluir dos condimentos, que por si solo ameritan nuevos ensayos, volviendo infinito y recursivo este recuento de la herencia de Hal.

Por un lado deber╠amos explorar la teor╠a del cerebro triÖnico de Paul McLean (que ya cumpli█, la teor╠a no ╚l que no s╚ si seguirĚ vivo, igual que yo 48 abriles) segÖn la cual el cerebro estĚ conformado por tres regiones: la neomamalia que contiene al neocortex; la paleomamalia que contiene al sistema l╠mbico incluyendo al hipotĚlamo, el hipocampo y las estructuras de las am╠gdalas, y el reptiliano que gobierna las funciones primitivas. Como el sistema l╠mbico tiene un nÖmero de interconexiones con el neocortex, las funciones cerebrales tienden a mixturar los procesos l╠mbicos con los corticales.

Por otro lado, deber╠amos revisar los resultados del c╚lebre paciente Elliot de A. R. Damasio quien al tener daĎos cerebrales que afectaban precisamente la comunicaci█n entre esas dos partes del cerebro, termin█ estando tan desprovisto de emociones como el Dr. Spock de "Viajes a las Estrellas", pero con ninguna de sus ventajas racionales, demostrando algo que hasta ahora dif╠cilmente pod╠amos haber conjeturado, a saber que no s█lo muchas emociones pueden destruir pensamientos y vidas (como la de Macbeth como las grandes estrategias de Shakespeare bien lo atestiguan), sino que tambi╚n demasiadas pocas emociones (la imposibilidad de articular elecciones equivocadas con sentimientos de dolor, culpa y repetici█n de los mismos errores) puede hacer pomada una (o muchas vidas).

Llegados a este punto cada vez estamos mĚs cerca de la teolog╠a cibern╚tica, que de la programaci█n y el diseĎo de las mĚquinas. Aunque tal vez hablar de diseĎo de la autonom╠a, y una computadora con afectos podr╠a ser un buen modelo que nos lleve por una senda mĚs interesante en direcci█n de las propuestas de Kelly, Varela y Flores sobre el "Out of control".

En su excelente art╠culo "Does Hal cry digital tears? Emotion and Computers" (inclu╠do en la ya tantas veces citada antolog╠a de David Stork) Rosalind Picard cree mĚs que suficientemente probada la necesidad de incluir la detecci█n y expresi█n de emociones como una de la pocas formas de mejorar significativamente nuestra interacci█n con las mĚquinas, pero tambi╚n se preocupa con una pregunta que la ciencia-ficci█n explor█ reiteradamente y que en "2001" y en "Blade Runner" alcanza honduras metaf╠sicas.

¿Podemos/podremos crear computadoras que reconocerĚn y expresarĚn afecto, sentirĚn la empat╠a, exhibirĚn creatividad y capacidad de resoluci█n de problemas en forma inteligente, y nunca herirĚn a los humanos en el despliegue de sus reacciones emocionales?

Gran parte de la obra de Isaac Asimov (y la violaci█n a sus tres reglas rob█ticas: 1) un robot no debe daĎar a un ser humano o, por su inacci█n, dejar que un ser humano sufra daĎo; 2) un robot debe obedecer las █rdenes que le son dadas por un ser humano excepto cuando estas █rdenes estĚn en oposici█n con la primera ley; 3) un robot debe proteger su propia existencia hasta donde esta protecci█n no est╚ en conflicto con la primera o segunda leyes, ha dado un amplio campo a una especulaci█n literaria de primer orden) fue dedicada a contestar este interrogante.

Lo que queda claro llegados a este punto es como una nueva paradoja ha ingresado en el Ěmbito de la reflexi█n/acci█n/diseĎo y ya no nos abandonarĚ. Crear mĚquinas inteligentes exige necesariamente dotarlas de emociones, pero tambi╚n nos pone frente al inevitable resultado (y Hal es la mejor pantalla de proyecci█n para esta situaci█n) de que probablemente carezcan de la inteligencia necesaria para manejar esas emociones.

La conclusi█n de nuestra gira (aunque aÖn haga falta pasearnos por el ap╚ndice de la planificaci█n) es que la principal raz█n del fracaso del programa de la inteligencia artificial fue haber ignorado la inteligencia emocional (no ya de los humanos) sino de las propias mĚquinas. De lo que caben muchas mĚs dudas es, en cambio, de que nosotros, o al menos yo, (que somos incapaces de comprender nuestras emociones y mucho menos de articularlas creativamente con nuestra raz█n) estemos preparados para convivir con las mĚquinas emocionales. Si ni siquiera podemos convivir con nosotros mismos.

Agradecimientos
Como nadie inventa nada esta edito abreva tanto en las ricas notas aparecidas en la revista Wired de enero de 1997 de Simson Garfinkel "Happy Birthday, Hal", y de Paula Parisi "The intelligence behind AI" as╠ como en el exhaustivo y sustancioso volumen de David Stork Hal's Legacy. 2001 computer as dream and reality (MIT 1997) que nos recomendarĚ en nuestra reciente visita a New York Naief Yehya .

Alejandro Piscitelli


Editoriale