Cuestiones Problem·ticas
 

La herencia de Hal 9000. El sentido com™n o el menos com™n de los sentidos.

Primera Parte

Se cumpliÛ hace un aÒo aÒo- m·s precisamente el 12 de enero de 1997 el nacimiento de Hal 9000 uno de las m·s portentosos sÌmbolos y met·foras de nuestra idealizaciÛn de la inteligencia maquinal, asÌ como de nuestras proyecciones m·s infantiles y simplistas acerca de que lo superinteligente es necesariamente malo -como nos lo enseÒÛ y lo sigue cumpliendo a rajatabla no tanto la inteligencia artificial en sÌ, como esa f·brica de deseos artificiales mucho m·s productiva y efectiva que es Hollywood.

No vamos a retomar aquÌ ese circuito que vincula con fuerza las im·genes deseadas, las proyecciones al futuro, la constataciÛn de que nosotros somos nuestro futuro, y de que el mejor modo de predecirlo es construyÈndolo (como lo aprendiÛ hace rato Bill Gates). TambiÈn siempre tenemos fresca esa sagaz afirmaciÛn de Arthur Clarke para quien cualquier tecnologÌa lo suficientemente avanzada es indistinguible de la magia.

Hal-9000 el hÈroe psicÛpata de Kubrick, es el paradigma de un fin de milenio en donde la tecnologÌa avanza a m·s no poder y donde la Ètica pr·ctica retrocede a pasos no menos agigantados.

Porque nos pegÛ fuerte (incluso cuando la vimos en la versiÛn doble al alem·n en Viena en 1969), porque marcÛ un horizonte todavÌa insuperable, porque importa tanto lo que prometiÛ como lo que no cumpliÛ, porque sigue siendo el lÌmite respecto del cual buscamos pensar lo impensable, Hal es una buena companÌa para festejar los portentos y la simpotencias del pensamiento.

2001 es una meditaciÛn sobre la evoluciÛn de la inteligencia, desde el desarrollo de las herramientas inspirado por el monolito (al que Kubrick originalmente querÌa presentar como un tetraedro), a travÈs de la Inteligencia Artificial de Hal (tan parecida a la nuestra que no parece tener nada de artificial o al menos no m·s que nosotros), hasta llegar a la etapa de la estrella niÒo -que puede derrapar tanto en una interpretaciÛn mÌstica que no nos seduce, como en una m·s metafÛrica acerca de las redes como inteligencias m·s que humanas.

¿QuÈ podÌa hacer Hal como nosotros? ¿QuÈ es lo que nosotros no podemos hacer para que algo/alguien sea como Hal en 1997? Hal podÌa jugar al ajedrez... como un humano no como Deep Blue. Es muy distinto jugar al ajedrez con alguien (humano o no) que tiende trampas (como hizo la propia Hal en la partida que le gana Bowman en la pelÌcula), que utilizar los principios del minimax (por m·s chips especializados o procesadores en paralelo cerca de 250 en el caso de Deep Blue a un millÛn de b™squedas cada uno). Ejercitar selectividad en las b™squedas y especialmente hacer uso del tiempo como hacen los grandes maestros que utilizan adverbios de tiempo como nunca, eventualmente, alguna vez, son actividades que ninguna m·quina real logrÛ hacer hasta ahora.

Šsta juega al ajedrez gracias a la fuerza bruta y el c·lculo puro, carece de evaluaciÛn sofisticada, su aprendizaje es nulo (ya que sus bases de datos son est·ticas), y sus capacidades de razonamiento generales (porque utiliza procesadores ultraespecÌficos) son pr·cticamente inexistentes.

Hal habla como un ser humano (¡bah de hecho su voz es la del actor canadiense Douglas Rain quien grabÛ la sensual y maravillosa voz en un dÌa y medio sin saber para quÈ era aunque al final su fama quedÛ siempre asociada a ese doblaje!). Todo los programas de sÌntesis del habla, que tenemos hoy, a pesar de pertenecer a la historia de la m·quinas parlantes, est·n a aÒos luz de asemejarse a Hal.

Hal 9000, nuestra m·quina favorita o ese ojo colorado omnisciente tambiÈn escucha... como un ser humano, pero nada de lo que construimos hasta ahora se asemeja ni remotamente al modelo que nosotros fuimos del suyo. En ninguna m·quina aparece el conocimiento como estratificaciÛn de sentido, ninguna es capaz de remedar la impredictibilidad del lenguaje humano que hace tan fascinante tener una conversaciÛn con alguien que se la merezca.

TambiÈn Hal usa el lenguaje... como un ser humano, ve como nosotros, puede leer los labios, en algunas escenas cruciales de la pelÌcula parece verter l·grimas de computadora, y sobretodo es capaz de planificar, aunque sea la muerte de nuestros congÈneres cuando cree -a su (¿mal?)-entender que los nuestros quieren obstaculizar "su" misiÛn.

Aunque no podemos entrar en detalles -ver el exquisito libro de David Stork Hal's Legacy- Hal es el resultado de un paradigma de desarrollo de la inteligencia artificial... inexistente. Ninguno de los paradigmas reales que han estado en competencia en los ™ltimos 50 aÒos han podido llegar a resolver casi ninguno de los problemas que para Hal son pan comido (y que convierten finalmente a los astronautas en carne para el asador de la Inteligencia Artificial de Hal).

Ello se debe entre otras cosas a que ante la mala pregunta: quÈ es la inteligencia: ¿reglas o contexto? los dos programas herederos de las cuestiones y discusiones filosÛficas que se inician en 1956 en la Conferencia de Darmouth, se extraviaron y todavÌa hoy pueden a lo sumo generar resultados puntuales exitosos, pero confundiendo totalmente el ·rbol de sus negocios con el bosque de la autonomÌa y creatividad humanas.

Como bien dijo Minsky en una entrevista "en Inteligencia Artificial no se hicieron bien los deberes". Sus adoptantes tempranos en seguida quisieron ir a los problemas pr·cticos o m·s inmediatos (ajedrez o reconocimiento de la voz), y dejaron de lado lo m·s importante que era entender los principios computacionales b·sicos (aprendizaje, razonamiento y creatividad) que subyacen a la inteligencia. Es por ello que no se ha avanzado demasiado en la construcciÛn de una m·quina verdaderamente inteligente, de una Hal-9000. Tenemos una gran cantidad de especialistas tarados en dominios muy acotados, la verdadera majestuosidad de la inteligencia general nos es a™n ajena

Por eso mismo Deep Blue le ganÛ a Kasparov. QuedÛ asÌ demostrado que jugar bien al ajedrez es posible, pero jugar bien al ajedrez no dice nada acerca de lo que es aprender y mucho menos acerca de la inteligencia humana. Lo que a las m·quinas les sobra es poder de computaciÛn. Pero les falta  todo lo relacionado con los desafÌos que plantea el sentido com™n, y sobretodo la intrincada trama que hace posible que nos constituyamos en el lenguaje y seamos capaces de representar el conocimiento.

Equivocarse es la esencia de lo humano. Lo menos creÌble de Hal (que quiz·s dice mucho acerca de la NASA y de sus hombres) es cuando afirma que "ninguna computadora 9000 ha cometido jam·s un error", sostiene Douglas Lenat el inventor del programa Eurisko.

Este programa descubrÌa cosa por sÌ mismo, y por ello habÌa que darle potestad para intervenir con sus propias heurÌsticas de aprendizaje y objetivos. Trabajaba toda la noche pero cada tanto aparecÌa..... muerto. La razÛn de este comprotamiento era parecida a las tribulaciones que sufriÛ Hal. Pero a la inversa que nuestro serial killer maquinal, Eurisko ponÌa en un pie de igualdad dos reglas que Èl mismo valoraba en extremo: "no cometer ning™n error" y "hacer nuevos descubrimientos productivos". Para no equivocarse, que era lo m·s creativo que habÌa encontrado hacer, preferÌa no hacer nada, es decir preferÌa suicidarse. Lenat tuvo que aÒadir una nueva heurÌstica que prohibÌa esa equivalencia y que nosotros ya tenemos incorporada en nuestro diseÒo evolutivo.

SÛlo hay tres maneras de no equivocarse. O hacemos como Eurisko, es decir, no hacemos nada, o hacemos como Hal/Shakespeare/Clint Eastwood que hacen no quede nadie vivo alrededor para cuestionarnos; o nos confundimos con Dios, que es omnisciente. El resto del tiempo hay que probar y ver que pasa. La verdadera medida de la inteligencia es enfrentarse a situaciones paradojales y sortearlas sin morir ni tener que matar.

Los humanos somos inconsistentes y debemos lidiar con esa inexactitud que proviene de: distintos distintos niveles de generalidad y precisiÛn, de distintos status epistemolÛgicos, o de informaciÛn aprendida en distintos momentos y de diferentes modos.

TodavÌa estamos en los pre·mbulos de estas cuestiones por lo que hablar de m·quinas inteligentes es en todo caso m·s revelaciÛn de un deseo que constataciÛn de una posibilidad.

La fantasÌa de ver enfrentados a humanos y m·quinas alcanza su paroxismo en muchas escenas de pelÌculas de ciencia ficciÛn. A lo mejor si somos capaces de entendernos mejor y tolerarnos m·s podremos evitar que las m·quinas hagan con nosotros lo que muchas veces nosotros hacemos con los dem·s. No pidamos piedad a los entes post-humanos si somos incapaces de actuar con paciencia, ternura y cordura frente a nuestros propios congÈneres.

Segunda Parte

Un nene de pocos aÒos se pierde en medio de la cordillera y sobrevive comiendo d·tiles o porquerÌa, pues quiÈn sabe... Centenares de miles de chicos de la calle sobreviven cada dÌa en las ciudades cuidados/explotados por otros que apenas tienen unos aÒos m·s que ellos y sin ning™n tipo de educaciÛn formal.

Nos sorprende m·s la excepcionalidad del primer caso que la trivial amenaza del segundo, pero en ambos est·n operando millones de aÒos de historia evolutiva, y miles de aÒos de conocimiento t·cito generado por la cultura. Si estos chicos y chicas sobreviven fuera de la tutela institucional y del manto protector/inhibidor/represor de la cultura, es porque en ellos est· ampliamente desarrollado el sentido com™n, una capa de inferencias y de predicciones -histÛricamente con un valor de supervivencia muy grande- que nadie nos enseÒa, ni expresa ni implÌcitamente, pero que nosotros (pre-programados como estamos para aprenderlas) inhalamos con igual avidez que el oxÌgeno.

Si la Hal 9000 de Clarke/Kubrick era tan creÌble, era porque Èl/(¿ella?) habÌa resuelto este formidable intrÌngulis. De otro modo jam·s habrÌa podido mantener conversaciones en las que se filtraban expresiones que son pan comido para los humanos pero chino b·sico o superior para los robots de hoy, tales como: -"est· llegando una transmisiÛn de tus padres" y no creer que estaban llegando los padres en persona; o decirle a Dave: -"¿puedes acercar el dibujo del Dr. Hunter un poco m·s? y suponer que se le pedÌa que se lo acercara al "ojo" de Hal y no al de Dave, o decir: -"ese el Dr. Hunter" sin que hiciera falta que se le contestara: -"no, es un dibujo del Dr. Hunter". Y asÌ sucesivamente.

Cuando hablamos entre nosotros no sÛlo est·n implÌcitos los miles y un preconcepciones propias de cada grupo, o los que corresponden a las culturas, los localismos, las nacionalidades, las etnias y las religiones, sino tambiÈn esta mirÌada de redes de inferencias y de suposiciones siempre presentes y que hacen de la ambig¸edad del lenguaje un pozo de invenciÛn del sentido inagotable, pero al mismo tiempo un vehÌculo de comprensiÛn posible... a pesar de esa misma ambig¸edad tan deseada/temida.

Cuanto m·s amplio es ese trasfondo com™n, o codificaciÛn compartida, menos palabras hacen falta para entendernos, el uso de las met·foras y de la ambig¸edad elaborada puede expandirse y las roturas o torceduras de pescuezo de la gram·tica (tan poco recomendadas por los tersos profesores de lenguas extranjeras y de la propia tambiÈn) son cada vez m·s frecuentes y exitosas.

Estamos tan marcados por el peso del sentido com™n (que ¡ojo! se da en forma estratificada, asÌ que hay un sentido com™n ordinario y otro extraordinario que corresponde a las carreras profesionales, a las funciones ejecutivas, a los roles diferenciados que cumplimos en la vida, a las expectativas sociales, etc. como bien analizÛ Clifford Geertz en su cl·sico "La InterpretaciÛn de las Culturas"), que para nosotros es un descubrimiento saber que no hay momento de la vida en que no operemos bajo su Ègida.

De hecho en la historia de nuestros acoples con los dem·s (muy ligado a lo que Humberto Maturana llama la pegajosidad) esta co-codificaciÛn se vuelve cada m·s precisa como los ejemplos de los gemelos (hasta llegar al fascinante y repugnante final de "Dead Ringers" de Cronenberg), parejas de larga data o coequipers no menos intensos nos revelan.

Dependemos permanentemente del contexto y del sentido com™n y Èste entra constantemente en funcionamiento, como cuando desciframos la terrible caligrafÌa de los dem·s (o la de uno mismo como es mi caso), o en nuestras acciones cuando debemos frenar o acelerar (indistintamente y en forma no prefijada) para no chocar.

Por eso Lenat sostiene con razÛn que antes de que tengamos robots que manejen taxis (como en la parÛdica escena de "El Vengador del Futuro"), tendremos que haber descubierto como destilarles un sentido com™n lo suficientemente refinado como para que distinga quÈ vale m·s, si la vida de una persona o la de un gato (salvo excepciones para mÌ la de los gatos), que los perros jÛvenes son m·s proclives a arrojarse bajo las ruedas de los coches que los viejos (como le pasÛ a mi finado y amado Bugsy), que la muerte no es algo muy deseable y otras cosas m·s... que son precisamente las que ni siquiera podemos codificar por darlas nosotros mismo por sobreentendidas.

Todo muy bonito. El sentido com™n no es tan com™n y aparte es terriblemente complicado de convertir en reglas. Los robots son bastante idiotas y Hal 9000 es una producto de la ciencia-ficciÛn. ¿CÛmo salimos del marasmo? ¿Ser· posible codificar nuestro sentido com™n de alg™n modo, cuestiÛn de alojarlo en el cerebro (o en el programa que hace las veces de) de un robot?

Es lo que cree Douglas Lenat que hace m·s de 12 aÒos que est· tratando de enseÒarle a su programa CYC estas minucias. Para Èl la operaciÛn de traspaso (de invenciÛn de m·quinas con sentido com™n) requiere de tres pasos correlativos: a) llenarle el bocho de millones de tÈrminos cotidianos, conceptos, hechos y reglas de sentido com™n que determinan la realidad consensual humana; b) por encima de esta base construir la habilidad de comunicar en un lenguaje natural, tal como el inglÈs, el castellano, el diaguita o el aymar·; c) a medida que se acerque a las fronteras del conocimiento humano en alg™n ·rea, como no le quedar· nadie con quien hablar deber· inventar su nueva cotidianeidad y originalidad.

¿Cu·ntas cosas y cu·les debe saber para empezar a andar humanamente por el mundo? ¿Y cÛmo enseÒ·rselas? Durante los primeros seis aÒos de su experiencia Lenat y sus asociados trabajaron con las enciclopedias, pero no tanto con lo que ellas dicen, sino con lo que suponen que nosotros sabemos para entender lo que nos dicen. A partir de 1990 invirtieron el enfoque y empezaron a trabajar con una aproximaciÛn top-down tratando tÛpicos enteros de un solo saque y en cierto detalle. Cuando llegaron a 1996 CYC conocÌa centenares de temas.

Los problemas que se le plantearon a Lenat para representar el conocimiento son impresionantes y lo obligaron a pasar desde una forma de identidades exageradamente sencillas como por ejemplo "tiempo de nacimiento (Hal): 1/12/1997" al uso de la lÛgica de predicados de segundo orden, capaz de dar cuenta de las relaciones y que tiene problemas de un tipo obviamente superior (a quien le interese en serio el tema de la evaluaciÛn de la primera faz del programa puede animarse con Lenat, D y R.V.Guha "Building large Knowledge-Based Systems" Addison Wesley, 1990).

El desarrollo del programa tuvo dificultades sin par y cambios sobre la marcha de criterios y valoraciones harto significativas. No es lo mismo otorgarle peso probabilista a cada sentencia que se le asignaba a CYC, como se hizo al principio, que suponer que todas son igualmente verdaderas, y debe ser tarea del programa decidir cu·ndo debe creer algo en funciÛn de sus propias argumentaciones internas como se decidiÛ finalmente.

TambiÈn hubo que resolver la discrepancia ineludible que hay entre los lenguaje naturales, que son expresivos pero ineficientes y los de programaciÛn que son eficientes pero no expresivos. Por ™ltimo se decidiÛ -con criterio- abandonar el sueÒo borgeano de una base de datos universal y ™nica, y se dividiÛ el conocimiento acumulado en centenares de microteorÌas consistentes internamente pero potencialmente inconsistentes entre sÌ. Gritar cuando algo sale bien en la oficina no queda muy bien pero no hacerlo en la cancha de f™tbol lo deja a uno pagando.

A diferencia de Deep Blue que en ocasiones puede anticipar las jugadas de ajedrez hasta 8 movidas por anticipado, CYC sÛlo ve dos o tres pasos m·s all· y su especialidad son los problemas que requieren hacer buenas inferencias. La propuesta es interesante y en muchos casos es operativa. Con un conocimiento de sentido com™n apropiado se pueden hacer inferencias r·pido y f·cilmente, y si no se tiene sentido com™n nunca se resolver·n los problemas que definen nuestra humanidad.

AsÌ, ya hay pruebas interesantes de sus logros en la comprensiÛn del lenguaje natural, en la evaluaciÛn e integraciÛn de informaciÛn en hojas de c·lculo y bases de datos, y en el encuentro de informaciÛn relevante en bibliotecas de im·genes y en la WWW. He aquÌ la maravilla del sentido com™n, con sÛlo tener muy poco podemos llegar muy lejos. La tragedia de Hal fue tener una inteligencia superior con valores muy pobres y un sentido com™n perforado como un colador.

Los resultados de CYC son m·s que pobres en tÈrminos de lo que Hal hacÌa, pero infinitamente m·s prometedores de los que la Inteligencia Artificial tradicional, obsesionada por construir robots pesados y est™pidos, obtuvo en casi cincuenta aÒos de investigaciÛn.

Pero m·s interesante que una evaluaciÛn detallada de sus rendimientos (debida precisamente a sus errÛneas bases epistemolÛgicas como examinamos en la materia) es la convicciÛn que Lenat, su creador tiene de que ni el Hal posible del futuro, ni el CYC verdarero de hoy, ni ninguna de estas m·quinas o programas tendr· emociones (o tendrÌa que tenerlas), porque las emociones no son ™tiles para integrar informaciÛn, tomar decisiones basadas en esa informaciÛn y cosas por el estilo.

Con un antropomorfismo y un miedo narcisista rara vez expresado con tanta claridad (comparen con lo que dice Mazlisch), Lenat sostiene que una computadora puede llegar a pretender o a inventar emociones sÛlo para satisfacer su interacciÛn con el usuario. AquÌ la pifia y muchÌsimo y tambiÈn en ideas como Èstas se ve que por mucho que CYC haya avanzado sus lÌmites ya se sienten en el horizonte.

Tercera Parte

En 2001, una pelÌcula, como en 1997 en la vida, hay una tensiÛn constante entre la verosimilitud (aquello que debe ser para que nosotros lo creamos), y la realidad (lo que las cosas son aunque nosotros no las creamos). Entre lo que nosotros necesitamos que sea por razones narrativas, y lo que es pero que al carecer de fuerza retÛrica y de efecto estÈtico, no merece mayor atenciÛn por m·s factible o concretablemente tecnolÛgicamente que sea.

En su excelente artÌculo "Living in space: working with machines on the future" de Donald A. Norman contenido en la antologÌa de Stork (ver las partes una y dos de este ensayo, para una sÌntesis de las principales discusiones de este volumen elaborado conmemorando el natalicio de la supercomputadora emocional Hal-9000) hay una serie notable de ejemplos de cÛmo funciones rutinariamente ejecutadas en la pelÌcula rompen con los encuadres o suponen soluciones tecnolÛgicas inalcanzables hoy (y durante largo rato), y por el contrario como los principales ingredientes que vertebran la interacciÛn humana: la vida social y la circulaciÛn de las emociones, fueron reduccionistamente retaceadas o ignoradas en la proyecciones de un futuro sin sorpresas, realizadas b·sicamente por diseÒadores (que ignoran a los usuarios), por futurÛlogos que son incapaces de imaginarse un futuro radicalmente diferente del hoy, y por tÈcnicos y cientÌficos que cuando trabajan se olvidan de que viven, en un mundo en donde el esparcimiento, la sociabilidad y la convivialidad inteligentes son ingredientes constitutivos de nuestra humanidad.

Contornearemos esas sabias crÌticas y lamentos, e ingresaremos en los dos ™ltimos espacios en los que las m·quinas de hoy distan infinitamente del modelo que a veces con picardÌa (sobretodo por su capacidad de mentir, pero otras con notable ignorancia de la inventiva -al no poder imaginar ni las interfases gr·ficas pero mucho menos el mundo de la miniaturizaciÛn y las formas mas recientes de interacciÛn hombre/m·quina-) fueron sistem·ticamente ignoradas en 2001: a saber el rol de las emociones en los procesos cognitivos, y lo increÌblemente intrincado y ligado a las emociones y los estados mentales que est· la operaciÛn de planificar. En los dos prÛximos puntos nos ocuparemos de lo primero y dejaremos para nuestro borroso futuro la quinta y ™ltima entrega sobre esta serie y la planifaciÛn en las m·quinas.

Lo que nos identificÛ a muchos de los espectadores con Hal-9000 (a esa altura de la trama nada m·s ni nada menos que un serial-killer de los mejores) fue su voz. AsÌ como algunos nos enamoramos de voces (como las de Elizabeth Vernacci o Nucha Amengual o de cualquiera de las sensuales locutoras en su momento) sorprendiÈndonos a m·s no poder si alguna vez llegamos a conocer a la persona que la detenta, es precisamente esa entonaciÛn -para nosotros apasionada y profundamente humanizada, aunque sabemos que la voz de carne y hueso de Douglas Rain ni sabÌa lo que estaba grabando- de la computadora cuando la van a desconectar, o en sus di·logos tan Turingnianos con la tripulaciÛn terrestre.

La emociÛn juega un lugar estratÈgico en toda obra de arte, por eso no sorprende que 2001 estÈ teÒida de cabo a rabo por sus promesas y excesos. Lo que llama la atenciÛn en 2001 es que la m·quina (es decir una voz, m·s una arquitectura monumental y superfuturista) expresa m·s emociones (y las despierta m·s y mejor en nosotros) que los propios seres humanos. Nos doliÛ mucho m·s la muerte de Hal al ser desconectada por el terrestre Bowman, que la de Frank Poole en el espacio cÛsmico a manos de Hal.

Lo cierto es que las computadoras de hoy no gimen ni protestan cuando las apagamos, y sus canciones de despedida de la vida (elÈctrica), jam·s asumen la forma de una canciÛn -como el triste Daisy de Hal- sino a lo sumo un crÌtico e inexpresivo "unexpected fatal error -60", o m·s lacÛnicamente la bomba "unimplimented trap error 11" que todavÌa seguimos experimentando cada tanto en las veneradas Macs.

Y aunque ocasionalmente alguien le grite a su m·quina (y alguna vez alguien tambiÈn la haya estrellado contra el piso, o haya hundido un martillo en su pantalla), Èstas parecen no darse cuenta (a menos que empiecen a funcionar cada vez peor despuÈs de amonestadas, o al menos asÌ nos parece a nosotros cuando las antropomorfizamos m·s de la cuenta), y a diferencia de nuestras mascotas no tienen la molesta costumbre de que una vez que mean en la alfombra lo siguen haciendo independientemente de nuestros ruegos, reprimendas o mortificaciÛn.

Aunque pens·ndolo un poco, ¿tiene sentido creer (esperar, diseÒar) computadoras con emociones? ¿Es un escenario algo m·s que risible imaginar a alguien entrando en un supermercado de las m·quinas y escuchar(se) pedir: dÈme la m·s emocional de sus m·quinas? ¿No nos precavÌa Lenat de la venganza de las m·quinas (en el caso de que estuvieran dotadas de emociones) o lo mucho mejor encaminado que estarÌa un mundo en donde quienes tomen las decisiones, como querÌan las viejas tradiciones filosÛficas, no estuviera contaminada por la volubilidad y voluptuosidad de la pasiÛn?

ParadÛjicamente todos soÒamos (desde mi madre que espera alg™n dÌa poder comprarse un robot de limpieza casero, hasta el holodeck de Star Trek capaz de inventarse personajes a los que eventualmente se puede besar y amar), con computadoras personales dotadas de personalidad, que nos hagan reÌr y enojar simp·ticamente, que sientan nuestro estados de ·nimo (y si es posible que lo mejoren), y que sean lo suficientemente divertidas y amigables como para ser consideradas compaÒeras de juego y de trabajo como nuestros amigos m·s queridos, inteligentes y creativos.

He aquÌ el quid de la cosa, a diferencia de lo que creyÛ la filosofÌa tradicional, y en contra de lo que supusieron los programas pioneros y ancestrales en inteligencia artificial, la inteligencia humana (la propia de un ser que se equivoca e inventa todo el tiempo y hasta goza con sus errores y se aburre de verdades conseguidas mec·nicamente) est· (¿pÈrfida, magistralmente?) permeada por las emociones.

DespuÈs de todo (y desde los cursos sobre interfases avanzadas hasta la pÈrdida increÌble de tiempo, productividad y entusiasmo que supone el contacto con las m·quinas de hoy) est· basado, principalmente, en haber desacoplado -como se esmerÛ y logrÛ para su fracaso y nuestro desinterÈs el programa sintÈtico en inteligencia artificial- las funciones cognitivas de las emocionales. Aunque claro -y esa es la principal lecciÛn de 2001- emociones sin control pueden ser tan letales como un control sin emociones.

Es difÌcil saber quÈ son las emociones. Porque si el miedo y la rabia son f·cilmente caracterizables, otros tÈrminos (que designan estados afectivos) como el interÈs, el aburrimiento, la esperanza o la frustraciÛn parecen pertenecer a la misma categorÌa, o no tanto.

Tampoco est· nada claro, y hay un montÛn de teorÌas al respecto, que son las emociones: si la mera expresiÛn de estados fisiolÛgicos tales como la aceleraciÛn en el ritmo cardÌaco que acompaÒa a la rabia, o si no son m·s bien -en el otro extremo- meras variantes del pensamiento. Sean lo que sean (y la verdad es que sabemos bastante poco de ellas considerando lo importante que son) nadie discute que las emociones pueden comunicarse, y eventualmente contagiarse al punto tal que un actor efectivo es un maestro en el arte de trasmitir los afectos y de hacerlos variar m·s o menos a voluntad.

AsÌ las cosas, y sabiendo que las computadoras de hoy son m·s incapaces de comunicarse con nosotros que un marciano con una ameba (a menos que se trate de parientes lejanos y nosotros lo desconozcamos) ¿quÈ tendrÌa que saber/sentir una m·quina para poder trasmitirnos sus afectos, pero lo que es mucho m·s inmediato y necesario para experimentar los nuestros?

Cuarta Parte

Para que la Hal-9000 real de nuestro futuro -prÛximo o distante- pueda comunicarse mejor con nosotros deber· necesariamente reconocer nuestras expresiones faciales y, concomitantemente, nuestros estados afectivos. Entre las muchas razones del cogitus interreptus que se da entre dos personas, las limitaciones del ancho de banda en cuanto a transmitir matices y preservar el contacto del efecto apabullante del sentido literal, son uno de las causas m·s notorias. ¿Por quÈ habrÌa de ser distinto entonces en nuestro contacto con la m·quina?

La historia del correo electrÛnico, las flame wars, la cantidad considerable de violencia simbÛlica que se transmite en las listas y que aflora en los chats on line, est· muy ligada a la imposibilidad (vanamente sustituÌda por los emoticones, cierta experiencia ducha y las ganas de remendar los horrores), de vehiculizar el tono que es un componente insustituible en los intentos de expresar las emociones humanas.

Si Hal parecÌa tan humana no era tan solo porque compartÌa con nosotros varios de nuestros sentidos (y quiz·s alguno m·s) con la consiguiente capacidad de escuchar, ver, mirar y hablar a los humanos, con el aÒadido primordial de poder expresar el afecto, sino tambiÈn con el no menos estratÈgico y determinante de poder reconocerlos. ¿Requisitos del guiÛn, deseos de provocarnos, sugestiÛn acerca de un futuro en donde los humanos y la m·quinas cooperaremos finalmente, y podremos intercambiar nuestros rasgos m·s valiosos, enterrando los detestables, lo cierto es que Hal era mucho m·s emotiva que los humanos que la secundan (y creen controlarla) en el viaje a J™piter?

Entre las grande habilidades de Hal estaba reconocer cuando su interlocutor est· atento, interesado, aburrido, preocupado o loco de odio. El problema de Hal es que su habilidad por reconocer los estados de ·nimo de los humanos (como nos pasa mucho tambiÈn a nosotros) no est· acompaÒado, ni lejanamente, por una capacidad de ejecutar acciones que se correspondan con la sutileza en la detecciÛn de sus emociones. Matar a la tripulaciÛn porque quieren desconectarla es el mejor ejemplo de esta asimetrÌa.

Estamos a aÒos luz de entender quÈ son las emociones y cÛmo programarlas en una m·quina pero ciertos intentos incipientes en, por ejemplo, el canÛnico Media Lab del MIT focalizado en el reconocimiento de expresiones faciales, y en la sÌntesis de la voz afectiva sugieren por dÛnde empezar, aunque quiz·s haya que cambiar de caballo en medio del rÌo.

Un buen ejemplo (imposible de trasmitir con el texto) es tratar de hacer corresponder expresiones faciales que denotan desde la neutralidad emotiva hasta las variantes m·s tÌpicas de nuestros estadios emocionales (bronca, enojo, felicidad o sorpresa) con interpretaciones digitalizadas de patrones que traducidos por la m·quina revelan las emociones originales. Aunque no a™n en tiempo real, y reduciendo la muestra sÛlo a emociones b·sicas relativamente sobreactuadas, el reconocimiento alcanza la altÌsima cifra del 98% de los casos.

Lamentablemente (o por suerte), asÌ como los rasgos faciales trasmiten casi mejor que ning™n otro nuestras emociones, son tambiÈn los m·s f·ciles de ser desviados y corregidos en direcciÛn de un ocultamiento o desfiguraciÛn de las emociones -aunque no enteramente-.

El otro componente b·sico de la expresiÛn emotiva est· dado por el tono de voz. Las emociones atraviesan distintos rasgos del lenguaje tales como la cualidad de la voz, la velocidad de la expresiÛn y el contorno de su alcance, algo que se puede comparar en forma fant·stica tanto en un espectrograma como en la amplitud del pitch. El caso inverso, o reconocer como algo es expresado, es casi tan inasible -hoy por hoy- como el anterior. Lo que Hal hacÌa por naturaleza (diseÒada) nosotros ni siquiera sabemos como plante·rnoslo.

Hollywood y el hermano Bill Gates (ayudado por la NASA, el Departamento de Defensa y otros amigos por el estilo) est·n imaginando computadoras personales capaces de seguir nuestros estados afectivos, nuestras m·s mÌnimas reacciones frente a los problemas o usos de la tecnologÌa y los materiales, de forma invisible, no intrusiva, detallada y efectiva. ¿Big Brother afectivo esta vez?

Todo esto est· muy lejos a™n de llevarnos al fondo a saber ¿es posible (deseable, realizable) crear computadoras que tengan emociones? La discusiÛn se abrirÌa aquÌ indefinidamente pero independientemente de cual fuera el rumbo que tome deberÌa incluir dos condimentos, que por si solo ameritan nuevos ensayos, volviendo infinito y recursivo este recuento de la herencia de Hal.

Por un lado deberÌamos explorar la teorÌa del cerebro tri™nico de Paul McLean (que ya cumpliÛ, la teorÌa no Èl que no sÈ si seguir· vivo, igual que yo 48 abriles) seg™n la cual el cerebro est· conformado por tres regiones: la neomamalia que contiene al neocortex; la paleomamalia que contiene al sistema lÌmbico incluyendo al hipot·lamo, el hipocampo y las estructuras de las amÌgdalas, y el reptiliano que gobierna las funciones primitivas. Como el sistema lÌmbico tiene un n™mero de interconexiones con el neocortex, las funciones cerebrales tienden a mixturar los procesos lÌmbicos con los corticales.

Por otro lado, deberÌamos revisar los resultados del cÈlebre paciente Elliot de A. R. Damasio quien al tener daÒos cerebrales que afectaban precisamente la comunicaciÛn entre esas dos partes del cerebro, terminÛ estando tan desprovisto de emociones como el Dr. Spock de "Viajes a las Estrellas", pero con ninguna de sus ventajas racionales, demostrando algo que hasta ahora difÌcilmente podÌamos haber conjeturado, a saber que no sÛlo muchas emociones pueden destruir pensamientos y vidas (como la de Macbeth como las grandes estrategias de Shakespeare bien lo atestiguan), sino que tambiÈn demasiadas pocas emociones (la imposibilidad de articular elecciones equivocadas con sentimientos de dolor, culpa y repeticiÛn de los mismos errores) puede hacer pomada una (o muchas vidas).

Llegados a este punto cada vez estamos m·s cerca de la teologÌa cibernÈtica, que de la programaciÛn y el diseÒo de las m·quinas. Aunque tal vez hablar de diseÒo de la autonomÌa, y una computadora con afectos podrÌa ser un buen modelo que nos lleve por una senda m·s interesante en direcciÛn de las propuestas de Kelly, Varela y Flores sobre el "Out of control".

En su excelente artÌculo "Does Hal cry digital tears? Emotion and Computers" (incluÌdo en la ya tantas veces citada antologÌa de David Stork) Rosalind Picard cree m·s que suficientemente probada la necesidad de incluir la detecciÛn y expresiÛn de emociones como una de la pocas formas de mejorar significativamente nuestra interacciÛn con las m·quinas, pero tambiÈn se preocupa con una pregunta que la ciencia-ficciÛn explorÛ reiteradamente y que en "2001" y en "Blade Runner" alcanza honduras metafÌsicas.

¿Podemos/podremos crear computadoras que reconocer·n y expresar·n afecto, sentir·n la empatÌa, exhibir·n creatividad y capacidad de resoluciÛn de problemas en forma inteligente, y nunca herir·n a los humanos en el despliegue de sus reacciones emocionales?

Gran parte de la obra de Isaac Asimov (y la violaciÛn a sus tres reglas robÛticas: 1) un robot no debe daÒar a un ser humano o, por su inacciÛn, dejar que un ser humano sufra daÒo; 2) un robot debe obedecer las Ûrdenes que le son dadas por un ser humano excepto cuando estas Ûrdenes est·n en oposiciÛn con la primera ley; 3) un robot debe proteger su propia existencia hasta donde esta protecciÛn no estÈ en conflicto con la primera o segunda leyes, ha dado un amplio campo a una especulaciÛn literaria de primer orden) fue dedicada a contestar este interrogante.

Lo que queda claro llegados a este punto es como una nueva paradoja ha ingresado en el ·mbito de la reflexiÛn/acciÛn/diseÒo y ya no nos abandonar·. Crear m·quinas inteligentes exige necesariamente dotarlas de emociones, pero tambiÈn nos pone frente al inevitable resultado (y Hal es la mejor pantalla de proyecciÛn para esta situaciÛn) de que probablemente carezcan de la inteligencia necesaria para manejar esas emociones.

La conclusiÛn de nuestra gira (aunque a™n haga falta pasearnos por el apÈndice de la planificaciÛn) es que la principal razÛn del fracaso del programa de la inteligencia artificial fue haber ignorado la inteligencia emocional (no ya de los humanos) sino de las propias m·quinas. De lo que caben muchas m·s dudas es, en cambio, de que nosotros, o al menos yo, (que somos incapaces de comprender nuestras emociones y mucho menos de articularlas creativamente con nuestra razÛn) estemos preparados para convivir con las m·quinas emocionales. Si ni siquiera podemos convivir con nosotros mismos.

Agradecimientos
Como nadie inventa nada esta edito abreva tanto en las ricas notas aparecidas en la revista Wired de enero de 1997 de Simson Garfinkel "Happy Birthday, Hal", y de Paula Parisi "The intelligence behind AI" asÌ como en el exhaustivo y sustancioso volumen de David Stork Hal's Legacy. 2001 computer as dream and reality (MIT 1997) que nos recomendar· en nuestra reciente visita a New York Naief Yehya .

Alejandro Piscitelli


Editoriale