La primera vez que dictamos la materia, el primer cuatrimestre de 1996, antecedimos el programa con una larga nota editorial. Aunque el programa (como cualquier otro vivisistema ya que el mismo es apenas un nodo en una red que incluye: alumnos, docentes, intereses, contexto externo, evolución, etc) está en ebullición, nos pareció interesante dejar esta pieza oratoria como justificación detallada de una movida que hoy sigue buscándose (y a veces se encuentra) a sí misma.
1. Problemas del conocimiento
¿Todo problema tiene una (o varias) soluciones? ¿Hay problemas o desafíos que escapan a la comprensión (o la dedicación) humanas? ¿Podremos algun día resolver todos los enigmas del universo y muy especialmente los enigmas que plantean el orígen y los mecanismos de producción de la vida, el sentido y la cultura?
Hace 2.500 años que hay lógica sistematizada y principios de clasificación y explicación en occidente. Por lo menos 500 años durante los cuales la ciencia experimental ha permitido aumentado vertiginosamente lo visible abriendo las fronteras de lo macroscópico y lo microscópico.
Cada día se descubren e inventan ingenios y fascinantes nuevas soluciones para problemas que hasta ayer eran desconocidos. Pero los centenares de premios Nobel otorgados a lo largo de los últimos 100 años, los billones de dólares que en el último medio siglo se han dedicado a la investigación y al desarrollo, las legiones de científicos y tecnólogos que han redibujado el mapa de lo cognoscible en ese lapso, ¿han revelado los secretos de la naturaleza, ese núcleo duro que constituye el corazón de lo queremos saber, o sólo han herido su costra y han debido consolarse con las migajas? ¿Y qué nos tocará (conseguiremos) nosotros en este reparto?
Ninguna cuestión nos desafía más para encarnar estas preguntas y dar pasos concretos para buscar responderlas que hacer un estudio panorámico (resaltando los principales mojones) de los intentos realizados durante las últimas décadas -y muy especialmente en la última- por reproducir mecánicamente -o simular mediante modelos matemáticos- los rasgos distintivos del comportamiento inteligente.
Y si bien hay mucho para discutir acerca de cuánto se logró en el terreno y hasta que punto hay alguna correlación positiva entre lo que se pretendía (entender o fabricar inteligencia) y aquello con lo que efectivamente contamos hoy (programas inteligentes que exhiban las formas mas elementales de conocimiento), hay un punto en el que la investigación sobre la síntesis de inteligencia se ha metamorfoseado drásticamente.
En sus inicios a mediados de la década del '50, el área de la inteligencia artificial si bien no era enteramente marginal necesitó de un gran esfuerzo para institucionalizarse y para que sus intuiciones y logros, pero sobre todo sus enormes promesas, trascendieran las paredes de los laboratorios. Fundamentalmente estuvieron al servicio de los Departamentos de Defensa y rara vez se les vio usos comerciales.
Casi medio siglo más tarde -y en particular en los últimos 15 a partir de la difusión de las computadoras personales- el interés, las implicancias y los alcances de las investigaciones en los laboratorios -con ciclos cada vez más cortos de investigación y desarrollo- no sólo alcanza cada vez a más gente (especialmente como usuarios de consumo masivo), sino que las investigaciones han tomado tal momentum y pueden llegar a tener tales consecuencias (desde la economía a la ética) que su estudio y evaluación trascienden largamente el terreno epistemológico o teórico, y se derraman sobre la vida cotidiana, el trabajo, el estudio, el empleo y donde quiera uno mirar.
Históricamente un grupo variado de disciplinas (que incluyen a la teoría de la información, la psicología cognitiva, la cibernética, las teorías de la auto-organización) se han desplegado desde inicios de la década del '50 con el fin de responder a los interrogantes acerca de la síntesis de la inteligencia humana y la posibilidad de entender su funcionamiento en vivo. Las preocupaciones de los investigadores que se sumergieron en este territorio pueden ubicarse bajo dos grandes orientaciones: i) el programa sintético (o programa Nº 1) y ii) el programa neuro fisiológico (o programa Nº 2).
El programa sintético identifica el pensar con los procedimientos utilizados en la toma de decisiones, el aprendizaje conceptual y la resolución de problemas. Su proyecto tiende al diseño de autómatas artificiales capaces de solucionar problemas, elegir entre distintas alternativas y reconocer formas perceptuales.
Sus defensores avalan sus propuestas en la existencia de ciertas semejanzas funcionales entre organismos y máquinas: tanto la computadora como el cerebro vivo pueden ser programados para tomar decisiones de cierto tipo; en ambos casos se utiliza a la retroalimentación como componente esencial del funcionamiento; el ambiente, tanto externo, como interno sería, en ambos casos, una información que debe comunicársele al sistema antes de ser procesada por los canales que forman parte de su red.
La hipótesis que fundamenta al programa Nº 1 es que el pensamiento modela a la realidad. Para el programa Nº 1, un cerebro vivo como sistema de comportamiento es una estructura relativamente simple. La aparente complejidad de su comportamiento simplemente refleja la complejidad del medio en que el cerebro se encuentra.
Para los investigadores del programa Nº 2, el neurofisiológico, estas observaciones optimistas pasan por alto diferencias básicas que hacen de la tecnología y la lógica de los autómatas artificiales meras reproducciones incompletas -por desconocimiento de la neurofisiología- del funcionamiento del cerebro viviente. Dichas diferencias son particularmente notables cuando se efectua un examen comparado de los métodos de almacenamiento, memorización y procesamiento de información en la máquina y en el cerebro humano: los principios del funcionamiento de los autómatas artificiales serían totalmente opuestos a los utilizados por el cerebro vivo. Mientras que las máquinas verían reducida su actuación al campo de las operaciones algorítmicas, el cerebro pasearía su majestuosidad por el campo mucho más impenetrable y variado de la heurística.
En vez de atiborrar a una computadora central con símbolos para que piense como un ser humano, se la pone en contacto con un conjunto enorme de máquinas hiper-simples que se excitan e inhiben mutuamente.
Nunca se programa símbolo alguno en las máquinas ya que toda la informacion necesaria para ejecutar una tarea cognitiva está codificada en los patrones de interacción y es reforzada por esta interconectividad. Todo el procesamiento consiste en esta actividad dinámica de los procesadores simples cuando interactúan entre sí y los procesadores dan una solución al problema al entrar en un estado dinámico de equilibrio. El único símbolo del que cabe hablar en estos procesos es el que emerge a partir de esta dinámica.
Ambos programas obtuvieron hasta principios de los '80 interesantes resultados -aunque muy por debajo de sus expectativas. Así el programa Nº 1 consiguió diseñar máquinas y aparatos bobos pero útiles, derivando en los robots industriales. El programa Nº 2 por su parte realizó algunos aportes incipientes en el campo del aprendizaje y ha tenido un impresionante espaldarazo en los últimos años a través de su reanimación a manos del conexionismo. Tales logros no deben llamar a engaño y las fuentes de legitimidad de los resultados también deben ser revisadas.
Aunque este no es el lugar para demostrarlo, una de los hilos conductores de la materia es que ya a principios de la pasada década ambos programas -y sus continuaciones actuales que son muchas y dominante- esta(ba)n estancados. Es decir que sus desarrollos teóricos habían quedado rezagados respecto de sus desarrollos empiricos.
Que haya dos programas y que los mismo coexistan en el tiempo muestra al menos dos cosas. Que los dos contienen algo de verdad y que ninguno de los dos contiene toda (o suficiente) la verdad. No es tan fácil desentrañar que es lo que ambos programas comparten y en donde se ubican sus limitaciones a dúo.
Existe una solidaridad epistemológica entre ambos (Bronstein & Piscitelli, 1983). La complementariedad de los dos programas está en su definicion de la inteligencia como capacidad de adaptación óptima a las presiones del entorno. Esta definición está basada en presupuestos epistemológicos y evolucionistas harto discutibles (Piscitelli, 1993).
Llama la atención la medida en que dos programas de investigación tan sofisticados y tan bien financiados como lo fueron el programa Nº 1 durante varias décadas y el programa Nº 2, en la última, continúen basándose en esta concepción del conocimiento sin examinar hasta qué punto la misma es compatible con los trabajos recientes en los campos de la biología del conocimiento y la historia social de la inteligencia, así como los de la autoorganización, al teoría del observador y los conceptos de complejidad y caos.
La principal tesis de esta materia es que no basta con conocer en detalle e impugnar a los paradigmas dominantes en inteligencia artificial -desnudando las debilidades epistemológicas originadas en su errónea concepción de la lógica y la fenomenología de lo viviente. Debemos ir más allá y proponer tanto una nueva teoría de lo viviente, como una correspondiente teoría de la inteligencia.
Por otra parte hay que partir de casos concretos a nivel macro para mostrar que los señalamientos de estas insuficiencias surgen de la existencia -e incomprensión- de fenómenos en distintos niveles de agregación (desde la célula a la sociedad, desde las redes inmunitarias o nerviosas a las redes de redes que son Internet y la WWW), y no a partir, en cambio, de una idea de red como metáfora o buscando la reducción (como hizo la primitiva teoría de los sistemas) de lo social a lo biológico.
La principal característica de los sistemas vivientes (célula, sistema nervioso, sistema inmunológico, especies animales, redes de trasmisión de datos, etc.) es su autonomía, entendiendo por tal la propiedad de aquellos sistemas que exhiben clausura operacional y cuyos estados futuros no están determinados por instrucciones exógenas sino por sus propios estados internos. Para nosotros los sistemas vivientes son sistemas autopoiéticos (Maturana & Varela, 1984).
El punto de contacto preciso entre los postulados autopoiéticos y la problemática de la síntesis de la inteligencia está dado por el hecho -como sostiene Piaget- de que la inteligencia es un fenómeno biológico más: "(..) los procesos cognoscitivos se manifiestan como la resultante de la auto-regulación orgánica y como los órganos más diferenciados en la interacción con el exterior".
Para entender a la inteligencia -y eventualmente poder simularla- se necesita pues pensar al sistema nervioso como una red neuronal cerrada, tratar a la información como una perturbación carente de contenido semántico; definir a la complejidad y a las jerarquías como propiedades del dominio descriptivo del observador y concebir la lógica de lo viviente como un proceso auto_referencial, en el cual el estado anómalo (paradojal) de la lógica tradicional se convierte en el estado autónomo (Bronstein & Piscitelli, 1983).
Esta reconceptualización es totalmente incompatible con los presupuestos filosóficos y epistemológicos presentes en las definiciones sintética y neurofisiológica de la inteligencia utilizadas por los dos programas vigentes en Inteligencia Artificial, lo cual presagia tiempos de resistencias y luchas teóricas a la vez interesantes y turbulentas.
Tanto la parte final de la sección mecanismos, así como los numerosos ejemplos y datos que proveeremos en la segunda sección apariencias, se encargarán de investigar cuánto se ha avanzado en esta reconceptualización en estos últimos diez años.
Como anticipaciones podemos afirmar que ambos programas que están anclados en la búsqueda de mecanismos de aplicación universal deberán dejar paso a un estudio -antes que de las similitudes- de las diferencias en las formas del conocer. De lo que se trata es no sólo entender qué tienen en común jugar al ajedrez y enamorarse, sino también y muy especialmente, qué tienen de diferente.
4 Mas allá del paradigma del control y de la planificación a ultranza
Nuestro punto de partida será casuístico. No teorizaremos en el vacío sino que partiremos de fenómenos o efectos de sentido lo suficientemente generales como para atravesar la carcaza de las cuestiones exclusivamente técnicas y evaluar a la tecnología-en-acción. Nos interesa tanto ver cómo los científicos y teóricos tratan de simular el comportamiento humano en las máquinas, como analizar las ideas que esas mismas personas tienen acerca de lo humano que creen pasible de captura en los mecanismos mediante los cuales quieren simularlo.
La historia de la modernidad está atravesada por dos formas de ver al mundo o paradigmas ampliamente contradictorios. Tenemos por un lado a quienes consideran que la única forma de dejar espacio suficiente a la libertad humana consiste en no controlar nada (laissez-faire). Están los otros, quienes sostienen, por el contrario que la única forma de conseguir objetivos (desde lo macro a lo micro) pasa por el control más férreo y absoluto de los comportamientos individuales. Con veinte disfraces distintos estas posturas (el individualismo y el holismo) se han manifestado de distintos modos a lo largo de la historia reciente.
Basta analizar el funcionamiento de la economía o el desarrollo tecnológico o de los sistemas complejos en cualquier campo para darnos cuenta de que oscilamos en los territorios más variados entre una actitud resignada de dejar que las cosas se organicen solas con lo que la coordinación de acciones a nivel macro queda sometida a los arbirtios de lo micro y otra actitud de planificarlo todo a ultranza con lo que la autonomía de lo micro queda subordinada a las decisiones de lo macro. En ambos casos los resultados son igualmente decepcionantes.
El pasaje de un paradigma de control a ultranza a otro de autonomía -recién en sus inicios- tiene implicancias en todos los terrenos. Tanto en el de las teorías de la inteligencia (o simulación de lo humano), como en nuestra comprensión de la dinámica económica, de los desarrollos tecno-culturales y obviamente en nuestra comprensión del propio ser humano (dimensión cognitiva/epistemológica).
5. El diseño de autonomía
La idea central de esta materia es paradojal y difícilmente asible en principio. Planteamos que es posible -y necesario- diseñar la autonomía. Sostendremos en contra de las tesis tradicionales en inteligencia artificial (en economía y en epistemología) que en vez de postular controles, estrategias o políticas -o su eliminación-, lo que necesitamos hacer es plantarlas, cultivarlas y dejarlas evolucionar (ver texto de Kelly).
Nuestra tesis es que la única forma de operar exitosamente en el terreno de los sistemas autónomos supone "plantar políticas" (en el campo social, político, económico pero también lingüístico, cultural, simbólico), "hacer crecer" medidas económicas o sociales tal como el fruti-horticultor hace con las nuevas especies vegetales o el ganadero con los nuevos híbridos. Plantar las políticas es sólo el primer paso en un proceso que se continúa "dejando evolucionar" a las estrategias humanas colectivas en el mismo sentido no-teleológico que lo ha hecho la evolución anónima.
Estas tesis están avaladas por una teoría biológica que no se corresponde para nada con la explicación infantil que tenemos acerca de la evolución. Por otra parte en el desarrollo de estas teorias las computadoras (aquello que queremos explicar) están ocupando crecientemente una función explicativa (son aquello a lo que debemos recurrir para explicar los fenomenos e incluso a las propias computadoras).
El propósito de la simulación es sintetizar intuiciones del diseñador para poder utilizarlas en simulaciones más realistas. El punto clave es que todo el proceso debe transcurrir de abajo-hacia-arriba (botton-up). Sólo hace falta pre-diseñar las propiedades locales de los entes virtuales, nunca las globales válidas para la población en su conjunto.
No nos engañemos empero, no son las computadoras -ver nota 1- las que nos permiten entender a la vida, sino nuestras ideas acerca de la vida las que nos hacen ver a la vida como un hecho pasible de simulación en la computadora. Sin embargo debemos reconocer que el poder de simular de las computadoras también nos ayuda a desarrollar nuestras intuciones y a hacernos preguntas aquello que en su ausencia directamente no nos plantearíamos.
Luego de este largo recorrido que a ustedes les llevará un cuatrimetre pero a nosotros y a otros investigadores años o la vida entera, estaremos en condiciones de entender un poco mejor porque hay tanto interés (o tanto miedo) en que Deep Blue le gane (o no) a Kasparov y que la Web (Internet gráfica) sea (o no) el nuevo Grial del conocimiento.
Marzo de 1996