eBooks en Amazon

miércoles, 14 de marzo de 2012

Algunos Problemas Epistemologicos Implicados en la Metafora del Ordenador

I- Introducción
En este capítulo me centraré en el problema de la naturaleza de la mente.  Para hacerlo, presentaré algunos problemas de carácter epistemológico involucrados en Psicología y Ciencias Cognitivas y en Inteligencia Artificial. De manera más específica, me refiero a lo que se presenta como común denominador a las mencionadas disciplinas, ésto es: la analogía ometáfora del ordenador.

El propósito que anima el presente capítulo debiera inscribirse en aquellos fundantes de la Epistemología, entendida como proceso reflexivo orientado al análisis crítico de los saberes científicos, con el fin declarado de realizar un desentrañamiento de supuestos fundamentales, tendiente a posibilitar una mejor fundamentación, depuración y optimización de esos saberes. De manera más específica, se espera que el análisis emprendido resulte relevante para la concreción de los objetivos que han alentado y alientan a las referidas disciplinas en la postulación de dicha analogía. En atención a ello como primer paso, se hace necesario realizar -para cada disciplina- una adecuada explicitación de objetivos que sea, a la vez, efectivamente realizado en las respectivas comunidades científicas. De una primera enumeración -por cierto de carácter muy general- surgirían por lo menos dos núcleos de objetivos a modo de justificación de la analogía, a saber:

a) Comprender la mente humana, 
b) Crear programas útiles.

Lo primero estaría más fuertemente asociado con las pretensiones de la Psicología Cognitiva, mientras que lo segundo se corresponde mejor con los objetivos de la Inteligencia Artificial. No obstante, cabe destacar que si bien esos propósitos son conceptualmente diferenciables, ello no significa que sean excluyentes, ya que de hecho son interdependientes. En efecto, si es cierto que la Psicología Cognitiva se interesa por los programas de ordenador, en tanto instrumentos que permiten avanzar y probar teorías sobre fenómenos mentales, no es menos cierto -tal como señala Weizembaum ( )- que un programa de simulación satisfactorio se convierte ipso facto en un instrumento técnico que ejecuta algo, lo cual lo hace potencialmente útil justamente en función de la importancia intrínseca de ese algo. Recíprocamente, si es cierto que uno de los objetivos declarados de la Inteligencia Artificial es la creación de sistemas artificiales útiles, en tanto capaces de realizar tareas que a los humanos les demandaría uso de inteligencia (Minsky, 1980), sería un error soslayar el hecho de que a esta disciplina también la anima el trascendental fin teórico-filosófico de comprender y explicar la mente humana. Es justamente en este espacio conceptual de comunalidad de objetivos donde aparece justificado un nuevo propósito -quizás englobador de los anteriores- que a su vez fundamenta la existencia de las disciplinas que se ha dado en denominar Ciencias Cognitivas. Dicho propósito consiste en lograr la formulación de aquellos principios explicativos generales que refieran al conjunto de condiciones necesarias y suficientes válidas para caracterizar a los sistemas inteligentes.

Sin embargo, tanta supuesta coincidencia entre tan heterogéneas disciplinas debiera advertir sobre la eventual existencia de desacuerdos de fondo, ocultos en un uso demasiado general de los términos. En efecto, una primera aproximación revela que parte de la supuesta coincidencia descansa sobre el hecho de homologar el significado de 'mente' al de 'inteligencia'. En tal sentido, ya corresponde prever -y con carácter de necesariedad- la existencia de polémicas entre: quienes suponen que el término 'mente' se refiere a la mente intelectiva o simplemente inteligencia, y quienes entienden que abarca la totalidad del aparato psíquico o alude genéricamente al conjunto de los fenómenos psíquicos, sean del tipo que fueren; quienes suponen que la cualidad de mental se aplica básicamente -sea a los productos o a los poderes causales de sus procesos- a cierto tipo de sistemas de correlaciones de estímulos-procesos-respuestas, y quienes suponen que tal adjetivo debe reservarse para aludir a cierto tipo de esencia ontológica que posee su propio estatuto epistemológico, con entera independencia de su subordinación causal a una materia orgánica y de su posible expresión -en un plano gnoseológico- de una descripción formal o informacional de sus aspectos estructurales y leyes funcionales. De lo anterior surge una de las ideas centrales a desarrollar en este capítulo, a saber: la concepción implícita sobre la naturaleza de lo mental determinar los diferentes énfasis con que se ha expresado la analogía. Al respecto entendemos que es crucial -a los fines de este análisis- distinguir la naturaleza esencial (entendiendo por ésto las leyes de organización y funcionamiento). Finalmente, resta agregar que consideramos que la no advertencia de la distinción señalada es la principal responsable de muchos malentendidos que generan polémicas importantes pero también comprometen el avance hacia la concreción de los objetivos.

II- CUESTIONES PRELIMINARES
II.1- Definiciones:

Es necesario definir -de manera provisoria- los siguientes términos:

Mente
 (o Psiquis): Totalidad estructurada de sistemas y procesos de naturaleza mental (o psíquica). Tal definición, que deliberadamente parece esconder una tautología (vg. el adjetivo mental), apunta a enfatizar que la entidad denotada por el término "mente" supone tanto una naturaleza estructural como funcional, pero ambas son relativas a un tipo particular de "sustancia", es decir a una naturaleza esencial. Se entiende entonces que los elementos constitutivos de tales sistemas, así como los estados sobre los que actúan los procesos, deben necesariamente ser fenómenos o estados mentales. En consecuencia, y tal como lo señala Searle (1985) cualquier teoría de la mente debiera -como paso previo- caracterizar adecuadamente el conjunto de propiedades necesarias y suficientes definitorias de lo mental. Lo cual, a su vez, se constituye en la condición de posibilidad para distinguir entre sistemas mentales y no mentales. Agregaremos, además, que obviamente nuestra definición incluye tanto fenómenos y procesos conscientes como inconscientes, manifiestos o latentes. Por último, diremos que -también obviamente- nuestra definición presenta un énfasis diferente que el expresado en los términos intelecto o mente intelectiva, que aluden más especificamente a un tipo particular de fenómenos psíquicos o mentales, a saber: los fenómenos de tipo cognoscitivos o intelectuales.

Programa de ordenador
: realización o expresión de un algoritmo, entendiendo por tal: un procedimiento efectivo de carácter computacional, perteneciente a un plano o nivel simbólico, y tal que aplicado a un conjunto de datos-símbolo dados como entrada produce una serie o cadena de transformaciones cuyo eslabón final es otro conjunto de datos-símbolo.

Analogía
: Correspondencia entre dos o más objetos o sistemas, reales o conceptuales, a partir de la existencia de una o más propiedades o relaciones comunes; y generalmente formulada con el propósito de elucidar o aclarar la naturaleza de alguno de aquellos. Denominaremos "análogos" a los términos en que se expresan los objetos de la analogía, distinguiendo entre el término analogador y el analogado; "propiedad común" a lo propio de esta expresión; "espacio de comunalidad" a la intersección de propiedades que fundamentan la analogía. A modo de ejemplo de analogía en ciencias tomaré como caso paradigmático a la Cibernética, en tanto que en ésta el uso de analogías es explícito. Así, dado un objeto de estudio donde alguna propiedad que se juzga esencial no aparece claramente manifiesta, se procede a compararlo con otro que presente la misma propiedad en forma más evidente, con el fin de que el estudio de este último permita hacer más inteligible al primero. Se dice entonces, que se investiga al objeto más conocido o comprensible para avanzar en el entendimiento del menos conocido o comprendido.

II.2 Problemas de las analogías:

Respecto al carácter epistemológico de las expresiones analógicas, los positivistas clásicos entendían que los enunciados analíticos eran falsos si engendraban contradicción, mientras que los sintéticos eran falsos cuando no se correspondían con los hechos. Los neo-positivistas admiten una tercer categoría además de verdadero y falso: la carencia de sentido. Así, expresiones del tipo "el nº 8 es valiente", no son verdaderos ni falsas, sino "sin-sentido", producto de una mezcla prohibida entre dos niveles categoriales diferentes.

Ahora bien, si nos atenemos a esto último surge la pregunta inevitable: ¿Qué tipo de enunciados son los enunciados analógicos? El marco de esta pregunta constituirá, pues, un eje a lo largo del presente trabajo. La respuesta a priori: en el sentido que a partir de una propiedad común se asume el riesgo que el complemento de las propiedades no la tenga.

II.3- Definición de la analogía mente-programas:

En términos generales cabe sintetizar la analogía en lo siguiente: las mentes comparten propiedades comunes con los programas. Se podría intentar una exhaustiva enumeración de tales propiedades comunes, sin embargo, casi todas son casos particulares de lo siguiente: sistema o estructura de símbolo-representaciones sujetos a transformaciones a partir de la operación de reglas de carácter computacional.

II.4- Diferentes énfasis de la analogía
:

Según se confiera al espacio de comunalidad mayor grado de escencialidad en el término conocido se tendrán diferentes énfasis o versiones de la analogía , a saber:

a- Analogía fuerte; b- Analogía intermedia; c- Analogía débil

En este capítulo, me centraré fundamentalmente en el análisis de la analogía fuerte; mientras que la intermedia sólo será considerada en términos generales. Por otra parte, la analogía débil será analizada en detalle en el capítulo......

III- Análisis crítico de las diferentes versiones de la analogía mente-ordenador: la Analogía Fuerte

III.1- Exposición general

Ubicada en el extremo de un continuo hipotético, en esta versión se afirma lo que sigue: lo que define a las mentes en tanto tales es ser un sistema funcional de símbolos-representaciones. Una enumeración asistemática de las características de tales símbolos-representaciones incluiría: 
·         referirse -algunos de ellos- a estados particulares del mundo.
·         mantener referencias cruzadas entre ellos, formando a veces sub-sistemas de carácter jerárquico y heterárquico.
·         encadenarse -algunos de ellos- para constituir sub-sistemas de reglas computacionales capaces de operar sobre otros símbolos-representaciones produciendo transformaciones internas y/o determinando un cambio de orientación de todo el sistema en relación al mundo, que a la vez se constituye en poder causal -vg., condición de posibilidad- de sus actuaciones.
·         evolucionar hacia niveles de estructuración de mayor nivel de complejidad y flexibilidad a partir de niveles inferiores -vg. aprender-.
·         autorreferirse: es decir, tener codificada una instancia o sub-sistema especial capaz de tomar como referentes a otros símbolos-representaciones y reconocerlos como propios al sistema, diferenciándolos en consecuencia de otros ajenos.

Lo que la presente hipótesis destaca como característica esencial de lo mental es justamente el grado de complejidad organizacional y -a manera de efecto- la flexibilidad de conducta emergente de sistemas de naturaleza como la descrita. Agregando -en forma más o menos implícita- que no deben buscarse otro género de propiedades -vg. estados de conciencia; aspectos vivenciales, experienciales o fenomenológicos; intencionalidad; etc.- dado que tales propiedades son, o bien reductibles a los aludidos aspectos funcionales, o bien meros epifenómenos despreciables a la hora de definir lo mental, o sencillamente que no existen. En síntesis, se tiene que para la presente versión de la analogía el ser un sistema funcional de procesamiento de simbólos-representaciones (en adelante SPI) no sólo es condición necesaria sino suficiente para afirmar que un sistema determinado constituye una mente; en otros términos: LAS MENTES SON ESENCIALMENTE SISTEMAS DE PROCESAMIENTO DE INFORMACION. (Aquí el problema -que se tratará luego- es determinar cuáles serían las otras propiedades de la mente, y qué grado de importancia les corresponde).

III.2- Exposición por autores

(1) Newell y Simon: afirman literalmente: "La esencia de lo mental es el funcionamiento físico de símbolos" (Newell,1979) / "El tipo de conocimientos cuya existencia se afirma en una computadora es exactamente el mismo que el de los seres humanos" (Newell y Simon,1963) (citados en Searle,1980). Estos autores definen el concepto de máquina diferencial , introducido por Minsky, como: "Agencia cuyas acciones tienden a hacer que el estado actual de cosas se asemeje a alguna 'meta' o 'estado deseado', cuya descripción está representada en ella". (Para Newell y Simon, General Problema Solving, 1979).

(2) Mc Carthy (1979, citado en Searle): "Se puede afirmar de aparatos de la simplicidad del termostato que tiene creencias y tener dichas creencias parece ser una característica general de las máquinas de solucionar problemas".

(3) Schank & Abelson (1977): afirma de un programa codificador y activador de scripts (guiones o esquemas situacionales) que explica la capacidad humana para comprender historias (ya que argumenta que seguimos exactamente los mismos pasos que sigue el programa) y comprende literalmente tales historias, ya que hacerlo viene expresado por el tipo de respuesta que es capaz de dar como salida a preguntas relativas a la historia como entrada.

(4) Turing (1950) en su célebre trabajo "¿Puede pensar una máquina?" formula un criterio para asignar sentido a tal pregunta, señalando en consecuencia el conjunto de condiciones necesarias y suficientes que autoricen responder afirmativamente a la cuestión. El criterio, conocido como el test-Turing, señala que el fenómeno del pensamiento 'emanado' de una máquina debe identificarse a través de un conjunto de correlaciones entrada-salida coincidentes con un patrón proveniente de un humano. Así, describe una situación hipotética en la cual un interrogador no puede diferenciar una mente real de una artificial a través de preguntas y respuestas, como paradigmática de lo que debería entenderse como pensamiento. Pensar, conceptualmente hablando, sería para Turing una correlación determinada entre estímulos y respuestas. Por último, agrega la existencia de dos estrategias posibles para encaminarse en tal empresa, a saber: a) Lograr hacer explícitos los procesos mentales que en el ser humano constituyen condiciones causales de su desempeño intelectual y conductual y transferirlos a un algoritmo de computadora, y  b) Codificar en un sistema artificial un conjunto de reglas básicas de aprendizaje y alimentarlo luego con información representativa del mundo externo.

A continuación se esboza un sencillo formalismo para caracterizar la idea subyacente al planteo de Turing. Sea el sistema T (una máquina de Turing) donde E y R sean las Entradas-Estímulo y las Salidas-Respuestas asociadas, respectivamente, y P sus programas (software), tal como describe el siguiente diagrama:

Puede definirse a R como una función de la conjunción del Estímulo y el Programa, así:

R= f (E ^ P)

Sea ahora un sistema H (un humano (Diagrama 2), donde E' y R' sean Estímulo y Respuestas observacionales, respectivamente, y donde O sea el conjunto de procesos inobservables que se supone operan en el interior de H, transformando E en R (puede llamarse arbitrariamente "programa (P') a O, ya que se puede estipular que un programa P se define como un conjunto de procesos tales que transforman E en R. Aunque ésto sea una tautología flagrante, se está ahora precisamente en ese terreno).

Compárese ahora (Diagrama 3) ambos sistemas con el fin de comprender más exactamente la afirmación turiniana. Procédase así: denomínese a ambos sistemas S1 y  S2, respectivamente: sustitúyase O por P' en S2 ; finalmente colóquese en correspondencia término a término tanto a E, a P como a R.

Lo que la lógica turiniana nos dice es que:

Si [(R  <=>  R') ^ (E  <=>  E')] => P <=> P'       (1)

Es decir que si las respuestas de la máquina son isomórficas a las del hombre en presencia de isomórficos estímulos, entonces su programa también es isomórfico. Turing principalmente pretendía demostrar con ésto que en tal caso deberíamos admitir que la máquina puede pensar.

En síntesis, para Turing pensar -conceptualmente hablando- sólo consiste en una correlación determinada entre preguntas y respuestas, dejando implícita la existencia de procesos causales de carácter isomórfico a lo computacional.
(5) Ruiz de Gopegui (1979): en su trabajo "Puede mecanizarse la conciencia", responde afirmativamente. Sostiene que es enteramente posible que una máquina sea autoconsciente. Dado el tratamiento que hace del tema debemos suponer que homologa conciencia a auto-conciencia o autorreflexión, entendiendo que la clave del fenómeno implicado en tales términos consiste en la autopercepción por parte de un sistema de sus propios procesos, destacando que "se trata básicamente de un proceso racional más que emocional" (sic). Entiende que la génesis de tal fenómeno, al que considera "más un subproducto de la inteligencia o de la mente que una entidad autónoma" (sic), se explica -tanto en el plano filo como ontogenético- postulando la existencia de un proceso de sucesivas abstracciones. Al respecto es elocuente la cita de Durán que hace este autor:"Hasta el "yo que encontró finalmente Descartes en su duda metódica tal vez sea solamente el hábito de enganche de una serie de recuerdos ya petrificados, y este hábito de hábitos sea la base de la mismidad." (Enrique Durán, 1951).

Tal concepción del fenómeno le permite sostener categóricamente que es posible reproducirlo en una máquina, esbozando además algunos pasos necesarios de una hipotética estrategia para conseguirlo.

(6) Hofstadter (1982, 1987). Se refiere a los siguientes términos, haciendo similar tratamiento: "mente", "inteligencia", "yo", "conciencia", "autoconciencia". Para todos utiliza el mismo género de explicación: epifenómenos emergentes de mecanismos funcionales complejos. Así, al tratar el concepto "mente" afirma: "La mente existe en diferentes grados de complejidad, sin duda, pero una mente que merezca el nombre de tal existe tan sólo donde existen sistemas representacionales de alta complejidad. La mente existe en el cerebro y puede llegar a existir en máquinas programadas. Si estas máquinas se convierten en realidad sus facultades causales derivarán no de las sustancias que las integran, sino del diseño de los programas que desarrollen".Refiriéndose a los conceptos de "yo" y de "conciencia" dice: "La conciencia es esa propiedad de un sistema que surge dondequiera que haya símbolos del sistema que respondan a patrones de desencadenamientos en alguna medida semejantes a los descritos recientemente" (...) "No hay motivo para suponer que el 'yo', la conciencia personal, no esté representado por un símbolo. En realidad, el símbolo del yo es, probablemente, el más complejo de los símbolos del cerebro. Por tal razón, decidí ubicarlo en un nivel adicional en la jerarquía y denominarlo subsistema, y no símbolo". Luego agrega: "subsistema": constelación de símbolos, cada uno de los cuales puede ser activado independientemente, bajo el control del subsistema mismo es solamente otro nombre para aplicar a los símbolos superdesarrollados, aquellos que han llegado a ser tan complicados que tienen muchos subsímbolos en interacción recíproca". / "Una función colateral del subsistema-yo es que puede desempeñar el papel de espíritu al estar comunicado permanentemente con el resto de los subsistemas y símbolos del cerebro, toma nota de cuáles símbolos están activos y de qué manera lo están. Esto significa que debe contar con símbolos para representar la actividad mental; en otros términos: símbolos de símbolos y símbolos de las acciones que cumplen los símbolos. Esto no eleva la conciencia de ese conocimiento a ningún nivel mágico, no físico. El conocimiento aludido aquí es una consecuencia directa de los complejos hardware y software que hemos descrito y ésto hace necesaria la existencia de un símbolo del yo; y el tránsito desde el símbolo al subsistema es simplemente un reflejo de la importancia del símbolo del yo, no un salto cualitativo". (...) "Estoy convencido de que la explicación de los fenómenos 'emergentes' de nuestro cerebro -ideas, esperanzas, imágenes, analogías, por ejemplo, y en última instancia la conciencia y el libre albedrío- están basados en cierto género de bucle extraño, una interacción entre niveles donde el nivel superior se extiende al nivel inferior y lo afecta, y al propio tiempo es determinado por este último". (...) "Una explicación reduccionista de la mente, para ser comprensible, debe aportar conceptos 'flexibles' tales como niveles, correspondencias y significaciones". (...) "(...) lenguaje subjetivo vs. objetivo ... el sentimiento subjetivo de rojo emana del torbellino de la autopercepción del cerebro". (Nótese como el autor homologa aquí conciencia, yo y autoconsciencia). Por último, agrega: "el círculo cerrado al que nos referimos es aquél en el cual un sistema auténticamente representativo percibe su propio estado en términos de su repertorio de conceptos".

En síntesis, se entiende que para el autor lo que caracteriza esencialmente a lo mental es la existencia de un nivel o estructura representacional complejo y flexible. Lo que define ambas cosas es la existencia de símbolos-representaciones complejamente interligados y su organización en niveles jerárquicos con 'bucles' de realimentación y autorreferencia, que posibilitan interacciones y automodificaciones cruzadas entre diferentes niveles de la jerarquía, cuya consecuencia es la posibilidad de que los niveles superiores actúen sobre los inferiores siendo simultáneamente afectado por éstos. Propone la existencia de modos de causalidad especiales -que aún no habrían sido demasiado analizados por los epistemólogos- basados en la propiedad de autorreferirse que tendrían ciertos sistemas. De manera más específica, Hofstadter sostiene que el carácter misterioso de la autoconciencia y del yo se disuelve si se apela a explicaciones que postulen mecanismos de autorreferencia; en tal sentido el yo no es más que un símbolo complejo -un autosímbolo- capaz de tomar como referencia otros símbolos del mismo sistema, registrar información sobre sus estados funcionales, y ejercer un control y operar sobre ellos, y al mismo tiempo modificarse en tal interacción. Destaca que tal modo de operar también es válido para explicar las relaciones mente-cerebro. Fundamenta su tesis recurriendo a una serie de comparaciones analógicas con propiedades inherentes a los sistemas formales desprendidas de los teoremas de Gödel. Tal analogía le permite también establecer una correspondencia entre la indecibilidad de los sistemas formales y algunas paradojas derivadas del -tal vez fallido-  intento de la conciencia por autoconocerse.
(7) Minsky (1986): Entiende a la mente como un emergente complejo a partir de partes o procesos simples denominadas agentes. Cada agente es simple de entender en cuanto a su constitución y funcionamiento. Cada agente carece de mente. La mente, entonces, es para este autor la resultante compleja de un sistema de interacciones de elementos simples de carácter a-mental.

 III.3- Críticas:
Un primer análisis de la presente versión de la analogía revela claridad y explicitud en lo que se afirma (respecto a la naturaleza de la mente), aunque no se pueda decir lo mismo de lo que parece negarse. Comenzaremos por esto último. Atribuir mente a un programa en tanto constituye la expresión de un SPI (sistema de procesamiento de información) supone implícitamente la inexistencia de cualquier otra propiedad esencial de lo mental diferente del hecho de ser una instanciación de un SPI. Sin embargo, queda indeterminado si es que -literalmente- no existen otras propiedades o si éstas existen pero no son esenciales, cuestiones obviamente diferentes. La primera alternativa -la más radical y quizás más difícil de comprender-, parece la más adecuada a lo formulado por Hofstadter y Gopegui; correspondería ubicar a Turing en la segunda; y a falta de precisiones no podemos expedirnos sobre los otros autores. El criterio que justifica esta categorización es sencillo (al menos en cuanto a su formulación). Tanto Hofstadter como Gopegui parecen sostener un argumento que cabría sintetizar de este modo: no existe ninguna propiedad X más allá de lo informacional-representacional. Por el contrario, la afirmación final de Turing en su réplica al argumento de conciencia es elocuente para suponer que no desconoce la existencia del fenómeno, aunque no considera que deba constituir un obstáculo serio para avanzar hacia la concreción de máquinas pensantes. En efecto, recuérdese que Turing refuta el argumento de la conciencia declarando que, la existencia de ese fenómeno en las mentes reales y la supuesta imposibilidad para replicarlo en una máquina, no constituiría impedimento para construir una máquina pensante, es decir, que sorteara su test. De lo cual se desprende que concede la existencia del fenómeno aunque le niegue un papel esencial como factor involucrado en los procesos causales de respuestas que admitan la calificación de pensantes. Por ser la posición de Hofstadter y Gopegui la más radical parece merecer mayor análisis. Para justificar la tesis que sostienen, estos autores adoptan la siguiente estrategia: dado cualquier término X tal como conciencia, autoconciencia, yo, etc. (es decir, términos que denotan -directa o indirectamente- propiedades mentalistas en su sentido más radical), proceden a reducir la propiedad mental incluida en ese X a propiedades representacionales-informacionales. A esta altura del análisis surge, como dificultad para proseguirlo, una permanente duda relativa al grado de literalidad con que deben entenderse tales operaciones. En efecto, o bien entendemos que existe cierta ambigüedad en la operación de negación-reducción-disolución, o bien tomamos lo dicho literalmente, en cuyo caso llega el momento de asumir lo dificultoso que resulta comprender tal cuestión. En otros términos: Si -como pareciera- se torna difícil concebir que lo mental implica propiedades esencialmente no-materiales y no-informacionales, resulta igualmente difícil imaginar lo contrario.

De modo que nos quedan dos alternativas, a saber: a) tomar literalmente la reducción-disolución de X, es decir, como una auténtica negación de su existencia, y b) entender que se trata de una reducción. Surgen para la alternativa a) dos importantes cuestiones: 
·         ¿Cómo comprender ésto? En efecto, si es difícil comprender el mentalismo, no lo es menos comprender su negación.
·        ¿Cómo entender afirmaciones como 1 y 2? Tales problemas nos deciden a adoptar la alternativa b), en razón de comportar dos ventajas: primero, es mucho más comprensible y; segundo, es compatible con las proposiciones 1 y 2. Ahora bien, nótese que estamos ante una postura similar a la de Turing, quien a pesar de no negar la existencia de la conciencia no veía en ella ningún aspecto que la hiciera condición necesaria para caracterizar el fenómeno del pensamiento. No obstante, subsiste el problema del cual partimos: ahora depositado en la conciencia. A pesar de todo, nos inclinaremos por aceptar nuestra interpretación, dado que no parece casual que Hoftstadter y Gopegui no aclaren debidamente la diferencia entre conciencia y autoconciencia y elijan autoconciencia; además también explica por qué Hofstadter al tratar el tema del yo (al que parece considerar como paradigmático de lo mental, o al menos supone que los mentalistas supondrían!) ponga el énfasis en los aspectos estructurales y ejecutivos (en términos de Neisser), y no en el vivencial (cogito cartesiano). De modo que, ya a esta altura, es necesario puntualizar que el fenómeno de la autoconciencia tiene la connotación de un proceso (reflexivo, o -si se quiere- racional), mientras que conciencia connota más bien vivencia o ser-experiencial, como ya lo apuntaran adecuadamente los fenomenólogos: Sartre, Merlau Ponty, Husserl, Dilthey, etc. Además, por otra parte, y he aquí el núcleo crucial de la cuestión: se puede considerar a la autorreferencia como una propiedad y hasta como un mecanismo subyacente (es decir, una propiedad relacional, funcional, etc.) aunque no de carácter necesario. (Lo cual es enteramente compatible con Gopegui, cuando citando el ej. del animal le niega capacidad reflexiva, aunque implícitamente lo considere un ser experiencial-vivencial). Es un hecho empírico evidente que los seres humanos tenemos vivencias, y que en tanto podemos reflexionar, lo cual es en gran parte tener una segunda vivencia cuyo contenido sea la primera. Mientras que la postura de Hoftstadter sólo se sostiene si es capaz de dar razones que justifiquen cómo un sistema autorreferente es capaz, y sólo en virtud de tal naturaleza, de determinar el nivel fenomenológico-vivencial, lo cual aparece absurdo, o cuando menos problemático (y que entendemos además que a Hofstadter no le interesa, pues como ya diremos su interés parece residir en otra cuestión). En síntesis, parece más parsimoniosa la hipótesis "la conciencia determina la autoconciencia" que "la autorreferencia determina la conciencia".

De este modo tenemos un cuadro suficiente para justificar dos últimas afirmaciones a modo de diagnóstico y de propuesta:
a- Diagnóstico: Si nuestra interpretación inicial era correcta entonces debemos homologar las dos alternativas. Reducimos la segunda al planteo de Turing, y aquí aparece claramente la característica que nos lleva a una nueva distinción: se puede entender a la mente como una esencia o entidad en sí o que básicamente se define en términos teleológicos (y esta distinción debe diferenciarse, por no ser simétrica, con las de intencional-causal, ni con definiciones funcionales vs. estructurales). Las fórmulas de definición asociadas a cada caso serían, respectivamente: la mente es X (donde X constituyen el conjunto de sus condiciones necesarias y suficientes).; la mente es aquel X que nos permite Y (donde X es el conjunto de poderes causales de Y, e Y sus productos). Notemos entonces que al operarse un deslizamiento hacia los productos, se pone de manifiesto ahora que el centro de la cuestión radica en la definición de las condiciones necesarias y suficientes de aquello que aparece como poder causal de dichos productos. Lo cual explica claramente que se diluya o disuelva aquellos X que aunque están en las mentes reales, bien podrían estar ausentes. Ahora bien, este giro o desliz es más acorde con el concepto de inteligencia, mente intelectiva o intelecto, que con el de mente en sentido amplio. Si lo último es el sinónimo de psiquis o fenómeno mental, lo primero correspondería más bien a un subsistema (abstraido del total) o a un tipo particular de fenómenos psicológicos, a saber: los fenómenos intelectuales.

La segunda consideración, algo más compleja, es la que sigue: Es claro hasta aquí que los teóricos considerados proponen una analogía mente-programa; pero en realidad, la analogía es más compleja o completa. En efecto, acostumbran a formularla en la siguiente expresión: 'la mente es al cerebro como el soft es al hardware'. En el contexto en que es planteada la fórmula es suficientemente elocuente como para no requerir mayor explicación. Sin embargo, haremos ésto a través de la explicitación de las propiedades comunes que justifican la analogía. Podríamos expresarla así: la mente está  instanciada en, aunque no se confunde con el cerebro. Ahora bien: ¿qué es el hardware? Es una estructura física en la que suceden eventos que pueden ser leídos desde el exterior como información, los poderes causales físicos de otros fenómenos físicos sustratos de lo que puede ser leído como información. Habiendo definido ésto hagamos lo que hacen los analogistas y propongamos una nueva analogía dentro de la familia de las que venimos considerando (es decir, mente-programa), y preguntémonos ahora en el contexto de la mente: cuál es el hardware y cuál el software.

Se nos dirá que es ésta una pregunta anómala, a lo cuál responderemos que sólo se trata de una analogía, argumentando de pasada que -por otra parte- esta analogía tiene su simétrico en la analogía software - hardware aplicada sólo al cerebro (usualmente expresada como los 'programas del cerebro'), formulada por fisiólogos-informacionalistas-neurólogos. Respecto al soft del cerebro, en efecto, nada más común que hablar de modelos neuronales (Mc Cullochs) o de órgano funcional (Azcoaga) o de analizador (Pavlov), etc. Entonces responderemos: el hardware de la mente debe ser aquella sustancia (res cogitans, en el sentido cartesiano) o elemento constitutivo sujeto a transformaciones de los procesos que no son sino ordenamientos, de la misma manera que las neuronas son las unidades constitutivas de la sustancia nerviosa (res extensa cartesiana), substrato material y condición de posibilidad de esos sistemas virtuales funcionales. Si volvemos a la analogía de la que partimos, tenemos que si bien estos sistemas funcionales "encarnan en" o son un sustrato X (sustancia mental, sustancia nerviosa); poseen una organización estructural y funcional tal que un observador externo puede abstraer sus propiedades sistémicas (siempre y cuando no confunda los planos ontológico y gnoseológico, ni lo analógico con lo literal).

Al respecto es elocuente la siguiente cita de Whorf (1946): "Y, además, en mi opinión no se puede pretender que la tremenda importancia del lenguaje signifique que nada está basado en la naturaleza, en lo que tradicionalmente se ha llamado 'mente'. Mis propios estudios me han sugerido la idea de que el lenguaje es, en cierto sentido, como un bordado superficial sobre procesos, mucho más profundos de conciencia, que son necesariamente previos a toda comunicación, y mediante la que se lleva a cabo ésta". / "(...) superficial en el sentido de que, por ejemplo, todos los procesos químicos se pueden decir que son superficiales sobre el molde más profundo de la existencia física, que sabemos pueda ser intra-atómica, electrónica y subelectrónica. Nadie tomaría esta exposición en el sentido de que la química NO ES IMPORTANTE en realidad, todo estriba en que lo más superficial puede significar lo más importante, en un sentido definitivamente operativo. Puede incluso que no exista lo que concebimos como Lenguaje (con L mayúscula)".                

En síntesis podemos resumir los fundamentos de nuestra críticas en las siguientes proposiciones:
a- Se parte de una concepción de mente donde el nivel fenomenológico-experiencial no es considerado una propiedad relevante.

b- La no importancia de X oscila entre la negación de su existencia, su reconocimiento pero sin otorgarle relevancia, y su no mención.

c- Lo dicho en a y b dejan espacio para caracterizar lo mental en términos de SPI.

d- La postulación de la analogía obedece a propósitos múltiples, siendo los más importantes: Crear programas útiles, comprender lo mental. Y secundariamente -o más especificamente-: formular los principios generales de que rigen los SPI.   

e- Diferentes autores caracterizan diferentes aspectos de los SPI. En lo que afirman, se parecen en: manipulación formal de símbolos, información como materia prima de las transformaciones. En lo que niegan: efecto omega (Rattray Taylor, 1980).

f- Entendemos que respecto al propósito de "comprender lo mental", conceptualmente cabe distinguir tres cuestiones, aunque -de hecho- están interligadas, a saber: naturaleza esencial (Cuál es el género próximo en el plano ontológico), naturaleza estructural (relaciones organizacionales estáticas), y una naturaleza funcional (relaciones dinámicas). En esta postura, no parece distinguirse claramente entre el primero y los restantes significados de "naturaleza". En consecuencia, cabe suponer que, o bien se confunden los planos, o bien se toma partido por la consideración que el primer plano se define por los otros dos.
g- Consideramos con respecto a lo que involucra los términos 'mente' y 'mental', que pueden entenderse dos grandes grupos de significaciones, a saber: 1) La psiquis; el conjunto de los fenómenos psíquicos; la cualidad esencial inherente a un fenómeno psíquico y por ende, que caracteriza y distingue a los sistemas psíquicos del resto. 2) La mente intelectiva o inteligencia; la cualidad o propiedad que caracteriza a un sistema inteligente; los productos de los sistemas inteligentes; los procesos o poderes causales determinantes de los productos inteligentes. Nótese que en cada grupo los significados se encuentran interligados. Así, por ej,  en 2) una mente es algo capaz de generar un producto inteligente, manifestándose éste a través de un par determinado de entradas-salidas, cuya condición de posibilidad es la existencia de procesos causales adecuados, los cuales lo son en tanto capaces de realizar la transformación de entradas en salidas, que cuando son realizadas a través de tales procesos transformadores merecen la calificación de inteligentes (no es crítica, idem grupo a). Resulta bastante evidente que en esta postura se toma partido por los significados agrupados en 2).

h) Entendemos que existe una interacción entre las elecciones.

De forma más breve, caracterizaré ahora a la hipótesis intermedia; dejando el análisis de la analogía débil para el capítulo ........

IV- Analogía intermedia
Es enteramente compatible con la anterior excepto en que se cuida de no atribuir mente a las máquinas-programas de ordenador, lo cual supone implícitamente el reconocimiento de alguna propiedad específica (vg. los aludidos estados vivenciales, experienciales, etc.) necesaria para caracterizar a las mentes reales. No obstante, y en concordancia con la postura anterior, no se considera a tales propiedades de ninguna manera esencial a la hora de caracterizar lo mental, y por ende no se les otorga ningún papel relevante en tanto factores causales en la producción de las transformaciones procesales propias de los sistemas inteligentes, es decir, se las considera enteramente prescindibles. Uno de los principales argumentos utilizados -también compatible con la versión fuerte- para fundamentarse, consiste en afirmar que las mentes reales efectúan operaciones o procesos con independencia de la conciencia; el programa ofrece en este sentido un adecuado modelo para interpretar tales procesos que en el mejor de los casos deberían considerarse como entidades hipotéticas sin caracterizar. En la presente versión se asume acríticamente que los aludidos procesos son esencialmente diferentes a los conscientes y esencialmente idénticos a los programas, todo lo cual vuelve a revelar que la propiedad que funda la analogía es tomada literalmente cuando es trasladada desde el analogador al analogado.Entonces lo que aquí se afirma no es que las máquinas sean literalmente mentes, sino más bien que tanto mentes como máquinas son casos o instancias particulares de una categoría más amplia de entidad: los sistemas de procesos de información. De lo cual se desprende que existen otra clase de instancias posibles, aún no descubiertas, aunque sí concebibles. Aunque independientemente de lo que sea esencialmente una mente, es posible describirla y explicarla junto a los programas de inteligencia artificial a través de similares principios abstractos. Aquí el problema que aparece y que trataremos luego -y se refiere a que, si a tal nivel Z cabe adscribirlo a un nivel gnoseológico u ontológico-. En síntesis, las mentes no son sólo programas pero pueden explicarse por similares principios. La analogía intermedia afirma que las mentes no sólo son SPI, pero que el SPI es el genero próximo al que cabe referirla.

Como ejemplo de esta postura es elocuente el siguiente pasaje de Whorf (): "En realidad, el pensar es extremadamente misterioso y la mayor luz que hemos podido arrojar sobre esta actividad procede del estudio del lenguaje. Este muestra que las formas de los pensamientos de una persona son controladas por inexorables leyes de modelos, de las que ella es inconsciente. Estos modelos son las sistematizaciones, imperceptiblemente intricadas, de su propio lenguaje".Agregando: "aunque decir que el pensamiento se lleva a cabo en una lengua, no significa necesariamente la utilización de palabras (...) una gran parte de los pensamientos nunca encuentran expresión en las palabras, pero manipulan paradigmas de palabras, clases de palabras y órdenes gramaticales tales como el que está 'detrás' o 'sobre' el foco de la conciencia personal". (pág. 283).

Respecto a las críticas de la presente versión, comencemos por el problema que surge de su misma definición conceptual: Si el SPI es el género próximo de las mentes, ¿cuál será la diferencia especifíca? Una primera alternativa, tan obvia como trivial, sería responder que las mentes son SPI instanciados en un hardware biológico, mientras que los programas lo hacen en forma inorgánica. Pero eso sería pasar por alto el problema -a nuestro juicio- principal que es el inherente al plano mismo de lo mental. Entonces se podría responder que la diferencia específica son justamente aquellos factores experienciales, etc.

Otro problema que se presenta en esta postura es el de la naturaleza ontológica de los SPI. Podemos entenderla como un nivel de descrpción o atribuirle existencia a un nivel ontológico, lo cual no deja de ser un arduo problema epistemológico que surge de la confusión entre la naturaleza esencial del  objeto de una atribución y las razones por las cuales dicha atribución es llevada a cabo. Si la respuesta fuera la primera, poco tendríamos que objetar, pero ya estaríamos en la versión débil. Trataremos de entender lo que es la segunda. La mejor manera en que aparece expresada es cuando se plantea el problema de lo inconsciente. El argumento es más o menos éste: Puesto que es un hecho evidente de la Psicología que realizamos procesos sin acompañarlos de esfuerzos concientes, voluntarios, etc.; de eso se sigue que debemos hacerlo de manera inconsciente. Y si lo inconsciente es -por definición- no conciente pero por la naturaleza de sus efectos es necesario invocar un sistema de símbolos-representaciones como agente causal, entonces existe un nivel autónomo donde se efectúa procesamiento y que es radicalmente diferente a la conciencia. Tal sistema sería un caso de SPI. Los fenómenos concientes reflejarían este nivel agregando una cualidad fenoménica no decisiva. Descubrimos entonces que estamos ante una versión mucho más problemática del asunto, subsidiaria del problema del inconciente. Pero si antes objetamos la operación de disolución-reducción ahora el centro aparece en las operaciones de postulación. En efecto: ¿cuál es la naturaleza ontológica implicada en la atribución de un psiquismo inconsciente?; ¿coincide realmente con la definición de un SPI?

Por último, cabe mencionar que en la presente versión surge elocuentemente el tradicional problema epistemológico que denunciara Occam, relativo a la multiplicación innecesaria de las entidades: en efecto, quienes se enrolan en la presente no parecen advertir lo problemático que resulta explicar ahora cómo es posible que de un sistema estructural, que es básicamente un sistema de procesamiento formal de información, emerjan las propiedades fenomenológico-experienciales, que aunque de poca importancia respecto a los propósitos de estos autores, admiten que existen.

CITAS

La teoría clásica atribucionista conocida como la teoría de la atribución por analogía reza así: Puesto que determinados estados, eventos o sucesos conductuales coexisten o son concomitantes con estados mentales experimentados subjetivamente entonces ante la observación externa de uno de los miembros del par atribuimos el concomitante mental

b- La existencia de un mentalismo empotrado en el lenguaje intencional. Se explica así porque a pesar de que estaríamos tentados a atribuirles un concomitante mental a los sistemas artificiales que exhiben una conducta finalista al mismo tiempo.....

Sin embargo, Turing no desarrolló tanto la recíproca de la misma idea: que el programa es un modelo del pensamiento, o al menos de los factores legales y/o causales que este involucra. (Aunque es cierto que algo anticipó y que muchos lo vienen siguiendo: Newell (1957), Simon (1959, 1960, 1965), Newell y Simon (1962, 1970, 1973), Colby (1962, 1964, 1966, 1974), por citar sólo algunos).

Asimismo también es importante bosquejar la estructura lógica de la predicción de Turing, ésto es:

Si [(E <=> E') ^ (P <=> P')] => R <=> R'           (2)

Es decir: una expresión diferente de igual idea, a saber: si un programa es isomórfico al pensamiento ante iguales estímulos, deberá producir iguales respuestas.

Ahora bien, cumplida la función de abstracción para precisar el problema (nótese que (1) es la versión abstracta del Test de Turing, mientras que (2) la de su condición de posibilidad), ya es momento de abandonarla para considerar los problemas empíricos y dificultades semánticas que estos juegos encierran.

"En el interior de nuestro cráneo hay complejos circuitos por los que fluyen corrientes eléctricas de clase especial. Existen huestes de oscuras sustancias químicas que median en reacciones complicadas. Este equipo analiza los datos del mundo circunstante y selecciona y ejecuta una respuesta de comportamiento. Nada tiene de singular. Una computadora hace lo mismo a su manera imperfecta. Pero, en nuestro caso, ocurre un portento en apariencia inútil: vemos una escena de colores vivos, tenemos la impresión de enamorarnos y recordamos sucesos del pasado y aun, como algunos pretenden, del futuro. La humilde electroquímica ha generado una vívida experiencia personal. Los científicos y filósofos no logran explicar ente resultado casi milagroso que ni siquiera tiene nombre reconocido. Propongo denominarlo "efecto omega", pues omega es el punto final al que todo se encamina.

Brevemente, cuando tratamos el cerebro como una máquina prescindimos del efecto omega."

"Esta experiencia omega única es lo que intento explorar y analizar en el libro presente."

"Revisemos de manera preliminar y acientífica qué se requiere para que ese efecto exista. Abarca todas nuestras sensaciones, no sólo el rojo de la luz de tráfico, sino también la suma coordinada de forma y color que llamamos "panorama"; no sólo el sonido de un claxon, sino también la complejidad de una cantata de Bach y la espontaneidad del trino de un pájaro; las sutilezas de un excelente borgoña y la asquerosa viscosidad del aceite de ricino, y clases de representaciones como los sueños, alucinaciones y visiones.

Engloba, además, todas nuestras emociones: miedo y ansiedad, horror y disgusto, ansia y placer, alegría y amor. (A veces dudo del acierto de incluir experiencias tan varias bajo el único rótulo de emociones). Incluye, ciertamente, el dolor: el agudo frío de una incisión y la exasperada molienda de una caries. Va desde la euforia a la desesperación. Contiene nuestros procesos de conocimiento: pensamientos, proyectos y actitudes; y la voluntad.

Entran en él algunas experiencias más tenues: las sensaciones de significado, familiaridad, anticipación, claridad y confusión total. Los poetas nos hablan de una impresión de unidad con la vida entera, y los santos de la unión mística, contrapuesta a la "noche oscura del alma". Los teólogos se refieren a la sensación de lo "noumenoso", la idea de lo sagrado. Todo ello forma parte del efecto omega. Jamás un robot será asaltado por la angustia existencial.

Con todo, más radicales y desconcertantes que lo enumerado son los conceptos gemelos de identidad personal y conciencia. ¿Qué significado asignaremos a esta última? ¿Dónde la localizaremos? ¿Y qué denotamos al decir "yo"? La noción vívida de identidad personal se presenta como uno de los fenómenos más enigmáticos de la mente. William James la describió como "uno de los acertijos más embrollados con que la psicología debe enfrentarse".
  (    )

"Hoy quiero hablarles del psicoanálisis y la cibernética. Es un tema que tratándose  de confrontar el psicoanálisis y las diversas ciencias humanas me pareció digno de atención.  () Nos preguntamos, tal vez no por mucho tiempo, pero en fin mentes no desdeñables lo hacen, si tenemos una maquina que piensa. sabemos que la maquina no piensa. somos nosotros quienes la hemos hecho y ella piensa lo que se le dijo que pensara. pero si bien la maquina no piensa, esta claro que nosotros tampoco pensamos en el momento en que hacemos una operación, seguimos exactamente los mismos mecanismos de la maquina. Con la cibernética el símbolo se encarna en un aparato y no se confunde con este, pues el aparato no es mas que un soporte y se encarna en el de una manera transubjetiva".
·         Si tuviera que caracterizar cuál es el problema lo expresaría en estas preguntas:
·         Puede una maquina pensar?
·         pensamos como una maquina
·         Es el inconsciente reductible a un sistema algorítmico
·         Es el pensamiento externalizable y pasible de ser codificado en un programa de ordenador
·         Es la mente una esencia inefable
·         Si existe una porción del pensamiento humano no expresable ni codificable, donde se sitúa el limite.
·         Se puede traducir el pensamiento a un código sintáctico y comenzar ese código ese código a operar independientemente de que exista un sujeto agente de dicho pensamiento en otros términos
·         pude existir pensamiento sin un yo?

El problema que se esta estudiando es la mente humana. Entonces toda analogía que sea útil para poner de manifiesto esa naturaleza debe ser sopesada.  Hay que determinar que es lo analógico y que es lo diferente, donde esta la convergencia y donde la divergencia.  Al respecto Seone sostiene que la analogía  también funciona por la negativa, como una especie de diagnostico diferencial cuyo resultado permitiría caracterizar aquello que es esencial e intrísecamente lo psicológico, aquello que no puede ser reducido y traducido a un códigoartificial.

[1]Para un análisis más profundo véase el capítulo VI.

No hay comentarios:

Publicar un comentario