CAPITULO SEXTO

¿ES POSIBLE LA INTELIGENCIA ARTIFICIAL?1

Muchas de las diferencias entre el hombre y las máquinas, que hasta ahora se creía eran de carácter cualitativo, son sólo cuantitativas.

 

Michael A. Arbid, 1964

1. UNA POLEMICA INACABADA

 

 

En el año 1950, poco después de que se construyera el primer com­putador electrónico digital, Turing (1) ya planteó la posibilidad de cons­truir máquinas electrónicas que actuaran «en forma inteligente». Poste­riormente, otros cibernéticos, como Wiener, Shanon, etc., publicaron diversos trabajos sobre este mismo tema. A partir de entonces, el interés por lo que viene llamándose inteligencia artificial ha ido aumentando en forma exponencial a medida que las máquinas electrónicas se iban haciendo más sofisticadas.

En la actualidad, la inteligencia artificial es una ciencia que se enseña en numerosas universidades, sobre la que continuamente se celebran simposios y congresos internacionales y acerca de la cual se publican numerosos artículos y trabajos de investigación. A pesar de ello, el campo en que se desenvuelve esta ciencia no se encuentra todavía bien definido, lo cual no impide que sea un área de investigación enorme­mente sugestiva y prometedora, que no sólo está estrechamente relacio­nada con la automática, la cibernética y la teoría de la información, sino que además interacciona con ramas del saber muy poco afines con las anteriores, como la psicología, la sociología e incluso la ética y la filosofía.

Las dificultades, tanto teóricas como técnicas, con las que tropieza el desarrollo de la inteligencia artificial son, a todas luces, muy grandes, y a esto hay que añadir que un importante grupo de científicos, sociólogos y filósofos recomiendan abandonar las consiguientes investigaciones pues, a su parecer, o bien se trata de una meta teóricamente inalcanza­ble, o bien, en el caso de llegar a ella, los peligros que implicaría el hecho de que el hombre construyera máquinas inteligentes, serían mayo­res que los correspondientes beneficios.

A continuación se analiza la posibilidad teórica de existencia de la inteligencia artificial, dejando el tema de su peligrosidad social para otra ocasión.

 

 

2. EL TEOREMA DE GÖDEL

 

 

El teorema de Gödel ha sido uno de los argumentos más utilizados en contra de la posibilidad de construir máquinas inteligentes. Gódel, gran autoridad en el campo de la lógica matemática, publicó en 1931 un tra­bajo (2) en donde demostraba que «por muy potente que sea un sistema lógico, siempre existirá la posibilidad de plantear proposiciones o enuncia­dos que ni pueden ser probados, ni pueden ser refutados dentro del propio sistema». Este trabajo, al que en un principio no se le concedió la impor­tancia que merece, ha pasado a ser una de las piedras angulares en las que se apoya la lógica moderna.

La cantidad de especulaciones que han aparecido basadas en el teo­rema de Gódel es realmente asombrosa. J. R. Lucas (3), por ejemplo, ha desarrollado una serie de argumentos, algunos bastante pintorescos, mediante los cuales, apoyándose fundamentalmente en el citado teorema, pretende demostrar la inconsistencia del determinismo psíquico. Ernest Nagel y James R. Newman (4), a su vez, analizando el teorema en cues­tión, llegan, entre otras, a la conclusión de que resulta imposible construir una «máquina» que se equipare en inteligencia al cerebro humano.

Al no interpretar correctamente las deducciones de Nagel y Newman -que, como veremos, difieren ligera pero esencialmente de lo dicho más arriba-, algunos han afirmado que el teorema de Gódel es una demos­tración de la inviabilidad de la inteligencia artificial. Pero evidentemente no es así, pues cuando Nagel y Newman hablan de «máquinas» se refieren a computadores electrónicos como los actuales, es decir, máquinas que funcionan apoyándose en los mismos principios de nuestros ordena­dores digitales que, como se sabe, ejecutan un programa concreto, consis­tente en un número finito de instrucciones.

El hombre sufre análogas limitaciones. Si a una persona, con unos conocimientos determinados, se le exige una respuesta inmediata, sin darle tiempo para elaborar nuevas extensiones al sistema lógico propio de su inteligencia en aquel momento, quedará tan limitado como las máquinas a las que antes se hacía referencia. Por esto, Michael Scrieven afirmó rotundamente hace ya veinte años (5): «El teorema de Gödel no es sólo una limitación para los computadores, sino que lo es también para nosotros mismos.»

Vemos, pues, que el teorema de Gódel no dice nada con respecto a la posibilidad de construir una inteligencia artificial, sino que simplemente establece que las máquinas actuales no podrán llegar a ser inteligentes. Pero para obtener esa conclusión no era necesario recurrir a dicho teo­rema; basta con saber la forma de operación de nuestras máquinas. Si la inteligencia artificial llega a existir algún día, tendrá, por fuerza, que provenir de una máquina que se diferencie de las presentes en el hecho fundamental de poseer la capacidad de aprender, y esta importante capa­cidad le permitirá escapar a la restricción impuesta por Nagel y Newman.

Para estudiar la posibilidad de existencia de la inteligencia artificial deberemos, pues, recurrir a un análisis más profundo del que se des­prende de la aplicación del teorema de Gódel.

 

 

3. ANALISIS MATEMATICO

 

 

Joseph Weizenbaum (6) sintetiza en pocas palabras el problema de la viabilidad de la inteligencia artificial cuando se pregunta: «¿Son todos los procesos de toma de decisiones, de los que es capaz el hombre, reducibles a una serie de reglas?» Para intentar contestar a esta pregunta lo más apropiado es trasladarla al lenguaje de las matemáticas, lo que permite formularla en los siguientes términos: ¿Pueden todos los aspectos del pen­samiento humano ser descritos (de forma completa) mediante criterios matemáticos?, ya que cualquier fenómeno representable en forma mate­mática tiene que ser, por fuerza, «mecanizable».

Para seguir adelante habría que analizar con detalle el campo de posibilidades de la representabilidad matemática. ¿Qué tipo de fenómenos son representables en forma matemática y cuáles no lo son? Pero éste es un tema muy extenso y especializado que llevaría más lejos de lo que aquí se pretende. P. C. Jackson Jr., especialista en inteligencia artificial de la Universidad de Stanford, ha tratado con cierto detalle el tema (7). A continuación se enumerarán sus conclusiones más importantes.

Para desarrollar una descripción (teoría) matemática, hay que esta­blecer en primer lugar:

1) Un número finito de PALABRAS (o símbolos), que no se definan.

2) Un número finito de AXIOMAS (o postulados), en los que inter­vienen los símbolos anteriores.

3) Un número finito de REGLAS, que explican cómo partiendo de las palabras y los axiomas se pueden obtener CONCLUSIONES (o deducciones).

La teoría matemática que nace de los tres grupos anteriores, todos ellos finitos, tiene por fuerza que ser también finita. Ser describible en forma matemática es, por lo tanto, equivalente a ser representable en forma finita.

El fenómeno de la inteligencia humana, que es el que se pretende imitar con la inteligencia artificial, debe ser un fenómeno finito, ya que la inteligencia es un proceso cerebral y el cerebro consta de un número finito de neuronas2. Ahora bien, dentro de los fenómenos finitos, la mayoría, lógicamente, son representables en forma finita, si bien existen algunos fenómenos aislados (8), poco frecuentes, que no lo son. Falta por determinar si la inteligencia humana entra dentro del amplio grupo de los fenómenos finitos representables matemáticamente, o si, por el con­trario, pertenece al grupo, muy restringido, de los no representables. Desafortunadamente, este interrogante aún no ha sido resuelto.

Vemos, pues, que la ciencia matemática, al igual que la deducción lógica, no ha podido, al menos por el momento, ni demostrar ni negar la posibilidad de existencia de la inteligencia artificial.

 

 

4. EXAMEN FILOSOFICO

 

 

El reduccionismo es una postura filosófica en la que se postula que todas las ciencias son, en último término, casos particulares de la física.

Existe, según los reduccionistas, una jerarquía (9 y 10) que escalona todas las ramas de la ciencia (fig. 17), de manera que, por ejemplo, la sociología puede reducirse a la psicología, que, a su vez, se reduce a la biología; la biología a la química, y ésta, finalmente, a la física, pasando por una serie de disciplinas intermedias como ecología, sociobiología, cibernética, neurología, biocibernética, neurofísica, bioquímica, química orgánica, etc., algunas de las cuales no están todavía bien delimitadas. Si la postura reduccionista, defendida por numerosos científicos y filóso­fos3, es válida, habrá que admitir que la inteligencia natural (la humana, por ejemplo), es un «producto directo» de la física, es decir, que puede ser interpretada en términos solamente físicos, y, por tanto, la inteligencia artificial deberá ser una meta teóricamente alcanzable, como lo es, por ejemplo, al menos en teoría, la síntesis de cualquier compuesto orgánico o inorgánico.

Como es lógico, existe también la postura antagónica del reduccio­nismo4, y son igualmente muchos los partidarios de ella, pues opinan que entre las ciencias antes enumeradas existen «zonas vacías» que nunca podrán ser cubiertas, y, por tanto, la reductibilidad de todo el espectro científico es teóricamente inalcanzable.

Dentro del debate «reduccionismo-antirreduccionismo» conviene examinar por separado cada una de sus dos vertientes principales: la ontológica, es decir, la relacionada con la estructura de los objetos mate­riales que estudia la ciencia, y la epístemológica, que se refiere al método y a la forma en que son estudiados dichos objetos.

Ontológicamente es admitido, por una gran mayoría, que cualquier objeto material se reduce en último término a las partículas elementales que constituyen sus átomos, que necesariamente son las mismas para todos los objetos sometidos a estudio. Pero esos objetos no son sólo materia, sino que además «tienen» forma. Ahora bien, esa forma es con­secuencia de una ordenación de la materia. Y los ordenamientos son, sin duda, unos reducibles a otros, pues resultan de la combinación de un número finito de «movimientos elementales».

Epistemológicamente existen, a su vez, dos aspectos: el que se refiere a la teoría misma del conocimiento, y el que trata del método de estudio. Por lo que se refiere a este último, está claro que el reduccionismo con­duce a una metodología basada en el análisis, mientras que el organi­cismo presupone como más idónea la síntesis. Y es también evidente que ambos enfoques no son excluyentes, sino complementarios.

En cuanto al primer aspecto, el puramente teórico, es, sin lugar a dudas, el más debatido en la controversia que se está analizando. Aya­la (11) , en forma muy condensada, lo plantea así: ¿Son las teorías pro­pias de una ciencia, y las leyes que de esas teorías se deducen, casos especiales de las teorías y de las leyes de otra ciencia, a la que debería reducirse la primera, en la jerarquía (fig. 17) antes establecida?

El estudio de las leyes que rigen los fenómenos materiales nos enfrenta al establecimiento de las propiedades de la materia que da origen a dichos fenómenos, pues leyes y propiedades corresponden, en mi opi­nión, a las caras opuestas de una misma realidad5. Se llega así al pro­blema más delicado del reduccionismo: el de la existencia de las propie­dades emergentes (9 y 12): cuando una estructura u organismo es altamente complicado, ¿pueden llegar a «emerger» de él propiedades cuya explicación sea imposible a partir de sus componentes?6

Aunque en la actualidad éste es un tema ampliamente debatido, tanto en el campo de la ciencia como en el de la filosofía, creo que se trata tan sólo, como en tantos otros casos polémicos, de una cuestión semántica. Cualquier ley o propiedad que incumbe a lo natural puede explicarse a partir de estratos inferiores de la correspondiente disciplina, siempre que para lograr dicha explicación se permita reordenar la estruc­tura estudiada hacia formas más complejas. Pero, si por definición esta­blecemos que las leyes o propiedades de una estructura son exclusiva­mente aquellas que corresponden a dicha estructura, sin ningún tipo de manipulación, es evidente que al reordenar la materia surgirán de ella leyes y propiedades nuevas, que no pueden deducirse de las anteriores, pues ello requiere cierta manipulación que, por principio, ha quedado excluida.

Vemos, pues, que, tanto desde el punto de vista ontológico como desde el epistemológico, existen razones fundadas para suponer que el Universo en el que nos encontramos es reduccionista, aunque una parte considerable de los filósofos y científicos actuales piensen lo contrario, pues argumentan que, al menos por el momento, la ciencia no ha podido reducir todo lo que abarca su saber, a los principios fundamentales de la física, al existir lagunas importantes e insalvables en la jerarquía de la figura 17.

La historia de la ciencia demuestra, sin embargo, que, a la larga, fenómenos que parecían escapar a los principios del reduccionismo ter­minan por ser explicados gracias a ellos. La vida representa un claro ejemplo. Se había creído que su explicación resultaba incompleta en base únicamente a las leyes de la física, y por eso se recurría a la intervención de ciertas «entelequias», que no eran otra cosa que formas primitivas del emergentismo actual. Hoy día, reducido lo biológico a lo físico, los emergentistas o los antirreduccionistas se agarran, como única salvación posible, a la consciencia, que consideran irreductible a la física. Tampoco parece que este asidero durará mucho tiempo, pues la interpretación del fenómeno de la consciencia en base a mecanismos cibernéticos está más cerca de lo que se cree.

A pesar de lo dicho, y por muchos otros argumentos que se utilicen en favor o en contra del reduccionismo, difícilmente se logrará inclinar la balanza en algún sentido. Se trata de una más de las eternas contro­versias de la filosofia. Cada escuela tendrá siempre partidarios y de­tractores, y los filósofos jamás conseguirán desvanecer las dudas que se interponen ante los grandes misterios de la verdad.

 

 

5. RESUMEN

 

 

Según hemos visto, ni la evidencia lógica, ni la matemática, ni, en último término, la filosofia han sido capaces de demostrar la posibilidad o imposibilidad de la inteligencia artificial. A pesar de ello, en la actua­lidad son muchos los investigadores que se afanan y trabajan en este campo tan incierto. ¿De dónde sacan estos hombres el entusiasmo nece­sario para proseguir sus esfuerzos? Sin duda tienen fe en el método cien­tífico y conocen el alcance que en dicho método juega el análisis.

Pero, aun en el supuesto de que la inteligencia artificial, es decir, la realización de máquinas que imiten todas y cada una de las facultades de la inteligencia humana fuera una meta ciertamente inalcanzable, no serían inútiles los esfuerzos de esos investigadores. El solo hecho de poder reproducir artificialmente algunas de las facetas de la inteligencia humana, o simplemente ciertos aspectos o componentes de sus faculta­des, sería ya un logro de gran importancia para la ciencia, que ayudaría a conocer mejor al hombre, meta principal de todo el saber.

 

 

6. BIBLIOGRAFIA

 

 

1.     A. M. Turing, Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy (octubre 1950), 433-460.

2.     K. Gödel, Uber formal unentscheidbare Sättze der Principia Mathematica und verwand­ter Systeme: Manatshefte für Math. und Phys. (1931), 173-189.

3.     J. R. Lucas, The Freedom of the Will, Oxford 1970.

4.     E. Nagel y J. R. Newman, El Teorema de Gödel, Tecnos, Madrid 21979.

5.     S. Hook (ed.), Dimensions of Mind, capítulo sobre «The Compleat Robot: A Prole­gomena to Androidology», Cellier Books, New York 1961.

6.     J. Weizenbaum, Computers Power and Human Reason, Freeman and Company, San Francisco 1976.

7.     P. C. Jackson, Jr., Introduction to Artificial Intelligence, Petrocelli-Charter, New York 1974.

8.     G. J. Chaitin, On the Length of Programs for Computing Finite Binary Sequences:: Journal of the Association for Computing Machinery, New York, 13, 4 (1966), 547-569.

9.     S. Rose, The Conscious Brain, Penguin Books, Harmondsworth 1973.

10.   P. B. Medawar y J. S. Medawar, The Life Science, Harper and Row Publishers, New York 1977.

11.   T. Dobzhansky; F. J. Ayala; G. L. Stebbins, y J. W. Valentine, Evolución, Omega, Barcelona 1979.

12.   J. L. Pinillos, Lo físico y lo mental. Boletín Informativo de la Fundación March, Madrid, 71 (mayo 1978), 3-31.

13.         K. R. Popper, Observaciones sobre el Pansiquismo y el Epifenomenismo: Teorema, Valencia, VIII/I (1978).

 

 

 

 

Notas.

 

1 Publicado en Las Ciencias, Madrid, XLVI, 1 y 2 (1981), 80-86.

2 Entre los fenómenos infinitos, hay algunos que se pueden describir en forma finita, si bien la gran mayoría no lo son. Pero como hemos dicho, no es éste el caso de la inteligencia humana, que es, ciertamente, un fenómeno finito.

3 Entre ellos, premios Nobel como Einstein, Monod, etc.

4 El organicismo, o antirreduccionismo, o relacionismo, etc.

5 Así, por ejemplo, la propiedad de la materia de cambiar sus dimensiones o su masa en función de la velocidad a la que se desplaza no es más que una de las leyes de la mecánica relativista.

6 En el debate «reduccionismo-antirreduccionismo» se entiende por propiedad emer­gente lo dicho anteriormente, es decir, aquella propiedad que en el dominio de lo episte­mológico no es reductible. Sin embargo, para otros autores -como, por ejemplo, Popper- el término «emergente» tiene un sentido más restringido. El propio Popper (13) lo explica con las siguientes palabras: «Conocemos procesos de la naturaleza que son emergentes en el sentido de que conducen, no gradualmente, sino mediante algo semejante a un salto, a una propiedad que antes no estaba allí.» Para estos autores, cualquier salto cualitativo debe, pues, entenderse como algo emergente. Sin embargo, la mayoría de los saltos cualitativos, como el paso de sólido a líquido, en la opinión de gran número de filósofos y en la de prácticamente todos los científicos no son en realidad emergentes, pues evidentemente son reductibles a fenómenos más simples.