Los ordenadores nunca llegarán a ser inteligentes en sentido estricto

Los ordenadores nunca llegarán a ser inteligentes en sentido estricto

Filosofía de la cibernética

Los ordenadores no son inteligentes y no podrán llegar a serlo[1]

Al leer les respuestas de la Vicerrectora de la Universidad Politécnica de Madrid, Doctora en Ciencias de la Computación e Inteligencia Artificial, no me pude resistir a hacerle un análisis detallado con el fin de deshacer las muchas ambigüedades que contiene desde el punto de vista filosófico[2].

Para aclararnos habría que empezar dando una definición de lo que es la inteligencia humana. No obstante, para no complicar las cosas, me limito a comentar las afirmaciones que se vierten en la entrevista.

Me parece muy loable su objetivo de conseguir que los asépticos términos de la ingeniería informática cobren vida y cambien el mundo de eso que llamamos “Inteligencia Artificial”.

Vale el fin que se busca siempre que no sea proyectando a esos términos una vitalidad de la que no son capaces. Las máquinas nunca dejarán de ser meras máquinas por muy sofisticadas que sean.

Iré comentando las frases de la doctora que me parecen de contenido más importante.

Dice: Las ontologías permiten que los sistemas informáticos sean inteligentes y puedan razonar con el conocimiento que poseen de un determinado dominio.

Habría que aclarar a qué “ontologías”, en plural, se refiere. No hay duda, si se refiere a la ontología, en singular, de las palabras cibernéticas en cuanto es un análisis de su ser específico.

Duda: ¿Esas ontologías permiten o hacen inteligentes a los sistemas informáticos? Por el resto de la entrevista se deduce que hacen inteligentes a esas máquinas cibernéticas. Y de ahí se deduce que esas máquinas son inteligentes. Ésta es la afirmación principal de la doctora, tesis que defienden muchos otros informáticos. Para probar que lo son, va relatando una serie de actividades que realizan y que son propias de un ser inteligente.

Dice que las computadoras “deciden”, “concluyen”, “razonan”, “deducen”, y que tienen que “explicar el porqué de sus conclusiones”, etc. Todas estas acciones son propias de la inteligencia humana y de, al menos, algunos animales superiores. Es decir son propias de seres vivos y, algunas, exclusivas de la inteligencia humana. Nunca lo son de las máquinas.

Dice que son inteligentes porque ejecutan las acciones de “deducir” y “concluir” a partir de los datos que se les proporcionan. Sin embargo, no pueden no-deducir y no-concluir una vez que se les da la orden de hacerlo.

Las máquinas no pueden mentir. Sólo pueden cometer errores. Éstos son atribuibles al que los programa o maneja, a averías o desgastes. La capacidad de mentir es una característica muy propia de la inteligencia humana. La máquina nunca podría decir lo contrario de lo que piensa, si es que piensa.

El criminal conoce sus crímenes y, sin embargo, los puede negar ante el juez.

Las máquinas tampoco pueden dudar.  Su actitud es simplemente o sí o no mecánicos. En ellas no cabe la indecisión o la suspensión del juicio. No se para a valorar los pros y los contras. Si no concluye o deduce, es que le faltan datos o están mal introducidos o no son los adecuados.

En la entrevista se les atribuye la capacidad devalorar”. Prescindamos de la complejidad de lo que significa “valorar”. En la respuesta de la doctora a la pregunta que se le hace parece tener el sentido de “sopesar” entre distintas alternativas. Pero eso ya implica la capacidad de elegir, cosa que en absoluto se puede atribuir a máquina alguna.

Se dice que estas máquinas “toman decisiones”. Tomar decisiones supone que hay una voluntad libre capaz de decidir entre distintas opciones y de no decidir. Si se actúa mecánica y necesariamente, no queda margen alguno para “tomar decisiones”. Las decisiones ya las tomó quien introduce los datos en la máquina y las órdenes del que las manipula. Si son correctas, son inapelables. Las máquinas sólo aplican programas o aplicaciones preestablecidas.

Veamos los ejemplos concretos que pone la doctora. Pone el ejemplo del coche que aparca “por sí mismo”. El “por sí mismo” no indica, como se da a entender, que el coche toma la decisión de aparcar por sí solo. Sólo cumple órdenes. Y, si se estropea el automatismo no tiene capacidad de arreglarlo. El que lo detecte puede estar programado y el que arregle cierto fallos también puede estar programado. El programador es quien prevé el posible error y su corrección. La máquina no puede auto-programarse para esa función.

El caso del coche que tiene las luces encendidas y la batería agotada se pone como ejemplo de lo que él “sabe”. Se dice que enciende la luz roja  para indicar la “causa” de que la batería esté agotada fueron la “luces encendidas”, como si el coche conociera la relación de causalidad entre las luces encendidas y la batería agotada.

La máquina carece por completo del principio de causalidad, esencial a la inteligencia humana. Sólo junta dos datos que le han introducido: luces encendidas y batería apagada, pero no tiene conciencia alguna de que entre ambos datos haya una relación de causa-efecto. Podría juntar el dato de luces apagadas con cualquier otro dato. Si se le introduce, por ejemplo, el dato de una rueda pichada, juntaría “las luces encendidas” con la rueda pinchada.

Según la doctora, las máquinas tienen que saber explicar por qué han llegado a una determinada conclusión; tienen que poder explicar sus decisiones.

Para poder explicar el por qué de sus actos tienen, primero, que tener el sentido de la causalidad, ya sea eficiente o final. Pero ya advertimos que las máquinas carecen totalmente del principio de causalidad.

La máquina no sabe que dos y dos son cuatro. Sólo junta los dos doses y pone a continuación el cuatro. Si le introducimos que dos y dos son siete, así los sumará. No tiene conciencia alguna de lo que hace. Y, sin conciencia, no hay inteligencia.

Se dice que “el teléfono  móvil nos conoce mejor que nosotros mismos”. En realidad, no conoce. Sólo tiene los datos que le queramos introducir y sólo los relaciona conforme a las aplicaciones que le hayamos dado.

Se afirma también que nuestro teléfono, con los datos que le hemos introducido, puede predecir nuestros hábitos y nuestro comportamiento. Sin embargo, nosotros podemos cambiar nuestros hábitos y, en este caso, el teléfono seguirá prediciendo el mismo comportamiento, si no le cambiamos los datos. Es totalmente incapaz de predecir el uso que haremos de nuestra libertad y, por tanto, los cambios de nuestra conducta.

La doctora pone también el ejemplo siguiente: Yo voy a dar clase los martes de 17 a 19 horas en la Escuela Técnica Superior de Ingenieros. Ese comportamiento lo he introducido en el ordenador y él “sabe” que ese día y a esa hora voy a dar clase en ese centro. Ese saber”, según la doctora, es un signo de su inteligencia. Sin embargo, si yo no voy a clase un martes por lo que sea y no cambio el programa del ordenador, él seguirá prediciendo lo mismo que todos los martes.

Todos los ejemplos aportados para mostrar la inteligencia de los ordenadores padecen de la misma deficiencia y no prueban que sean inteligentes, a no ser que  reduzcamos la inteligencia a un mero mecanismo.

La doctora también afirma que las máquinas cibernéticas tienen su propia ética, justificando su afirmación diciendo que hay diversas éticas. Y pone como ejemplo que también entre las personas hay distintas éticas.

La comparación es insostenible. Sin libertad del sujeto no puede haber ética. Las máquinas no tienen conciencia del bien y del mal moral. No pueden hacer el mal queriendo hacerlo.  Es absurdo atribuirles la intención de hacer el mal. Su comportamiento ni está bien ni está mal. Es amoral. Puede ser erróne0, pero nunca moralmente malo. Por eso, no se les puede hacer responsables de su conducta. El responsable es su programador o el que la maneja. No son capaces de tener una ética, a no ser que alteremos completamente el sentido de la palabra “ética”

No vale equiparar la diferencia entre la supuesta ética de la máquina y la diferencia entre la ética de una persona y otra, como hace la doctora, para justificar que la máquina tiene su propia ética. Es evidente que hay diferencia de sistemas éticos y morales entre las distintas ideologías, religiones y culturas, pero es una diferencia entre las éticas de personas libres, no entre una máquina y una persona.

Las afirmaciones de la Doctora nos llevarían a concluir que, si la maquina decide, tiene voluntad y, si tiene voluntad, entonces es responsable y, por lo tanto, imputable. Pero cabe preguntar: ¿Si una máquina hace algo ilegal, ¿quién es responsable la máquina o el humano que la maneja y/o el programa que se le introdujo? No se le presupone intención a la máquina, sino una ejecución que puede ser errónea por fallos en el sistema y nunca por decisión o voluntad de la máquina.

 

Otra señal de que las máquinas ni son ni pueden llegar a ser inteligentes es el hecho de que no pueden percibir el doble sentido de las palabras cuando se cuenta un chiste. Sólo perciben el sentido más directo  de las palabras que se les introduce.  No creo que ninguna máquina sea capaz de reírse por sí misma (sin programación previa), si le cuento un chiste utilizando palabras que ella ya “conoce” o tiene en su memoria.

Para terminar, creo que conviene destacar que las máquina no tienen sentimientos. No pueden llorar, ni amar ni odiar.

En toda este mentalidad sobre la creencia en la inteligencia de las máquinas informáticas, que no sólo tiene la doctora en cuestión, sino también muchos informáticos y gente profana en esta materia, observo cierto antropomorfismo e infantilismo.

Los niños también llenan de vida a sus juguetes, lo que se puede llamar antropomorfismo infantil. Proyectan en ellos su propia vitalidad. Ludwig Feuerbach hizo un buen análisis de este antropomorfismo infantil de los adultos en lo que a la concepción de Dios se refiere. El hombre proyecta a otro ser lo que él aspira a ser o lo que él mismo es.

[1] Análisis del artículo-entrevista “En nombre propio. Asunción Gómez Pérez” (El Mundo, 23-07-2022).

[2] Creo que los informáticos deberían tener un mínimo de formación filosófica, principalmente de Filosofía del Lenguaje y también de Ontología Fundamental. La ontología de las palabras no puede ir en contra de los principios de la Ontología Fundamental.

Deja una respuesta