La mente siempre aventajará a la máquina

Por más complicada que sea la máquina que construyamos, se corresponderá, si es una máquina, con un sistema formal, el cual estará expuesto, a su vez, al procedimiento Gödel de hallazgo de una fórmula indemostrable-en-tal-sistema. La máquina será incapaz de producir dicha fórmula como verdadera, en tanto que una mente puede percibir ese carácter. De este modo, la máquina seguirá sin lograr constituirse en un modelo adecuado de la mente. Estamos tratando de producir un modelo de la mente que sea mecánico: es decir, esencialmente “muerto”, pero la mente, al ser de hecho “viva”, siempre aventajará a cualquier osificado y muerto sistema formal. Gracias al teorema de Gödel, la mente tiene siempre la última palabra.

J. R. Lucas

Gödel, Escher, Bach. Un eterno y grácil bucle, de Douglas R. Hofstadter

Interesante reflexión la realizada por J. R. Lucas en este párrafo, se esté o no de acuerdo con ella. Por cierto, ¿estáis de acuerdo o no? Tema interesante para debatir.

Autor: ^DiAmOnD^

Miguel Ángel Morales Medina. Licenciado en Matemáticas y autor de Gaussianos y de El Aleph. Puedes seguirme en Twitter o indicar que te gusta mi página de Facebook.

24 Comentarios

  1. [1] “en tanto que una mente puede percibir ese carácter”

    ¿Seguro?

    Lucas está hablando de Dios, es decir, como no sabe qué es “la mente”, hace comparaciones huecas al estilo “muerto / vivo / percibir / carácter” y le atribuye características sin rigurosidad ninguna ([1]).

    Vaya, muy al estilo cartesiano.

    En tanto en cuanto no sepamos lo que es “la mente” será imposible intentar definir rigurosamente un modelo matemático, no obstante, recomiendo leer a Penrose, pues baraja todas las posibilidades y no pone a “la mente humana” en un pedestal.

    Publica una respuesta
  2. En el razonamiento de Lucas hay una pirueta lógica que me parece tan evidente que temo no haberle entendido bien. Así que mejor pregunto:

    ¿Afirma que los seres humanos podemos asegurar que una afirmación es cierta, más allá de toda duda, aunque no pueda demostrarse formalmente, partiendo ambos (humano, y sistema lógico formal) de los mismos axiomas?

    Porque si afirma eso, yo no lo veo… y tampoco veo su negación, lo cual, si valgo como ejemplo de humano (me gusta pensar que sí), me sirve de contraejemplo.

    Y si se refiere a afirmaciones que sabemos que son ciertas, aún sin demostración, basándonos en la experiencia, entonces también tengo que discrepar, porque no veo nada que impida que una máquina se comporte igual.

    De todos modos me llevo bastante mal con los filósofos, con alguna excepción. Es como si tuvieran un gen defectuoso que les impidiera decir: “y yo qué sé”, a pesar de que muy a menudo sea la respuesta más inteligente.

    Publica una respuesta
  3. Se cruzo mi mensaje con el de josejuan, pero parece que vemos el mismo punto débil en el razonamiento 🙂

    Publica una respuesta
  4. También creo lo mismo pero desde luego no por un teorema. Es como si pensamos que los mercados están en equilibrio porque han derivado sus variables.

    Como dice Penrose, la mente tiene un componente cuántico que un ordenador nunca podrá emular. De momento.

    Publica una respuesta
  5. Estoy de acuerdo con josejuan y con Sive: que los mecanismos que en el nivel más bajo sustentan el funcionamiento sean de naturaleza distinta (mecánica/electrónica – biológica) no quiere decir que haya una esencia particular (un “jugo de la vida” o un “néctar de la inteligencia auténtica”) que impida que se pueda crear una máquina que cumpla las características necesarias para ser considerada una “inteligencia”. Kurzweil se ha cansado de argumentar contra proposiciones como esta.

    Desde ya que es poético y muy romántico pensar que “la máquina siempre será inferior a la mente” en tanto está creada por esta, pero no es necesario pensar muy lejos sobre lo que pueden hacer hoy en día las computadoras para saber que, en realidad, no es tan lisa y llanamente así.

    Publica una respuesta
  6. Precisamente, los Teoremas de Incompletitud de Gödel demuestran que no podemos asegurar que ciertos sistemas son completos y consistentes… lo que en realidad sólo demuestra que la lógica con la que trabaja nuestra mente tiene límites concretos.

    Así que, igual que no se le puede pedir a una calculadora que demuestre un teorema básico, a nosotros por ahora no se nos puede pedir que demostremos (yo qué sé) la Hipótesis de Riemann… para conseguir ciertas cosas, la mente necesita evolucionar: nadie espera de los monos que demuestren que hay infinitos números primos, su cerebro no puede entender esos conceptos… pero con 1 millón de años de evolución “dirigida” la cosa cambiaría mucho.

    En el caso de los seres humanos, ya que nuestro cerebro no ha cambiado mucho desde hace cientos de miles de años, es necesaria una evolución de “ideas” (o “memes” como os llama Richard Dawkins). Así que, si pensamos en el cerebro como una máquina, en lugar de algo mágico, no es difícil ver que un cerebro de hace 1000 años, sólo es un ordenador con un software desactualizado… nadie le pediría a un spectrum que haga cálculo simbólico, pero si le pudiéramos instalar Matlab…

    Publica una respuesta
  7. Yo lo que entiendo en ese párrafo es que los seres humanos somos conscientes de nuestras propias limitaciones, algo de lo que una máquina no es capaz, y por eso la mente humana es superior.

    Yo estoy de acuerdo.

    Publica una respuesta
  8. El cerebro no deja de ser una maquina (quimica).
    No creo que el hombre pueda contruir una maquina superior (en un sentido cualitativo) a su propio cerebro, pero si igual y con mas capacidad.

    Publica una respuesta
  9. roldan y ¿qué me dices de Internet? ¿no es una máquina superior al cerebro humano?

    Una sola persona no puede construir un cerebro mejor, pero muchas juntas son en sí mismas algo más… lo mismo que una sola célula no puede hacer una “célula mejor”, pero una asociación de ellas puede llevar a formar seres vivos superiores.

    Publica una respuesta
  10. hay un libro sobre esto “La nueva mente del emperador”” de Penrose

    SaudoS

    Publica una respuesta
  11. ZFC también es un sistema mejor(tal vez sería mejor decir “más potente”) que la mente humana…. ZFC(o la teoría descriptiva de conjuntos) permite tratar formalmente objetos(conjuntos infinitos) que “intuitivamente” no hay manera de tratar….. Si la mente humana fuera mejor que ZFC entonces ZFC no sería necesaria……Podríamos tratar con conjuntos infinitos sin necesidad de una teoría axiomática….. Y por supuesto: reto a Lucas a percibir que la hipótesis del continuo no es ni verdadera ni falsa en ZFC. Ya puestos si intuimos cuando una proposición es verdadera sin necesidad de prueba, también debe ser posible intuir si es o no demostrable en un determinado sistema formal…..

    Publica una respuesta
  12. Interesante también, es la solución que se propone en el mismo libro, para desmontar tal argumento.

    Admitamos que la máquina será un sistema formal. La mente tiene la capacidad para “salirse” de un sistema formal y hacer razonamientos sobre éste, correcto. Cada vez que nos salimos del sistema formal para razonar, podemos añadir un nuevo axioma o regla de inferencia. Ahora bien, la capacidad del cerebro es finita, así que podemos considerar un sistema formal que haga inviable salirse de él, para cualquier persona. Si construirmos una máquina que implemente tal sistema formal, ¿qué diferencia habría con la mente?

    Puede que la mente sea muy compleja pero, aceptando la finitud que pueden tener nuestros razonamientos, no nos queda más remedio que reducirnos a un sistema formal. ¡Pero uno muy complejo! Me encanta el GEB 😀

    Publica una respuesta
  13. Creo que la decidibilidad de tal o cual preposición no es el argumento más concluyente para decidir que “el ser humano no inventará nunca una máquina que supere al cerebro”. En principio el señor Lucas debería indicar en qué características dicha máquina debe superar al cerebro. Si es en velocidad, en precisión, y en estar libre de sesgos cognitivos, pues en eso me atrevo a proponer que las computadoras actuales ya superan a la mente humana.

    Con respecto al siguiente fragmento, que es aparentemente el primer argumento en la cita: “La máquina será incapaz de producir dicha fórmula como verdadera, en tanto que una mente puede percibir ese carácter.”

    Estamos diciendo que la mente humana sí es capaz de decidir sobre proposiciones indecidibles? O estamos diciendo que la mente humana puede arriesgar un resultado a través de la intuición? Entre demostrar y proponer o conjeturar hay mucha distancia, y si no me equivoco creo que la mente, el cerebro y cualquier otro tipo de máquina concebible es incapaz de “producir dicha fórmula como verdadera”. (Ojo, tal vez haya malinterpretado esto yo.)

    Incluso yendo más allá de esto, creo que el punto central y más refutable de la cita es la -implícita- asignación de una “esencia metafísica” al cerebro humano. Un alma si se quiere, que se supone que es irreproducible mecánicamente:

    “Estamos tratando de producir un modelo de la mente que sea mecánico: es decir, esencialmente “muerto”, pero la mente, al ser de hecho “viva”, siempre aventajará a cualquier osificado y muerto sistema formal.”

    Veamos, de esto no hay evidencia, ni motivo para creer que sea cierto. Si bien no hay un consenso claro, es incluso dentro de G.E.B. claro el modelo planteado: la noción de identidad, la conciencia, son fenómenos derivados de la combinación de un cerebro ultra complejo con capacidades sensoriales relativamente buenas. Con qué justificamos que algo “muerto” (preferiría el término “inerte”) es, por muerto, incapaz de realizar tareas que (al menos hasta donde sé -o creo-) el cerebro también realiza por medios que respetan las leyes de la física?

    Como dije antes, personalmente creo que es un manotazo de romántico ahogado para asignarle a la mente humana un carácter divino, o metafísicamente inalcanzable, en lugar de aceptar la magra realidad de un sistema biológico como cualquier otro, con su complejidad, sus errores, sus problemas y sus aciertos.

    Publica una respuesta
  14. David ha dado con la clave. No veo un problema a priori en que una máquina pueda estar programada para saltar de un sistema añadiendo axiomas según necesidad. Claro que no podrá saltar indefinidamente, pero tampoco la mente.

    mimetist:

    El teorema de Gödel no dice nada acerca de las limitaciones de la lógica (no de la proposicional, tal vez si se inventa alguna otra que contenga a los naturales…), sino de los sistemas formales que pueden describir lo números naturales. Como estos números son infinitos solo se pueden definir recursivamente, así que el teorema de Gödel lo que dice es algo acerca de la limitación del método recursivo. Usándolo siempre tendremos lagunas.

    jbm:

    Penrose puede decir lo que quiera, mientras no lo demuestre es pura especulación. Pero incluso si tuviera razón, ¿por qué no podríamos hacer ordenadores con esa componente cuántica?

    Publica una respuesta
  15. José Luis:

    Con ningún afán de introducir habitual misticismo y perder el sentido razonable Penrose da una explicación completamente fundamentada de por que la mente no es un algoritmo, primeramente hay un componente cuántico que dota a la mente con un aspecto de no-linealidad en su pensar (ningún algoritmo puede ser caótico) y el mismo Penrose argumenta que no podemos hacer ordenadores con esa componente cuántica por una razón que es mil veces más polémica que lo tratado aquí: por que la conciencia es aquello que propicia el colapso de la función de onda.

    Entonces aquello que nos impediría hacer un ordenador con esas características es que las mismas leyes de la mecánica cuántica lo prohiben (según entiendo) por que Penrose argumenta que la conciencia proviene de un aspecto caótico de los microtúbulos en las neuronas para hacer un ordenador como el que se pretende habría que violar el principio de incertidumbre necesariamente.

    Publica una respuesta
  16. Ramiro:

    Ambas razones no lo son, son solo opiniones. Penrose lleva años buscando esa componente cuántica sin encontrarla. Decir que la conciencia es aquello que propicia el colapso de la función de onda es también una opinión. Para empezar el colapso es una interpretación de varias posibles e, incluso si se demostrara que hay tal cosa como el colapso, esta no tiene por qué ser debida a la consciencia, podría muy bien ser simplemente debida a la interacción entre partículas.

    btw: querrás decir otra cosa porque tenemos un montón de algoritmos que generan caos.

    Publica una respuesta
  17. Desde mi punto de vista de ingeniero informatico interesado en los temas de inteligencia artificial, me gustaria comentar un par de puntos:
    – Actualmente existen dos caminos muy diferenciados en el desarrollo de la inteligencia artificial, los sistemas logicos, basados en el simbolismo, que, como bien dice nuestro amigo J.R. Lucas, siempre tendran las limitaciones de completitud,incluso aplicando logicas no clasicas (logicas modales, por ejemplo). La segunda aproximacion, completamente diferente, es la aproximacion por redes neuronales. Esta aproximacion es completamente caotica y suele generar resultados imprevisibles, dado que unicamente conlleva el reconocimiento de patrones, a cualquier nivel, pero dificilmente desarrollables por la dificultad que conllevaria generar un sistema “real” (10^11 neuronas en el cerebro humano, 10^14 conexiones).
    – Frente al componente cuantico, la electronica esta llegando a un nivel de miniaturizacion, en la que los transistores empiezan a funcionar “erraticamente”, teniendo ese punto aleatorio que define el alma humana, segun Penrose.

    Puede que nunca lleguemos a poder definir el sistema de raciocinio humano como un sistema formal basado en la logica (aunque podriamos llegar a aproximaciones realistas de comportamientos “humanos”), pero eso no implica que no se puedan llegar a construir maquinas que puedan generar esos pasos imprevisibles que nos definen como humanos…

    Publica una respuesta
  18. Supongo que sabeis que Godel pensaba igual Lucas no? Es posible que Godel se equivocara en la interpretación de su propio teorema?

    Publica una respuesta
  19. José Luis:

    Tienes razón, tengo que ceder en ese sentido todo lo que se dice no es más que pura especulación , y creo que en efecto todo se reduce a mostrar algo concreto. A mi me gusta mucho la obra de Penrose y creo que lo que expone en sus libros es de mucho valor, y de nuevo cayendo en especulaciones a mi no se me hace razonable que se pueda emular de algún modo el cerebro humano por un lado están los argumentos de Penrose sobre que muchos de los grandes misterios (cómo el enigma de la medida) van a ser resueltos cuando se entienda la conciencia por que definitivamente hay algo inconcluso en la interacción de el observador con un sistema cuántico(el gato de schrodinger, efecto zeno etc.) pero yo lo que realmente querría preguntar es

    ¿De verdad podremos programar una entidad que tenga los mismos “cispazos” de ingenio de Euler o de Einstein, que escriba como Broges o Benedetti?

    Yo creo que necesariamente se tienen que crear maquinas químicas que operen como el cerebro humano y sean programables (tal vez el cerebro lo sea :S) pero el cerebro es subproducto de un genoma no creo que se puedan secuenciar en el orden correcto las bases para formar ADN son demaciadas dificultades técnicas

    P.D. Bueno disculpa mi ignorancia la verdad no quise decir otra cosa. En verdad no sabía que existían algoritmos capaces de crear caos :S

    Publica una respuesta
  20. Realmente muy interesante!

    Personalmente, me sorprende que aún nos preguntemos si podremos inventar cerebros que nos superen. Para mí, claro que sí! No encuentro ninguna razón para que no sea así.

    ¿Argumentos cuánticos? Toda la materia tiene características cuánticas.
    ¿Cómo vamos a hacer algo más inteligente que nosotros? Hemos hecho máquinas más altas, más pesadas, más fuertes, más rápidas…todo llega.

    Yo creo que la superioridad del cerebro es una cuestión de cantidad: la cantidad de elementos activos y sus conexiones, eso es lo que está fuera de nuestras posibilidades aún.

    mimetist: cuánta razón, internet es un organismo del que nosotros somos las células!! o las neuronas…Nosotros tenemos piernas, brazos, ojos, etc. Internet aún no…

    Lo que sí me pregunto es cuál será el “siguiente” paso de la evolución de la mente. Mezclaremos cerebros con máquinas en dos sentidos: haremos nuestros cerebros más tecnológicos y haremos la tecnología más biológica.

    ¿Qué nuevas capacidades tendrán las mentes del futuro próximo?
    ¿Se generará una gran oleada de pobreza cuando las mentes piensen (piensen al modo de los humanos)?

    Finalmente, como hemos hablado de libros, recomiendo “Sistemas emergentes: O qué tienen en común hormigas, neuronas, ciudades y software”, de Steven Johnson

    Publica una respuesta
  21. A ver: “sistemas formales” que describan cosas que la mente humana(piensese en la mecánica cuántica por ejemplo) ya no puede comprender o máquinas que calculen cosas a mayor velocidad que nosotros ya hay… otra cosa es construir algo que alcance nuestra eficiencia energética y nuestra adaptación al entorno…. por ahora quítale el interruptor a una máquina o que se quede sin fábrica de baterías….. No hay nada ni medianamente parecido en ningún lado a la capacidad de adaptación de los seres humanos a cualquier entorno sobre la tierra….. Son 2000 millones de años evolución(en constante competencia por la supervivencia)…. Imitar eso(si fuera posible) todavía es cosa de siglos…. Si los posibles cerebros que creemos son “más inteligentes” que nosotros pero no tienen eficiencia energética simplemente de ninguna manera nos superan en la práctica… Eventualmente puede ocurrir pero la superioridad humana es una cuestión energética que no está nada claro por ahora que sea imitable por ningún sistema: téngase en cuenta que los seres humanos tienen la capacidad de usar la química(no terminada de comprender) que le rodea para extraer energía de forma asombrosa……

    Publica una respuesta
  22. Buenas tardes

    Lucas se equivoca, voy a intentar explicar por qué.

    La máquina está sumergida en un sistema formal (que contiene la aritmética); así pues está bajo la espada de Godel, correcto. La máquina no podrá DEMOSTRAR alguna proposición pero sí podrá SABER QUE DICHA PROPOSICIÓN ES CIERTA.

    El mismo teorema de Godel es constructivo, de modo que construye una frase CIERTA pero INDEMOSTRABLE.

    Lucas confunde (como tantos otros) la verosimilitud con la demostrabilidad. Precisamente Godel demostró que VERDAD y DEMOSTRABILIDAD son dos cosas diferentes.

    Imaginemos que la máquina tropieza con una sentencia indemostrable, sin saber si es o no es demostrable. ¿Podrá demostrarla? No (porque es indemostrable). Pero quizá la máquina pueda demostrar que dicha sentencia es indemostrable (esto es un poco lioso, lo confieso). En ese caso, podrá asumirla (a dicha sentencia o a su negación) como axioma. Si la asume como axioma, la máquina genera un sistema lógico ampliado en el cual la sentencia es INDEMOSTRABLE (es un axioma) y es CIERTA

    Tal cosa ya ha sucedido con la hipótesis del continuo que ahora sabemos que es indemostrable (y de nuevo Godel está metido en el ajo).

    Quizá sentencias como la hipótesis de Goldbach o la de Riemman sean indemostrables…

    Publica una respuesta
  23. Conviene saber lo que dice para entender lo que no dice. Esto último es especialmente importante porque se han querido extrapolar conclusiones que no se siguen. He aquí un par de ejemplos.

    1. El teorema de Gödel no dice nada acerca de la superioridad de la mente humana respecto a la posible inteligencia artificial.

    Quien afirma lo contrario (el propio Gödel parece que iba por ahí) parte de la observación de que un sistema formal lo suficientemente potente es por fuerza incompleto. Se puede proponer un sistema formal superior, que incluya como axiomas las verdades no demostrables dentro del primero, pero el nuevo sistema seguirá siendo incompleto. Con todo, este “saltar del sistema” es un proceso que permite mejorar los sistemas. La mente humana, según este planteamiento, podría “saltar” indefinidamente.

    El argumento anterior es falaz por dos razones. Por una parte, no habría problemas para aceptar que una máquina pueda saltar de un sistema a otro. Por otra, la mente humana es finita y nunca podrá saltar indefinidamente de un sistema a otro. Es más, saltar indefinidamente no consigue tampoco llegar a ningún sistema completo. Simplemente se salta indefinidamente.

    2. El teorema de Gödel no establece un dominio de la realidad que sea inaccesible a la mente humana.

    Hay dos problemas históricos en la filosofía de la ciencia o del conocimiento. El primero es el problema de la realidad exterior: ¿existe? ¿es como se nos aparece? La ciencia no trata este tema ni, como se suele afirmar, lo supone a priori. Simplemente se dedica a dar cuenta de las regularidades que se nos aparecen en esta acaso apariencia de realidad exterior. Que haya tales regularidades no es ningún fundamente metafísico de la ciencia sino una constatación empírica.

    El segundo problema es el de las otras mentes. No tenemos acceso al mundo de sensaciones, sentimientos, pensamientos,… que ocurren en las otras mentes. Ni siquiera tenemos constancia de que existan las otras mentes. Para esto último tenemos el test de Turing: las otras mentes lo pasan sin problema. Para saber de sensaciones y pensamientos no tenemos nada más que la posible empatía por pertenecer a la misma especie.

    Quienes ven en el teorema de Gödel un nuevo límite a nuestro conocimiento de la realidad confunden el modelo con la realidad. Si la realidad es finita, por ejemplo, inmediatamente tenemos que no responde a los supuestos del teorema de Gödel y nada de lo que dice el teorema se aplica en ella.

    Un momento, dirá alguno, el sistema formal de las matemáticas está dentro de la realidad y, por tanto, todo lo que pase en ese modelo será parte de la realidad. Sí y no. Sí en un sentido débil, digamos. Es una parte de la realidad que podríamos decir creamos los seres inteligentes. No en un sentido fuerte, puesto que las matemáticas no son nada creado de verdad. Es decir, no hay nuevas partículas elementales, por ejemplo. Lo que hay es un juego inventado, un deducir cosas de acuerdo con unas reglas. Ocurre simplemente que con ciertas reglas no se puede llegar a establecer un valor de verdad a ciertas posiciones del juego. Que ese juego nos sirva a los mortales para interpretar cosas de la realidad es algo ajeno a la realidad.

    Pero tampoco dice que no podamos entender la realidad, puesto que incluso si fuera pequeña, finita y abarcable al ser humano podríamos seguir construyendo modelos formales con teoremas de Gödel. Así que el problema que pueda plantear el teorema no es sobre la realidad, sino sobre las reglas deductivas, que no llegan a construir según qué enunciados.

    ¿Cómo cabe un sistema formal que contienen los números naturales, que son infinitos, en un mundo finito?

    Sólo el darse cuenta de lo anterior debería ser suficiente para mostrar que los números naturales (así como los sistemas que los contienen) no existen más que como construcción nuestra y ciertamente nunca los construiremos todos. Solo tenemos como prueba de su existencia el que podemos mostrar que la existencia de cada uno de ellos se deduce recursivamente, no porque los hayamos escritos todos. Es la potencia del argumento recursivo lo que se limita en el teorema de Gödel, nada más. Las verdades de la ciencia siguen siendo las mismas, las establecidas empíricamente.

    Qué dice el teorema de Gödel:
    http://todoloqueseaverdad.blogspot.com.es/2011/03/que-dice-el-teorema-de-godel.html

    Qué no dice el teorema de Gödel:
    http://todoloqueseaverdad.blogspot.com.es/2011/03/que-no-dice-el-teorema-de-godel.html

    Publica una respuesta

Trackbacks/Pingbacks

  1. Bitacoras.com - Información Bitacoras.com... Valora en Bitacoras.com: Por más complicada que sea la máquina que construyamos, se corresponderá, si es una…

Puedes utilizar código LaTeX para insertar fórmulas en los comentarios. Sólo tienes que escribir
[latex]código-latex-que-quieras-insertar[/latex]
o
$latex código-latex-que-quieras-insertar$.

Si tienes alguna duda sobre cómo escribir algún símbolo puede ayudarte la Wikipedia.

Y si los símbolos < y > te dan problemas al escribir en LaTeX te recomiendo que uses los códigos html & lt; y & gt; (sin los espacios) respectivamente.

Envía un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *