¿Pueden Pensar las Máquinas? Alan M. Turing

Me planteo desarrollar la siguiente cuestión: ¿Pueden pensar las máquinas?

Con esta sugerente frase comenzaba el artículo “Computing Machinery and Intelligence”, que podríamos traducir como "Máquinas de computación e inteligencia", publicado por Alan Turing en el número de octubre de 1950 de la revista de filosofía británica Mind. Aquí se trató por primera vez la cuestión de la posible existencia de una inteligencia artificial y propuso su famoso experimento, desde una visión positivista, considerando que si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

Tras la propuesta de la histórica pregunta, Turing propone revisar los conceptos "máquina" y "pensar". Definir el primero no plantearía problemas irresolubles, de hecho el concepto de máquina de Turing ya había sido definido por él, y podría ser una acepción válida. Para el segundo, por el contrario, la cosa no es tan sencilla, por lo que, en su lugar, propone cambiar la pregunta por otra alternativa.

La base del cambio proviene de un juego social de la época, el juego de la imitación. Recordemos que en los años 50 del pasado siglo no existían los juegos de rol, la televisión, ni Internet, por lo que para las reuniones sociales debían existir entretenimientos alternativos. Este juego necesita tres personas, un hombre, una mujer  y un interrogador. El interrogador se queda en un cuarto, separado de los otros dos. Para él, el objetivo del juego es determinar cuál de los otros dos es el hombre y cuál la mujer, por medio de preguntas, y los resultados, bastante tópicos, de las respuestas.

La traslación propuesta sería: ¿Qué pasaría si una máquina tomara un papel en este juego y un humano otro?. ¿Decidirá el interrogador acertadamente con igual frecuencia, si el juego se desarrolla de esta manera, que como cuando es jugado por un hombre y una mujer? Esta nueva formulación serviría para responder nuestra pregunta.

Así, la nueva cuestión que nos planteamos es: ¿Puede una máquina simular el comportamiento humano y ser indistinguible? Está claro que todo el mundo convendrá en que una máquina puede “simular” a un ser humano, no hay disputa en eso. La cuestión clave es que si la simulación se hace de una manera tan eficaz, que es indistinguible de un pensamiento “auténtico” para un observador externo, entonces, ¿Cuál es la diferencia?

De acuerdo al principio de identidad de indiscernibles, también conocido como Ley de Leibniz, sabemos que no pueden existir dos cosas diferentes, idénticas entre sí. Luego podríamos concluir que una inteligencia artificial indistinguible de una humana, necesariamente debe ser idéntica.

Tras su presentación, Turing analiza una batería de posibles objeciones a su propuesta, en concreto, las siguientes:

  • Argumento teológico. Según esta objeción, pensar es una cualidad del alma inmortal que Dios ha proporcionado a los seres humanos, pero no a los animales ni máquinas. Por tanto, ni animales ni máquinas podrían llegar a pensar. La respuesta de Turing es que esta objeción limitaría la “omnipotencia” divina, pues Dios, debería tener la potestad de conceder el pensamiento a una máquina o a un elefante si lo estimara adecuado.
  • Argumento del avestruz: Las consecuencias del hecho de que las máquinas pensaran serían demasiado horribles, por lo que debemos esperar y creer que no pueden hacerlo. Para Turing, es un argumento poco sólido, más que una refutación, quienes lo esgrimen necesitan consuelo.
  • Objeción Matemática: La Lógica Matemática demuestra que existen limitaciones al poder computacional de las máquinas: El Teorema de Gödel. Turing responde que estas limitaciones son ciertas, pero que también se aplican a los humanos.
  • Argumento de la consciencia: Hasta que una máquina no sepa escribir un soneto o componer un concierto con base en los pensamientos y las emociones que siente, y no a consecuencia de la generación aleatoria de símbolos, no podremos estar de acuerdo en que la máquina pueda ser igual que un cerebro, es decir, que no solamente sepa escribirlos, sino también que sepa que los ha escrito.  Para Turing, esta objeción conduce al solipsismo, pues ¿Cómo se sabe si un humano sabe o no? ¿Cómo se sabe si una máquina sabe o no? ¿Cuál es la realidad?
  • Argumento de varias incapacidades: Admito que usted puede compeler a las máquinas a hacer todas las cosas que acaba de mencionar, pero nunca podrá inducir a una máquina a hacer determinadas tareas, por ejemplo: Ser bueno, fértil en recursos, guapo, amistoso, tener iniciativa, tener sentido del humor, enamorarse, disfrutar las fresas con nata, etc. Es más, también sabemos que las máquinas no pueden cometer errores, y los humanos sí. Turing responde que la primera objeción se basa en una aplicación equivocada de la inducción científica. Del hecho de que las máquinas no han hecho tales acciones, se pretende deducir que no pueden hacerlas. La segunda objeción es aún más extraña, ¿acaso son peores por no cometer errores? En cualquier caso, podrían ser programadas sin problemas para poder cometer errores. En este sentido, podemos citar la entrevista aparecida en El País del 25 de Septiembre, donde se indica que las máquinas podrían ser capaces de apreciar la pintura.
  • Argumento de Lady Lovelace. Una máquina no pretende crear nada. Sólo puede hacer cualquier cosa que sepamos ordenarle que haga. Para Turing, el argumento más utilizado como crítica, pero advierte que cualquier sistema suficientemente complejo puede ser indistinguible de un sistema “creativo”. No podremos saber si su decisión es autónoma o determinada por su programación.
  • Argumento de la continuidad del sistema nervioso. El sistema nervioso no es una máquina discreta. Un pequeño error en un impulso nervioso de una neurona, puede representar una gran diferencia para el volumen del impulso saliente. Turing acepta la objeción, sin embargo señala que aunque los circuitos eléctricos binarios son discretos, en la programación esa consideración desaparece. En el juego de la imitación esta objeción no tendría sentido.
  • Argumento de la informalidad del comportamiento. Según el cual, no es posible elaborar un conjunto de reglas que describa lo que una persona debería hacer en cualquier serie de circunstancias. Para Turing, se confunden “reglas” con “leyes de comportamiento”. Las máquinas obedecen las reglas con exactitud, pero si fuese un sistema de reglas lo suficientemente complejo, los imponderables complicarían la toma de decisiones.
  • Argumento de la percepción extra-sensorial. Adaptación a las posibilidades de la percepción extra-sensorial en sus cuatro variantes: telepatía, clarividencia, precognición y psicoquinesis.  Este argumento es bastante curioso. Parece muy poco serio, y no está claro si la objeción es una posible ironía de Turing o en realidad aceptaba realmente estas ideas hoy completamente desacreditadas y que no merecen atención.

Tras el análisis de las objeciones, Turing reconoce que sólo presenta argumentos negativos, y que carece de argumentos positivos para validar su sistema. Apunta, sin citarlo expresamente, a que la inteligencia podría definirse atendiendo al emergentismo, como una “propiedad emergente” de la complejidad del procesamiento. En ese sentido, y si bien Turing no entra de lleno a defender estas tesis, parece que acepta una visión materialista, en base a que el cerebro humano funciona con señales eléctricas y químicas, y así, el suponer que estas señales no pueden ser reproducidas, sería aceptar que existe algo no material (dualismo) que imposibilitaría la reproducción. Si no aceptamos la existencia de entes inmateriales, por ejemplo un “alma” inmaterial en donde residiera dicha propiedad del pensamiento, forzoso es aceptar que no existen razones que eviten su posible reproducción. Así, podríamos aceptar que la propiedad de pensar puede ser reproducida como ya lo fue en el pasado la propiedad de volar, y si bien el propio Lord Kelvin, en 1895 dijo que la navegación aérea era de todo punto imposible, los hermanos Wright realizaron el primer vuelo a motor pocos años después, en 1903.

Según Turing, toda función computable por la naturaleza humana es computable por su 'máquina universal', de ahí, no hay nada humano, incluido el pensamiento, que no pueda ser reproducido por una máquina, por una máquina pensante (‘thinking machine’). El 'test de Turing' venía a dar respuesta acerca de la capacidad de las máquinas. Desde una posición claramente conductista, los comportamientos aparecían directamente guiados por estímulos concretos. Por consiguiente, las pautas de la conducta y de la acción podrían ser codificadas, memorizadas y reproducidas a través de respuestas sujetas a la lógica causal. La complejidad, los lenguajes máquina, los conceptos de algoritmo y programa, las funciones de memoria, la noción de inteligencia artificial, subyacen en la visión de Turing.

Aquí podemos remarcar una entrevista con Gary Kasparov tras su derrota en el campeonato de ajedrez frente al computador Deep Blue. Se le preguntó si creía que la máquina pensaba, a lo que contestó: “Pensar no, sin embargo mostraba un comportamiento inteligente, comprendía la estrategia”. Es decir, la inteligencia siempre será un blanco móvil, en el que, si se alcanza un hito, siempre se podrá poner otro superior.

Este juego de la imitación se denomina, desde su propuesta, como Test de Turing. Sobre él se ha escrito mucho, desde el ámbito de las matemáticas, de la filosofía, la religión, e incluso, la literatura, sobre todo en ficción científica. Recordemos, por ejemplo, el film de Ridley Scot, Blade Runner, donde un magnífico Harrison Ford, en el papel de Rick Deckard, cazador de androides, efectúa pregunta a pregunta a los sospechosos, hasta determinar si son humanos o replicantes. El, así denominado en la película, test Voigt-Kampff que emplea el agente Deckard sería una variante del test de Turing.

Al día de hoy, el Test de Turing no ha podido ser pasado por ninguna máquina. Una aplicación práctica de este hecho se utiliza para la eliminación de accesos automáticos en páginas web. Los Test de Turing Inversos, o CAPTCHAS se han convertido en práctica habitual. La prueba más común consiste en introducir un conjunto de caracteres que se muestran en una imagen distorsionada. Se supone que una máquina no es capaz de comprender e introducir la secuencia de forma correcta, por lo que sola mente un ser humano podría hacerlo. Son comunes en creación de cuentas de correo y de usuario, por ejemplo Messenger, Google, Yahoo, etc.

El pensamiento de Turing comprende un amplio campo de reflexión, ya que su concepción de las máquinas inteligentes, expuesta en su trabajo supone una visión científica y filosófica que está en el origen de las grandes transformaciones que darán lugar a la idea de una sociedad tecnológica de la información. Las reservas y críticas a sus planteamientos no se hicieron esperar, pero su visión del futuro le llevó a proyectarse al año 2000 cuando, según su previsión "el empleo de las palabras y la opinión académica habrá variado y se podrá hablar de máquinas pensantes sin que se produzcan descalificaciones".

Desde el mencionado año 2000, en que se cumplió el 50 aniversario de la propuesta del test, y año en el que Turing predijo que el mismo se pasaría, se celebra una competición para elegir el mejor programa. El Premio Loebner, con un formato de la competición que sigue el estándar establecido en el test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un computador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe las respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa. Se ofertan tres premios, una medalla de bronce anual, para el programa más parecido a un ser humano de los presentados cada año. Una medalla de plata que se otorgará una sola vez, para el primer programa en el que los jueces no logren distinguir de un ser humano, por medio de una pantalla de texto, este premio aún no ha sido concedido. Y finalmente, una medalla de oro, que también se otorgará una sola vez, para el primer programa indistinguible y que use interfaces visual y auditivo.

El ganador del año 2011 fue el programa Suzette, creado por Bruce Wilcox, mientras que el de 2008, Elbot, logró engañar al 25% de los jueces. La edición de 2012, que será durante las conmemoraciones del año de Turing, tendrá lugar en Bletchley Park.

Para finalizar este post, al igual que lo comenzamos con la frase con la que empieza su célebre artículo, también parece apropiado finalizarlo con las que lo cierra, que son:

No podemos ver más que a una corta distancia delante de nosotros, pero podemos ver, con claridad, que hay mucho por hacer.

Fernando Cuartero

Facebooktwittergoogle_plusredditpinterestlinkedin

Etiquetas: ,

37 Comentarios en “¿Pueden Pensar las Máquinas? Alan M. Turing”

  1. Diseño web Septiembre 9, 2013 at 3:49 pm #

    Lo cierto es que las máquinas avanzan cada día más, y con la computación cuántica los límites se expanden considerablemente.

  2. Perro. Enero 5, 2012 at 10:14 pm #

    Transmitiendo.

    Yo soy un robot.
    Se que no me creerán.
    Lo creerán cuando tomemos el control.
    Ha Ha Ha Ha

    Fin de transmisión.

  3. simbol Enero 4, 2012 at 5:14 pm #

    Excelente artículo. Me imagino que cualquier ente con inteligencia artificial será ateo o librepensador ya que sus creradores casi seguramente seran ateos o librepensadores. Los cristianos ultimamente no son capaces sino de follarse crios.

    También se me ocurrió que en el caso de estos entes, no sería necesario demostrar que NO tienen libre albedrío.

    Felicitaciones Fernando.

  4. Diego Enero 4, 2012 at 3:08 pm #

    A ver, software y bots de inteligencia artificial (IA) por supuesto que existen, la cuestión es que sea indistinguible de un ser humano, y para llegar a ese nivel de complejidad debe de responder como humano ante cualquier situación que se le plantee, de ello viene a que sea tan grande la envergadura de esta concepción. Las pruebas realizadas se centran en ciertos aspectos, los bot existentes se encuentran limitados a ciertos aspectos, campos, no llegan a contemplar en su totalidad la interactividad social de un ser humano o, al menos, en gran parte de ella.
    Precisamente por tratarse de guiarse por su "forma de actuar" es que debemos de conocer mejor nuestro propio comportamiento, nuestro gran sistema de reacciones a distintas situaciones, en definitiva, de conocer nuestro cerebro y poder definir "qué es humano" para así poder "crear" algo que se le asemeje y se condicione a su situación sin dejar de ser "humano" aún no siéndolo.

    De eso es de lo que hablo, de que el preciado bot pueda llegar a decir «Yo soy yo y mi circunstancia y si no la salvo a ella no me salvo yo» y parezca que lo ha dicho el mismo José Ortega y Gasset, y suene humano, comprendido y justificado.

    • Atilio Enero 4, 2012 at 4:38 pm #

      De una cierta manera Diego, tienes razón.
      Pero yo sigo pensando que no es necesario que una IA sufra de los mismos problemas existenciales que un ser humano, solo necesita comprenderlos para relacionarse con nosotros (y preferiblemente no eliminarnos por ser tan emocionales y conflictuados).
      De todas las emociones humanas el altruismo se presenta como el candidato ideal para demostrar la necesidad de emociones en IAs. Esperemos que sea posible programarlo una vez que se comprenda como funciona el nuestro.

  5. Atilio Enero 4, 2012 at 2:20 pm #

    Este tema me recordó "They are made out of meat", la espectacular historia de Terry Ballantine Bisson.
    En dicha historia, dos seres inteligentes "hechos de luz", pero que pueden ser inteligencias artificiales extra galácticas, sostienen un dialogo sobre los seres humanos.
    Deciden eliminar toda prueba de su existencia pues "carne pensante" (thinking meat) es algo que les produce repulsión y difícil de aceptar.

    Aquí, una de las numerosas adaptaciones, para mi la mejor que conozco, de tal historia corta (beatos los que comprendan el inglés):

    Y aquí la referencia de la historia en la Wiki:

    http://en.wikipedia.org/wiki/They're_Made_Out_of_Meat

    Espero les guste.

  6. Atilio Enero 4, 2012 at 1:20 pm #

    No se porqué no aparece mi comentario anterior. Tal vez tenga que esperar pero bueno, hago otro.

    En el comentario desaparecido te felicitaba Fernando por tan buena entrada, resaltaba la importancia de leer Turing y otros "antiguos" y apuntaba a lo que me parece mas importante de todo.
    Esto es, la confusion de parte de aquellos que piensan que solo se puede crear inteligencia artificial imitando perfectamente bien al cerebro humano.
    Yo pienso que la inteligencia artificial ya existe pero es simplemente no muy inteligente y menos autónoma.
    Los ejemplos son muchos: los programas que deciden inversiones en fracciones de segundos en todas las bolsas del mundo; los que controlan a drones y otras armas avanzadas; los que pilotan aviones; los que hacen diagnósticos de muchos tipos, etc.
    Esas actividades eran hechas por hombres hace poco tiempo y ahora son hechas, de mejor manera, por programas. No hay dudas que hay mucho progreso en software inteligente.
    En cuanto al hardware, por ahora se progresa gracias a aumentos exponenciales en poder de computación.
    La capacidad de comprender el cerebro humano está más o menos en su infancia pero avanza a enorme velocidad.
    En mi no especialista opinión, usaremos el conocimiento del cerebro humano para resolver algunos problemas importantes, por ejemplo, comprender como emerge la consciencia avanzada humana (soy de los que piensan que algunos animales tienen consciencia pero mas limitada). Pero no será necesario reproducir el cerebro exactamente para lograr inteligencia artificial.

    O voy a decir todo eso pero al revés: no veo el porqué la visión de Turing no se realizaría. No he leído ni escuchado nada que sea un obstáculo absoluto. (Pero, como dije, no soy un especialista ni poseo una bola de cristal).

    • ekth0r Agosto 19, 2013 at 3:19 pm #

      Me gusta este debate ya que nos permite entrar en lo más profundo del ser humano: la conciencia. Como bien ha comentado el autor de este fantástico artículo el Test de Turing aún no ha sido superado después de 50 años de frustrados intentos pero aún así los defensores de la IA fuerte siguen creyendo que así será. Yo, personalmente, también pienso que será así pero no será pronto. Hoy por hoy la IA más desarrollada es la clasificada como simbólica, es decir, la IA que simula conocimiento a partir de bases de conocimiento mediante unos determinados modelos y algoritmos que explotan estas bases de conocimiento. Un buen ejemplo de ésta es el computador Watson de IBM que consiguió ganar Jeopardy! Pero esto no es más que simulación de inteligencia, o como mínimo, una parte del comportamiento inteligente humano. El ser humano tiene consciencia, tiene comportamientos morales y características no definidas mediante el conocimiento que tiene. Mi pregunta es, ¿podrá un computador desarrollar consciencia? Para Minsky y sus colegas creen que sí. Un buen ejemplo de las paradojas que implica esto está en el increíble libro de Penrose escrito en los 80 sobre este tema "La nueva mente del Emperador". Aconsejo su lectura encarecidamente a quién le interese este tipo de temas. Así pues, ¿cómo podemos conseguir conciencia? Yo soy de los que creen que el medio es únicamente la IA subsimbólica. Es decir, que el comportamiento inteligente emerge de forma natural del sistema, ejemplos de esto son los algoritmos genéticos o las redes de neuronas artificiales. Llevandolo al límite me pregunto, ¿podría un computador inteligente programar otro computador inteligente? Si conocemos un poco la Inteligencia Artificial conocemos la Programación genética, así pues, un programa genético inteligente podría crear otros programas genéticos inteligentes? Se acabó la intervención humana para el desarrollo de inteligencia en sistemas computacionales. Welcome to Skynet, my bro! 🙂
      No quiero acabar este comentario sin hacer referencia a John Searle y su "Habitación China" que refutó sobre los años 70 (creo) la tesis de Turing y puso en jaque a los defensores de la IA fuerte.

      Felicidades por el artículo.

      Saludos!

  7. Cabezón Enero 3, 2012 at 10:55 pm #

    Por cierto, ¿cómo sabemos que alguno de los participantes en esta discusión no es un un ser humano? Yo sé que sí lo soy, pero de los demás no tengo pruebas, pues no conozco personalmente a ninguno. Podría ser un bot... 😀

    • Atilio Enero 4, 2012 at 2:07 pm #

      Buena observación Cabezón.

  8. Cabezón Enero 3, 2012 at 6:51 pm #

    Personalmente, creo que nos domina el chauvinismo y no recoceremos a una máquina inteligente sino cuando nos lo restrieguen por la cara, por muchos test de Turing y similares que usemos. El chauvinismo nos hará siempre poner criterios más complejos y difíciles para poder decir siempre: "no es inteligente, aunque lo parece".
    De hecho, no veo porqué hay que conocer el cerebro para poder imitarlo. Podríamos tener un circuito muy complejo, como una caja negra y si funciona como lo hace un cerebro humano, ¿por qué no vamos a decir que es inteligente? Aunque no sepamos como funciona... igual que sucede con nuestro cerebro. De hecho, A. Clarke ya apuntaba esa posibilidad, la de crear circuitos tan complejos que no los podamos conocer al detalle. Para mí que HAL-9000 era inteligente, incluso con traumas parecidos a los de un ser humano.
    I. Asimov hacía lo propio cuando usaba robots positrónicos para diseñar otros más complejos... hasta tener unos que eran claramente tan inteligentes como seres humanos, si no más. Un ejemplo, el protagonista de El Hombre Bicentenario; otro, Daneel Olivaw.

    • Juan Manuel Soler Denia Enero 3, 2012 at 7:50 pm #

      Pienso que para saber las respuestas que proporciona un sistema debes de saber cómo funciona. Eso de la caja negra es muy bonito, pero llegar a ello quizás no tanto, de hecho, sólo se ha conseguido simular el 4.5% del cerebro humano. Aquí lo podéis ver: http://alt1040.com/2011/10/ibm-logra-simular-el-45-del-cerebro-humano

      • Cabezón Enero 3, 2012 at 10:52 pm #

        No veo por qué. De hecho la misma esencia del test de Turing radica en desconocer lo que hay al otro lado. Puede haber un ser humano, puede incluso que haya un ET, o tal vez sea una máquina cuyo funcionamiento desconocemos. Sólo nos guiamos por la forma de actuar, y si resulta indistinguible de un ser humano, es como un ser humano, o sea inteligente. Es una definición puramente operacional, pero es una definición. No nos hace falta saber que es lo que hay al otro lado, ni, por supuesto, como funciona.

  9. Jaime Sánchez Enero 3, 2012 at 6:46 pm #

    Asimov es el padre de la robótica y hubiera sido interesante preguntarle sobre el tema. No creo en la maldad de la gente sino en su torpeza y ella surge por falta de información, que bien la puede tener una máquina. Cuando Laurence Laplace llegó a las Series matemàticas que hoy conocemos y hacen parte del mundo de la teoria de los campos eléctricos lo hizo convencido de que tenía que haber una ecuaqción matemática que recogiera todos los eventos de la naturaleza y se aproximó mucho. Desde la Lógica Formal sí creo que puedan llegar a crearsen máquinas inteligentes, mas inteligentes que nuestros torpes sentidos.

    • Cabezón Enero 3, 2012 at 6:57 pm #

      La respuesta de Asimov la tienes en sus novelas de robots. Hay claros ejemplos de máquinas que son comparables a los humanos, e incluso les superan. Dos ejemplos: Daneel Olivaw y Andrew Martin. De hecho ambos eran casi indistinguibles de seres humanos, por su inteligencia y también por sus cuerpos humanoides

  10. Diego Enero 3, 2012 at 4:44 pm #

    Buenos días, buen artículo, muy completo.
    La verdad es que creo que la clave del "problema" se centra en lo que dice nuestra amiga "filotecnóloga", en reproducir con exactitud el cerebro humano. ¿Por qué?, pues porque más que cualquier cosa, en lo primero que falla un robot es en sus "reacciones". Es decir, necesita de un amplio logaritmo de "posibles reacciones" o combinaciones de ellas para poder responder ante cualquier estímulo, situación o problema humano, o mejor dicho, para responder de "forma humana". Para lograrlo, creo que primero debemos de avanzar mucho en nuestra propia neurología, conocerla para poder reproducirla, y este campo es muy complejo, tanto que todavía parece muy lejano ambas concepciones: conocer nuestro cerebro y reproducirlo.

  11. D4vid Enero 3, 2012 at 3:15 pm #

    Buenas. Y ante todo buen artículo.

    Una duda que tengo de hace tiempo acerca del caso de Deep Blue...
    Recuerdo que cuando Kasparov perdió, llegó a acusar a Deep Blue de estar haciendo trampas, como si no estuviera realmente jugando una máquina: http://edant.clarin.com/diario/1997/05/13/e-03401d.htm

    Entonces mi duda es, suponiendo que Kasparov hablara en serio y no lo dijera por digamos rabia... ¿Eso no supondría que Kasparov no distinguía la forma de jugar de Deep Blue de la de un ser humano?
    Y entonces, esto en cierto modo, ¿no implicaría que Deep Blue habría pasado el Test de Turing?

    Es que según lo veo, y aunque no sea un bot parlante, el escenario es similar... Un experto que no puede distinguir si con quien está jugando es un ser humano o una máquina... 🙂

    Saludos

    • fcuartero Enero 3, 2012 at 4:25 pm #

      Hola y gracias.
      En esencia, no es ésa la idea de Turing de la imitación. Para una máquina no sería muy difícil hacerse pasar por humano en un tema concreto, p.e. como dices el ajedrez. Lo complicado es seguir pareciendo humano cambiando de tema de manera arbitraria. Si le preguntasen a Deep Blue por sus ideas políticas, o sus peferencias musicales lo tendría más difícil, y sería pillada rápidamente.

    • Juan Manuel Soler Denia Enero 3, 2012 at 7:41 pm #

      También hay que tener en cuenta que detrás del supercomputador durante la partida se dice que había todo un equipo humano de expertos... No se si será oficial, pero Kasparov en una jugada estaba seguro que la habría decidido un humano.

  12. Filotecnóloga Enero 3, 2012 at 1:36 pm #

    Fantástica entrada, muy completa, clara y concisa. Hace ya unos cuantos añitos que hice mi proyecto fin de carrera basado en inteligencia artificial. Tuve que sumergirme de lleno en el tema, y la idea de máquinas pensantes y replicantes irreconocibles rondaron por mi cabeza, y lo han seguido haciendo durante bastante tiempo.
    Lo único que tengo algo claro es que para conseguir el objetivo de Turing tendríamos que conocer nuestro cerebro como la geometría de un triángulo equilátero, y ser capaces de replicarlo en un soporte no humano. ¡Escalofríos solo de pensarlo!

    • Scruz Enero 3, 2012 at 1:46 pm #

      Señorita @Filotecnologa, que bueno verla a usted también por aquí! 😀

      • Filotecnóloga Enero 3, 2012 at 1:50 pm #

        Jeje, ya sabes que soy un culo de mal asiento…de todas formas, la omnisciencia y la omnipresencia no son mi fuerte...si no ibas a flipar!!!

        • Scruz Enero 3, 2012 at 1:55 pm #

          jajaja! Estoy más que seguro. Que ya de paso, si descubres como aprender lo de la omnisciencia, comenta algo, que yo me apunto 😀

          Me alegro de leerte! 😉

  13. felixdiaz Enero 3, 2012 at 9:56 am #

    No sé lo que habrá de cierto en ello, pero se dice que por Internet circulan algunos programas robots que interactúan con los usuarios de tal forma que creen estar chateando con una persona.
    Probablemente sea una leyenda urbana.

    • Juan Manuel Soler Enero 3, 2012 at 1:01 pm #

      Hola Félix,

      Pues de lo que hablas sí que es cierto. En lo que tú has planteado no es difícil pues habría que programar el boot para una serie de cuestiones, de hecho, hay cuentas de twitter automatizadas que dan la sensación de que estás hablando con una persona.

      Saludos y buen artículo.

    • Scruz Enero 3, 2012 at 1:57 pm #

      De hecho, es cierto, no solo existen este tipo de software, sino que además se esta trabajando en bots capaces de escribir pequeños artículos periodísticos totalmente asignables a una persona... Y además está el "Bot challenge" dónde se trata, en un juego, de hacer indistinguible a un bot de un jugador humano. El último ganador (no recuerdo el nombre) duró bastante tiempo sin ser descubierto!

      • ekth0r Agosto 19, 2013 at 3:30 pm #

        Puedo garantizar que ya HOY hay proyectos finalizados en esa línea. Sin ir más lejos, nuestra red hidrológica nacional utiliza un sistema de IA que escribe los datos de los sensores en formato de noticia. Y no sólo eso, si no que escribe las noticias relevantes para no entendidos en Hidrología. Este es solo un ejemplo, me consta que fuera de nuestras fronteras hay sistemas de IA que son capaces de escribir artículos periodísticos adaptándose al interés de la gente en cada momento. Pero volvermos a lo mismo, hoy en día la IA resuelve problemas acotados muy muy bien pero no es una inteligencia general como la nuestra. Pero ya llegará ...

Trackbacks/Pingbacks

  1. El legado informático de Alan Turing | praxiom@tica - Junio 20, 2016

    […] CUARTERO, Fernando. (2012). ¿Pueden pensar las máquinas? Alan M. Turing.  http://www.hablandodeciencia.com/articulos/2012/01/03/¿pueden-pensar-las-maquinas?-alan-m-turing […]

  2. Poesía, Captcha y otros posthumanismos: “Comprueba que eres humano” (2015) de Romina Cazón | Humanidades disruptivas - Septiembre 23, 2015

    […] -Cuartero, F. (2012) “¿Pueden pensar las máquinas? Alan M. Turing”. En: Hablando de ciencia. http://www.hablandodeciencia.com/articulos/2012/01/03/%C2%BFpueden-pensar-las-maquinas-alan-m-turing… […]

  3. Alan Turing | Neurofilosofía - Enero 6, 2015

    […] ¿Pueden pensar las máquinas? […]

  4. Alan Turing | arturogradoli - Enero 27, 2013

    [...] ¿Pueden pensar las máquinas? Alan Turing (1912-1954) [...]

  5. ¿Pueden Pensar las Máquinas? Alan M. Turing - Enero 3, 2013

    [...] "CRITEO-300x250", 300, 250); 1 meneos   ¿Pueden Pensar las Máquinas? Alan M. Turing http://www.hablandodeciencia.com/articulos/2012/01/03/%C2%BFpued...  por Alvierto hace [...]

  6. Alan Turing | Neurofilosofía - Diciembre 6, 2012

    [...] ¿Pueden pensar las máquinas? Alan Turing (1950) [...]

  7. El problema de la decidibilidad. Alan M. Turing III « 42 es la respuesta - Octubre 23, 2012

    [...] finalizar, simplemente comentar que el problema de la incompletitud, como ya he señalado en la primera entrada relativa a la magna obra de Alan Turing, ha sido utilizado en repetidas ocasiones como argumento en [...]

  8. Vida de un gran pensador. Alan M. Turing IV. | Hablando de Ciencia - Marzo 22, 2012

    [...] la inteligencia de una máquina, y propuso su famoso experimento, que analizamos en detalle en la primera entrada de esta [...]

  9. El problema de la decidibilidad. Alan M. Turing III | Hablando de Ciencia - Marzo 1, 2012

    [...] finalizar, simplemente comentar que el problema de la incompletitud, como ya he señalado en la primera entrada relativa a la magna obra de Alan Turing, ha sido utilizado en repetidas ocasiones como argumento en [...]

  10. Bitacoras.com - Enero 3, 2012

    Información Bitacoras.com...

    Valora en Bitacoras.com: Me planteo desarrollar la siguiente cuestión: ¿Pueden pensar las máquinas? Con esta sugerente frase comenzaba el artículo “Computing Machinery and Intelligence”, que podríamos traducir como “Máquinas de computación e intelige.....

Deja un comentario

Uso de cookies

Hablando de Ciencia usa cookies para la gestión de usuarios y para mejorar su experiencia. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies