Los ordenadores, ¿piensan?
El domingo lo sabremos. Seguro. Seis ordenadores intentarán demostrar que pueden pensar como los seres humanos. La noticia la daba ayer Libertad Digital, según la cual el test de Turign, publicado por el matemático en 1950, consiste en colocar un ordenador y un humano ocultos tras una mapara, con el objetivo de que los dos defiendan su condición de seres humanos, para lo que también pueden mentir.
Un voluntario, que ejerce el papel de juez, se sitúa al otro lado, y, comunicandose con ambos por medio de un teclado y una pantalla, debe averiguar cual de los dos es el ser humano y cual es la máquina.
Si en cinco minutos el juez es incapaz de distinguir las respuestas del ordenador de las del ser humano, entonces la computadora ha pasado la prueba y puede decirse que “piensa". En la universidad de Reading ocurrirá este experimento.
Esta competición está galardonada con medalla y cien mil dólares. En 1987 el campeón mundial de ajedrez Kasparov fue vencido por un ordenador de IBM. Si ahora ocurriera igual el asunto generaría preguntas de gran calado como la posibilidad de que los ordenadores tengan conciencia y, de ser así, la autoridad moral de un humano para “desenchufarlo".
El Sínodo de los Obispos, en Roma, está estudiando la Palabra de Dios en la vida del cristiano. El libro del Génesis explica que el aliento de Dios sobre el hombre sacado del barro le hizo a “su imagen y semejanza". La inteligencia del hombre crea máquinas capaces de competir con su propia capacidad mental.
Sin entrar en la ciencia ficción, la memoria artificial demostrada cientificamente está más cerca. El domingo lo veremos. Todo esto si el mundo económico consigue que todo el tinglado bancario universal no se vaya por el sumidero y volvamos a las cavernas.
Nota: Gracias a todos los que hayan rezado por Teresa. Falleció anoche. Mañana a las 11 es el entierro.
Tomás de la Torre Lendínez
8 comentarios
Que alguien programe a un ordenador para que "parezca" que piense no significa que la computadora posea conciencia y por tanto hecho moral... seamos serios.
Si ni tan siquiera hoy día nuestra ciencia sabe como el cerebro enjendra la mente (y por tanto nuestra propia consciencia está cientificamente inexplicada), ¿como podemos dar esa consciencia a una computadora?.
Desde que tengo uso de razón se ha dicho que los ordenadores tendrían consciencia cuando jugaran al ajedrez, luego dijeron que cuando resolvieran ecuaciones... supongo que a medida que se incrementa la potencia de cálculo podemos resolver mayores problemas, pero un ordenador no es más que eso... potencia de cálculo.
Quizás algunos hombres somos tan tontos que creemos que lo único necesario para crear una "consciencia" sean transistores y condensadores, puede que haga falta "algo más".
Los interfaces texto-habla/habla texto y habla-habla experimentaron un gran avance con la aparición de las redes neuronales o perceptrones.
Se crearon como modelos de funcionamiento del cerebro humano. Se les ha encontrado utilidad práctica por medio de la experimentación pura y dura. Todavía no existe un modelo matemático que explique satisfactoriamente el funcionamiento de la "memoria" del perceptrón. Por eso no se sabe muy bien cómo construirlos y su diseño es más bien empírico por medio del sistema de ensayo-y-error.
A la red neuronal (un programa informático) se le somete a una serie automatizada de entradas (por medio de otro programa informático). Produce una serie aleatoria de resultados. Cuando los resultados no son correctos, se le indica de forma automática (por medio de otro programa informático más) que los descarte. Cuando los resultados son correctos, se le indica de forma automática (por medio de este último programa informático) que los anote. Así, después de un tiempo de "aprendizaje" el programa (perdón, la "red neural") establece de forma automática unas relaciones probabilísticas entre las entradas que se le proporcionan y las salidas que se le indican como aceptables. Así se logra que el programa (perdón, la "red neural") pueda dar las respuestas deseadas según la entrada recibida sin tener que programar explícitamente, una a una, todas las reglas que regularían el proceso.
Este sistema es muy útil allí donde el conjunto de reglas es demasiado extenso (del orden de decenas de millares de reglas) o el conocimiento del dominio a automatizar es demasiado caótico como para programarlas explícitamente una a una. Tal es el caso del reconocimiento fonético del habla usado en los sistemas speech-to-speech de muchas centrales de reserva de billetes y de los sistemas de previsión de evolución de valores en bolsa. Veamos el primer caso.
A los rasgos fonéticos universales descritos por Jakobson y Halle hay que añadir su participación en el sistema fonológico del hablante de un idioma en concreto. A ello hay que añadir el dialecto y el idiolecto del hablante, su actuación lingüística, su entorno sonoro, las condiciones de transmisión de la línea telefónica y toda una serie de factores relativos a la forma de codificación de la señal en los sistemas digitales de transmisión de la señal. Todos estos factores producen una "explosión" combinatoria de reglas que hay que descubrir y aplicar jerárquicamente. Los que han acometido semejante tarea, como AT&T, han obtenido peores resultados a un mayor coste que aquellos que han usado los perceptrones. Por eso ahora AT&T también usa los perceptrones.
El aprendizaje estadístico por retropropagación es más un arte que una ciencia. Aunque existen modelos matemáticos que describen su funcionamiento probabilístico, no existen modelos matemáticos que explique por qué, a veces, el proceso de "aprendizaje" fracasa. Se trata del llamado "olvido catastrófico". El perceptrón no sólo deja de "aprender", sino que "olvida" lo que ya había "aprendido". Es algo que tiene que ver con el número de nodos, los niveles de su estructura reticular, la cantidad de información que se le da a "aprender" y la forma o el orden en el que se le "enseña". No se sabe exactamente cuál es la causa de semejante fenómeno. Hay que "reiniciar" el perceptrón y el proceso de "aprendizaje", cambiando las pautas de "enseñanza".
Uno de los perceptrones más comunes es el de Kohonen. Está dotados de varias "capas" o niveles de nodos que se conectan entre sí dinámicamente según "pesos" probabilísticos que se van estableciendo y regulando según se le indica al programa (perdón, a la "red neural") si su respuesta a la entrada resulta aceptable o no.
Me parece del todo excesivo que alguien pueda sugerir que un programa que relaciona probabilísticamente entradas con salidas pueda "pensar" de alguna forma.
Como dice don José Antonio Marina Torres en su "Teoría de la inteligencia creadora" (Madrid: Anagrama, 1993, p.17 -que, por cierto, es el único libro suyo que me gusta):
"Allen Newell, uno de los patriarcas de la inteligencia artificial, ha publicado recientemente un libro titulado "Unified Theories of Cognition", que ha sido unánimemente elogiado por la comunidad científica. Considera que la función de la inteligencia es relacionar dos sistemas independientes: el de los conocimientos y el de las metas. Cuando resuelve un problema, la inteligencia utiliza conocimientos para conseguir un fin, que es la solución. ¿Por qué me parece errónea esta idea tan sensata? ¿Por qué me parece tan peligrosa? Porque excluye de la inteligencia dos de sus funciones esenciales -crear información e inventar fines-, y la enclaustra en una actividad puramente instrumental."
No se puede definir qué es conocimiento o información sin definir cuáles son las metas o fines. Ésa definición de metas o fines es una tarea estrictamente humana que condiciona todas las demás. Algunos filósofos identifican esa capacidad de definir nuevas metas o fines desligados del entorno habitual o de supervivencia como el indicio de la existencia de una mente/cerebro consciente de sí misma.
Pensar quiere decir "pensar en". Y "pensar en" supone la existencia de metas o fines desligados de la pura superviencia. Metas o fines que ni son instintivos ni están programados por nadie. La existencia de esas metas o fines supone la consciencia de la propia existencia. Supone el modo de ser del ser humano. El modo de ser que le diferencia de los animales y de esos sistemas de procesamiento automatizado de símbolos a los que llamamos "inteligencia artificial".
Si alguien está interesado en profundizar más en el tema, puede acudir aquí:
http://es.wikipedia.org/wiki/Red_neuronal_artificial
Gracias también a ti, Tomás, por poner sobre la mesa un tema del que seguiremos oyendo por décadas, creo yo, y quizás no exagero al pensar que será de las discusiones dominantes en el presente siglo XXI.
Mi opinión es que el centro del experimento no ha sido comentado aquí, sin embargo.Lo esencial del experimento es el Test de Turing, y creo que es de ahí de dónde pueden surgir las cuestiones más interesantes. Por ejemplo, me atrevo a preguntar yo a los que por aquí pasen:
Si fueras tú quien tiene esos 5 minutos para averiguar si quien te contesta es un ordenador o es una persona, ¿qué preguntas le harías?
Semejante inicio de conversación puede ser gestionado por cualquiera que no sea un ordenador.
Yo que preguntas haría para averiguarlo... muy sencillo, simplemente empezando a contar una historia, un cuento, mi interlocutor tendría que seguir el cuento, luego sería mi turno, así varios "turnos" de construir una línea argumental de tal manera que al final mi interlocutor le diera un final a esa historia...
En cualquier caso Alan Turing, que fue el matemático que diseño este experimento falleció en 1954, creo que si el mismo levantara la cabeza, "fliparía" en colores de lo que es la informática... tengamos en cuenta que para el una computadora era una máquina de válvulas que ocupaba todo un edificio y consumía la electridad de una ciudad pequeña... y todo con una potencia de cálculo inferior a una calculadora ciéntifica de hoy día... creo que el mismo modificaría ese experimento.
Por cierto, no he dicho nada... que Dios acoja a Teresita y reconforte a su familia.
Los comentarios están cerrados para esta publicación.