[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[escepticos] ***Data (era: Inteligencia Artificial)



El 04/10/2001 a las 23:05, chasque <biru2001 en ono.com> dijo, en su mensaje
"[escepticos] Inteligencia Artificial":


> cibernesto escribió:
>> [E] Uf... depende. A lo mejor ellos *quieren* funcionar de acuerdo a la
>> programación. La consciencia no es la única clave del asunto ¿no? Si no
>> tienes unos deseos o unos objetivos en los que basar tus decisiones
>> "libres", por mucho que seas consciente...De todas maneras, fabricar un
>> robot inteligente y consciente para después endiñarle un programa que lo
>> controle es una gran pérdida de recursos. Se supone que los haríamos para
>> que fueran autosuficientes y con iniciativas propias.
>> 

> [AV]
> Bueno al hilo de la pelicula , intuyo que se conseguira la "inteligencia
> artificial" cuando dotemos a los oredenadores de emociones. Un "centro 
> del dolor y el placer", no hay nada mejor para la autoconciencia que
> ese.

En todo este debate me viene a la mente un personaje bastante conocido, al
menos para los trekkers: Data. No puedo dejar de pensar en él, porque lo han
hecho participar en una serie de situaciones interesantes. Comparto con la
corrala algunas preguntas parcialmente retóricas, quien tenga ganas que cuele
sus comentarios.

En principio, Data ha sido pensado como bastante singular. Su "padre" es un
creador bastante excéntrico que, luego de mucho trabajo pero superando sus
propias expectativas, consiguió crear un cerebro artificial suficientemente
avanzado como para ser autoconsciente. ¿O sólo para simularlo con la
suficiente eficacia como para pasar el Test de Turing? He ahí la primera duda
que se me ocurre.

Luego resulta que tiene un "hermano", Lore; básicamente, un androide idéntico
a él, pero "con emociones", sea eso lo que fuere. ¿Cómo será una emoción
artificial? Se sabe que reside en un chip especial que Data no tiene pero Lore
sí, y que también contiene recuerdos y experiencias; y poco más. ¿Cómo podemos
saber si no es sólo una imitación de emociones, convincente para el androide,
quizá, pero nada más?

Por otro lado, se produce una situación en la que, dada la singularidad del
androide, un especialista en cibernética de la Flota Estelar quiere llevárselo
como una pieza de maquinaria, desarmarlo (con riesgo de que pierda sus
experiencias) y estudiarlo. Esto desata un juicio por la autodeterminación del
androide. Esta pregunta sí es más concreta: si dispusiéramos de autómatas
suficientemente avanzados como para conducirse como miembros útiles de la
sociedad (incluso si no sabemos si son entidades autoconscientes o no),
¿debería otorgárseles plenitud de derechos o, como mínimo, la posibilidad de
autodeterminación? ¿Cómo establecer algo como eso? Ya ni siquiera estamos
hablando de replicantes basados en genes cercanos a los humanos (cfr. "Blade
Runner"), sino de máquinas. ¿Cómo establecer sus derechos?

Como detalle final, Data sueña. Su programación contiene subrutinas que
combinan elementos aleatorios de las imágenes que ve o contiene almacenadas, y
generan sueños. A la luz de lo que se sabe del sueño de los animales (de lo
que yo sé poco y nada), parece haber una función en los sueños con imágenes,
aunque no sepamos cuál. ¿Le añadiría algo a un androide que está construyendo
una personalidad disponer de este tipo de mecanismos?

Bueno, dejo de molestar. Si alguien quiere comentar algo sobre esto, será
bienvenido :-)

-- 
Escépticamente,
                    o-=< Marcelo >=-o

cacanostra. Cacatúa mafiosa.