[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[escepticos] Re: [escepticos] Re: [escepticos] Logorrea, verbocracia, hipersecreción...



Hello Goyo,


G> ----- Original Message -----
G> From: "tei" <421621 en ingta.unizar.es>
G> To: "Goyo" <escepticos en ccdis.dis.ulpgc.es>
G> Sent: Tuesday, June 11, 2002 9:51 PM
G> Subject: [escepticos] Re: [escepticos] Re: [escepticos] Logorrea,
G> verbocracia, hipersecreción...

G>> No la has construido inteligente, pero se comporta como si fuera
G> inteligente
G>> (pasa la prueba). ¿Entonces piensas que el comportamiento no basta para
G>> caracterizar la inteligencia?

>> tal como he definido el dispositivo no aprende
>> tampoco resuelve problemas nuevos, si se le plantearan

G> Tal parece que el problema aquí es que la prueba no es muy completa, si es
G> que un dispositivo así la pasa. Supongo que Turing se refería a un test más
G> sofisticado que sí evaluaría cosas como éstas.

seguramente y me da miedo, porque no podemos dar buenas conclusiones
de principios que fueran falsos, es decir, a mi se me da muy mal
pensar muy bien, para hacerlo sin estos fallos.

[tei]


>> Un animal, es un ser; un
>> hombre es un animal; una maquina, es un objeto.. de momento como una
>> palanca, instrumentos de agentes que si tienes intereses y voluntades.

G> A mí también me parece que los hombres y algunos animales tienen intereses y
G> voluntades. Pero me lo parece por su comportamiento. Si una máquina se
G> comportara de tal modo que también pareciera tenerlos...

>> Para construir, que se puede, una maquina que fuera una entidad
>> deberiamos ir mas halla de simularle sentimientos, deseos, voluntades,
>> etc.. para que realmente las padeciera.

G> Difícil empeño, porque en general no parece posible distinguir entre
G> sentimientos "reales" o "simulados". Al menos a mí no se me ocurre cómo.


un tamagochi, es un programa que imita una mascota muy simple. Cambios
de humor, ciclo sueño/actividad, apetito, sed, etc..

¿como sabe la niña que dentro de la cajita no hay una mascota de
verdad? Quizas en lugar de un caro circuito han incluido un pequeño
bonsai-kitten  tonto y de ideas repetitivas.

cuando se me ocurra te lo comentare.

[tei]


>> Intento
>> desligar esto de un misticismo de un "oh que bonita es la vida", "oh
>> que bonita es la consciencia", he intento describirlo como un
>> informatico que anula todas las alternativas que se podrian programar
>> para simular mejor la inteligencia, y dejando lo que no es simularla,
>> sino obtenerla

G> Creo que no te ha salido muy bien. Hasta ahora, la diferencia entre
G> inteligencia real y simulada parece bastante mística.

>> (es largo, porque puedo pensar en muchas cosas para
>> simularla, y en casi ninguna para crearla).

G> O tal vez es una especie de petición de principio: supones que hay alguna
G> diferencia pero no sabes cómo distinguir.

>> ahora el problema es mas facil.. ¿que diferencia hay entre la cosa en
>> si, y una simulacion de ella?.

G> ¡Pero si el problema difícil es éste!

>> me parece que puede ser que las simulaciones tratan de imitar los
>> resultados y apariencias de lo que la cosa realmente es.

G> Pareces suponer que la inteligencia es "realmente" algo más que resultados y
G> apariencias. Me pregunto qué, porque yo sólo conozco de ella resultados y
G> apariencias.

hmm....
tienes razon.

(le he dado mil vueltas, pero no veo forma de darle la vuelta a lo que
dices)

[tei]

>> aparentemente me sale como resultado que los pereceptrones o algo por
>> el estilo valdra para formar maquinas inteligentes.

G> ¿Como resultado de qué? Los perceptrones se construyen normalmente con el
G> objetivo de que se comporten de cierta manera. Nada en ellos indica si su
G> comportamiento es verdaderamente inteligente o sólo lo parece.

supuesto un perceptron que atraviesa una habitacion llena de ostaculos

pues si no lo construimos para ser inteligentes, sino que los
construimos para premiar que lo sean y los dejamos evolucionar llegara
un momento (eventualmente) en que solucionaran el problema simple que
le imponemos. Al menos aqui nosotros no hemos simulado el algoritmo
para solucionar el problema, y de echo no sabemos "como piensa" y
soluciona el problema el perceptron, ademas que "el ha pensado el
algoritmo" o lo que sea que usa para cruzar la habitacion, quizas no
es ningun algoritmo, sino un esquema como de musculos, que entran en
accion segun una secuencia, dentro de una red compleja (y  no es que
se le diferencia mucho). La cantidad de inteligencia que posee la
criatura, es la de la dificultad del problema que ha resuelto por el
mismo.

hmmm... quizas deberiamos medir la inteligencia de las personas,
basandonos en la inteligencia del hombre mas tonto como base :D
¿Habra algo como programas ya preparado en el cerebro del niño? como
redes de solucion a respuestas, redes genericas que solucionan
problemas genericos. Claro que el cerebro humano implementa la
abstraccion, que es la bomba atomica de la inteligencia, y que permite
experimentar las cosas mentalmente sin tener que intentarlo con las
manos o con el cuerpo.

:/

[tei]


>> si quieres una inteligencia que no sea ciega, que sepa lo que esta
>> haciendo, deberia valorar lo que ha echo o puede hacer dentro de un
>> contexto mas grande que el problema. Como yo uno "sabe lo que hace, y
>> , le importa", creo que eso significa que este "mentalmente viva" y no
>> sea una emulacion de "saber" e "importar"

G> Pero no sólo no sé como lograrlo, es que incluso si lo lograra no tendría
G> medio de saberlo. ¿Cómo puedo yo saber si mi sofisticado, bien entrenado y
G> aparentemente inteligente perceptrón "sabe lo que hace y le importa" o sólo
G> lo parece? Entonces, ¿tiene sentido el problema?
G> Saludos
G> Goyo

Y si... el problema es que hay dos formas de ser consciente de algo,
quizas una forma animal, como la rana que sabe que esta en el barro,
porque esta fresquito y oscuro, o como el hombre que sabe que esta en
la charca, porque tiene una idea abstracta "charca" y lo que percibe
encaja en el modelo.
Me es muy dificil percibir como seria la consciencia de una rana, muy
urgente, inmediata, hace lo que piensa (o al menos lo intenta, como
cuando salta y tropieza). Pero una rana no es muy inteligente. ¿Que
problemas soluciona una rana? hay demasiadas cosas que en una rana las
debe de manejar el instinto, como un ejercito con mucha tactica, pero
poca estrategia.

bueno, me has puesto un mail lleno de preguntas que no he sabido
responder. :D  Lo cual tampoco quiere decir que me rinda,... Algo me
repugna a aceptar una simulacion de inteligencia, de algo
inteligentemente que no sea por sus efectos. A lo mejor esta la clave
ahi, que algo de verdad inteligente puede hacer mas y mejor (mas
original, mas avanzado...) que una simple emulacion... pero una clave
asi no es util.

venga.

[tei]