miércoles, 16 de mayo de 2007

Capítulo 4

4. Recuerdo y aprendizaje: la memoria como entorno del pensamiento .
  • Dominios semánticamente ricos .
  • Comprensión y representación .
  • Aprendizaje .
  • Procesos de descubrimiento .
  • Conclusión .

2 comentarios:

Anónimo dijo...

Para mí el tema clave aquí es la representación. Cuando Simon dice (p 122) “Un sistema que simule la cognición humana puede construirse con…” podemos decir que también 'puede construirse' con otros tipos de representaciones (conexionista, autómatas celulares, etc) y cada enfoque nos dirá algo.

Simon esquematiza (p 129) que “Todo esfuerzo de resolución de problemas debe comenzar creando la representación del problema: un espacio del problema donde se pueda llevar a cabo una búsqueda de la solución” y creo yo que es el caso que gran parte del comportamiento del ser humano (o al menos el tipo de comportamiento que a mí me interesaría modelar) no es determinado por representaciones explícitas, estructuradas, bien definidas. El punto sería ¿cómo diseñamos sistemas que trabajen con representaciones ambiguas, emergentes, incompletas, variantes? Hay algunos enfoques existentes pero hasta donde entiendo es una pregunta abierta.

Seis observaciones de Winograd y Flores (Heidegger) sobre tu situación que retomo para la discusión de qué tipos de sistemas artificiales podemos crear que las aborden:
1. You cannot avoid acting
2. You cannot step back and reflect on your actions
3. The effects of actions cannot be predicted
4. You do not have a stable representation of the situation
5. Every representation is an interpretation
6. Language is action
Referencia: Winograd, T y Flores, F: 1986, Understanding Computers and Cognition, Addison-Wesley, Reading MA.


A la pregunta “Can computers do more than you tell them to do?” yo diría que no, pero eso es irrelevante. Lo interesante (para mí) es que las computadoras pueden mostrarnos lo que realmente les estamos diciendo que hagan, gran parte de lo cual a menudo no estamos completamente seguros de qué es.

Anónimo dijo...

Recomiendo la lectura del siguiente artículo reciente (2006) y corto (3pp) de Terry Winograd:

Terry Winograd, Shifting viewpoints: Artificial intelligence and human–computer interaction, Artificial Intelligence 170 (2006) 1256–1258

Disponible en su sitio: en la U de Stanford.

Dos puntos clave:

1. La diferenciación que hace entre los enfoques que llama "racionalistas" y "de diseño", más o menos el primero en referencia a Newell y Simon (GOFAI) y el segundo un conjunto de distintos tipos que me recuerdan el interaccionismo de Philip E. Agre, autor de textos muy relevantes incluyendo Computation and Human Experience.

2. La propuesta concreta del programa de investigación "en forma de T" que considero ampliamente oportuno y necesario para el trabajo en la DCCD.