El terror al determinismo y la paradoja de Newcomb
Esta entrada está pensada para aclararme sobre ciertas cosas que
he tenido que tratar de comprender. Está abierta a quien entienda mejor que yo
el asunto. Trata sobre la teoría de la decisión causal y la divertida paradoja
de Newcomb (NP desde ahora) que Nozick propuso allá por el 1969. Voy a
estructurar la entrada en tres pasos. En el primero explicó a lo bruto en qué
consiste la teoría de la decisión racional. En el segundo, la NP. En el tercero
la variante que a mí me inquieta de la NP. En ningún caso pretendo resolver ni
aportar nada nuevo a la NP: son más de treinta años de discusión; solo quiero
divertirme como cuando aquí escribo sobre películas, desarrollo una ficción o
desnudo algo sobre mi pasado. El blog es heterogéneo y va mutando confirme a mi
estado de ánimo e intereses, por eso aún sobrevive.
Podría entenderse esta entrada como una continuación de otra
anterior que llamé El informe de la minoría, pues ambas son pantanosas, remiten en cierta medida a la
causalidad y plantean una paradoja.
La teoría de la decisión
racional
Entre las tareas filosóficas que se han tratado de sacar adelante
durante el siglo xx se encuentra la de comprender y formalizar los procesos que
nos llevan a realizar una acción que suponga tener que elegir en contextos de
incertidumbre. Es bastante corriente que debamos realizar acciones sin que
sepamos exactamente cuál va a ser el resultado exacto y debamos recurrir a un
cálculo sobre lo que podría ocurrir si hacemos tal o cual. Lo que las teorías
de la decisión racional plantean, en general, es que una acción es expresión de
la razón cuando hemos tratado de obtener el mejor resultado posible. Siempre
que como agentes decidimos sobre cómo proceder, durante el proceso reflexivo
previo, si optamos por A en lugar de por B es porque tenemos razones
suficientes para creer que ese es el mejor resultado posible, dadas las
circunstancias particulares de cada decisión, entorno, medios, etc.
Estoy en medio del desierto y me muero de sed, pero encuentro dos
botellas con líquido transparente en su interior. Una está etiquetada con la
palabra “agua” y la otra no. En principio y tras realizar alguna prueba parece
más racional elegir la que está etiquetada como agua que la que no para
beberla.
Los ejemplos de las distintas teorías de la decisión racional son
mucho más complejos y dificultosos que el del desierto. Lo importante aquí es
que tengamos en cuenta lo siguiente: Partimos de que los seres humanos nos
diferenciamos del asno de Buridan en que en caso de encontrar dos elecciones con
características similares y posibles resultados parecidos no nos quedamos quietos
sin actuar, sino que acabamos tarde o temprano por elegir. La cuestión es, ¿por
qué elegimos una opción sobre otra? y ¿cuáles son los procesos internos,
racionales, o sustanciales por las que decidimos?
Existen dos teorías, muy parecidas, que tratan de responder a esta
última pregunta. Son la Teoría de la decisión causal (TDC) y la Teoría de la
decisión probatoria (TDP). Hay bastante información sobre ellas en internet (Causal decisión theory y evidential decisión theory). Sus axiomas
–que formalizan los procesos mentales –fueron elaborados por Gibbard y Halper
en el 1981, hace bien poco, cuando nos estábamos preparando para el Mundial
–aunque para mí es toda una vida. Ambas
teorías se asientan sobre el supuesto de que tratamos de predecir el resultado
y así, maximizar los beneficios –del tipo que sean. La TDC predice el resultado
y considera racional una decisión cuando usamos la causalidad para adelantar
qué va a suceder. Lo que se denomina utilidad esperada de la acción depende de
la relación causal entre la acción y el resultado. Por otra parte, la TDP
considera que se elige aquello que se considera que se considera que tiene la
mayor expectativa para un resultado optimo, pero la relación entre acción y
resultado no es causal. En ambos casos, la probabilidad juega un papel
importante, sin embargo en la TDP la relación entre resultado y acción es de probabilidad
condicional (¿Cuál es la probabilidad de que R dada la acción A?), mientras que
en la TDC la relación es contrafactual (si se produce A entonces R sucederá),
presumiblemente de dependencia
contrafactual, pero eso no me queda claro.
Ninguna de las dos acaba de satisfacerme. De hecho, ninguna teoría
que pretenda formalizar la acción en términos de decisiones racionales me acaba
de satisfacer por múltiples motivos. No entiendo porque las emociones no juegan
un papel en las decisiones, por qué sistemáticamente elegimos aquello que
creemos que es inadecuado o cómo es posible que, ya sea personal o subpersonal,
realicemos cálculos tan medidos y complejos cuando tenemos poco tiempo
–pensemos en Cristiano Ronaldo con el balón tratando de meter un gol. Alguien
que decide tomar decisiones contrarias a lo que cree adecuado lo hace no porque exista una variable sobre lo
adecuado, sino porque el conocimiento común sobre cómo funciona algo
determinado de la sociedad le lleva a pensar que actuar contra la sociedad es
más óptimo. Sin embargo, estas objeciones son tristes y van por otro lado sobre
lo que proponen estás teorías sobre la formación de creencias y coherencia en
la acción –que es lo que son en realidad. Posiblemente, la única objeción
válida sea la de cómo podemos formalizar las emociones, o ya que estamos
hablando de epistemología formal, si solo las creencias pueden explicar este
juego entre acción y coherencia o deberíamos recurrir a marcos diferentes (tal
vez hablar de planes, como propone Bratman). Existen muchas más críticas pero
ni las conozco todas ni es el momento de exponerlas.
En cualquier caso, el esfuerzo de todas estas teorías tiene cierto
sentido instrumental. Incluso aunque no nos dijeran nada sobre nosotros los
humanos, han tenido un peso importante en la robótica y la creación de IA.
También es cierto que los que trabajan con IA se han polarizado; muchos de
ellos han abandonado la idea de que replicar agentes racionales consiste en
establecer innumerables códigos para cada situación específica o reglas
generales de aplicación universal. Muchos de los de IA se centran en cómo un
cuerpo adquiere cognición en la interacción con el entorno. Pero, incluso estos
últimos vayan por el buen camino (como así me parece), podemos diseñar máquinas
autónomas que necesiten estos axiomas. Y en nuestro caso, muchas decisiones en
las que tenemos tiempo para la reflexión, parece que las proposiciones
relacionadas con las creencias se formalizan siguiendo en parte estos esquemas.
Lo que me sigue sonando mal y horripilando es pensar que lo
racional tienen que ver con la optimización. Pero en fin, las teorías de la
decisión racional tienen su origen, en muchos casos, en el control racional de
situaciones en las que interviene la suerte, como son los juegos de azar. Y en
un juego, las decisiones siempre se toman para optimizar el resultado, que por
lo general consiste en ganar.
Las cajas de Newcomb
Este es uno de los pantanos del olvido de la filosofía relacionada
con las teorías de la decisión. La paradoja de Newcomb fue descrita por William
Newcomb, matemática estadounidense, pero se popularizó entre la comunidad
filosófica gracias a un artículo de Robert Nozick de 1969 "Newcomb's
Problem and Two Principles of Choice". Aunque su importancia es ahora
menor, aún se sigue discutiendo sobre la paradoja y las implicaciones en las distintas
teorías sobre la decisión. Recuerdo que una decisión no implica necesariamente
una acción, pero según estos principios es lo aquello que nos lleva a actuar.
En otras palabras, lo que aquí está en tela de juicio es cómo se forman
determinadas creencias sobre cómo proceder en una acción para maximizar el
resultado. Lo que las cajas demuestran es que la TDP no es racional pues el
resultado es elegir solo una caja, mientras que la TDC, sea cual sea la
variante, siempre propone una solución racional.
La paradoja de Newcomb polariza la elección tal que como el propio
Nozick señaló, los que deciden una cosa creen que los que eligen otra son
idiotas irracionales. La filosofía busca la gresca más que los moteros de las
películas estadounidenses.
La NP es un juego cooperativo. Aunque en los ejemplos que he leído
no se especifica, entiendo que el dinero que se obtenga se reparte o algo así,
porque sino algo no me cuadra. Sea como sea, es un juego entre un vidente y
otra persona que tiene que elige. Hay dos cajas, A y B. A es transparente y
contiene 1000 euros. B es opaca y puede haber entre cero euros o 1 Millón. La
cantidad de B se fija antes de que el agente decida y depende de lo que el
vidente haya puesto dentro. A su vez, la cantidad depende de su predicción
sobre la acción que el agente va a llevar a cabo. Por tanto las posibilidades
son estas:
Predicción del vidente
|
Elección del agente
|
Recompensa
|
A y B
|
A y B
|
1.000€
|
A y B
|
B
|
0€
|
Solo B
|
A y B
|
$1.001.000€
|
Solo B
|
Solo B
|
$1.000.000€
|
El agente conoce todos estos detalles excepto cuánto dinero puso
en la caja. También sabe que el vidente es casi perfecto en sus predicciones
-.99, por ejemplo. Existe una condición adicional, el vidente pondrá cero euros
si la elección del agente es aleatoria. La pregunta aquí es, ¿qué harías tú?
Por lo general la TDC piensa que lo racional es elegir las dos cajas, ya que pase lo que pase la ganancia será de 1000€. Se
entiende, así, que la predicción del vidente no influye en el contenido de la caja,
pues ésta ya fue fijada. Si el vidente se equivoca nos
llevamos mucho dinero, si acierta siempre podemos pillar 1000 euros. Pero,
según afirman otros, antes de tomar la decisión nos es imposible desestimar que
el vidente casi nunca se equivoca, solo una vez de cada cien, por tanto sabe de
antemano qué vamos a elegir. Aquí es donde la cabeza comienza a doler. No solo
está fija la cantidad de la caja sino que también lo está nuestra decisión.
Así, para los defensores de esta idea, llevarse una sola caja, la B de
Bárcenas, es la decisión adecuada.
Menudo lío.
Yo soy mi propio vidente
Los defensores de la TDC, como casi cualquier estudioso de la
causación, trata de evitar la idea de que en el universo existe la causalidad
inversa o backtracking. Es decir, un evento situado en t2 nunca puede causar un
evento en t1. Siempre y cuando la flecha del tiempo solo apunta hacia una
dirección –dejemos los fenómenos cuánticos de lado, ahora no viene al caso.
Lo que propongo ya ha sido planteado en alguna de las
soluciones a la NP. Además, como veréis, es similar a pensar que el vidente es
absolutamente fiable, solo que con un pequeño giro. Lo que me interesa no es
solucionar la NP, sino la inquietante experiencia de encontrarse en una
situación como la que sigue.
Supongamos que estoy ante A y B y me cuentan todo el sistema de
juego, solo que añaden que yo soy mi propio vidente. Se entiende que yo ya he
colocado una cantidad en la caja B según la decisión que tomaré pues al
terminar el juego me meten en una máquina del tiempo que me lleva hasta un
tiempo anterior a mi decisión ¿Cómo se digiere esto? No se trata solo de algo
relacionado con cómo maximizo mi beneficio, pues si se supone que yo soy el que
vendrá del futuro después de elegir una caja puedo poner la cantidad que
hubiese sido la más adecuada –y aún así es problemático y no resuelve la NP
–sino ¿cómo puedo entender mi libre albedrío? ¿cómo, después de eso, puedo
llegar a pensar que mis decisiones no están determinadas? Si están determinadas
¿cómo pueden llamarse elección? Mi yo futuro pone dinero según lo que haya
elegido, pero lo que elegí en primera estancia ya está determinado por saber
que yo volveré al pasado y que ¡la cantidad es siempre la misma haga lo que
haga! ¡Si vengo del futuro sé lo que elegiré y cuánto dinero había en las caja
B, pero no puedo poner el dinero que quiera porque el resultado futuro (qué elijo)
ya está fijado!
Insisto, si se bucea un poco encontraréis propuestas más
interesantes y mejor contadas sobre esto. Lo que me aterra es que esta
posibilidad se diese. Hay como dos momentos fijos de la existencia que no queda
claro qué ha causado qué. Te sientes como el tipo de Todos vosotros zombis, el relato de Heinlein.
Seguiremos informando.
Post a Comment