Es interesante el tema de la confianza, dado que confiar en otros agentes se produce con la esperanza de cooperar con ellos. Si no cooperan, pese a que nosotros lo hayamos hecho, aparece la desconfianza.
Ante esta elección de interacción: confiar o no confiar, generalmente nos dejamos llevar por experiencias previas y/o prejuicios (tanto en positivo como en negativo), y no debería ser así.
Hace años, cuando empezaba a estudiar Algoritmos Genéticos, un libro (The Evolution of Cooperation, Robert Axelrod, 1984), planteaba el diseño de una competición de algoritmos de interacción en el problema del "Dilema del prisionero iterativo". La idea consistía en disponer una población de algoritmos de interacción (agentes) que iban a relacionarse entre sí para cooperar o delatar a otros agentes, de forma que iban acumulando puntos según las reglas del dilema del prisionero:
Matriz---Cooperar/Desertar
Cooperar...3, 3 /-5, 5
Desertar...5, -5/-1, -1
(a- si ambos cooperan, ambos ganan 3, b-si uno coopera y otro delata, el delator gana 5 y el cooperador pierde -5, c- si ambos delatan, ambos pierden -1)
Pasada una ronda de interacciones entre una población de agentes de forma que interaccionan con todos los demás y acumulan puntos de tales interacciones, se pasa a una ronda de reproducción, en la que los agentes con mayor puntuación acumulada tienen mayor éxito reproductivo (la clave del Algoritmo Genético). Tras varias generaciones de agentes interactuantes, la última generación estará plagada de agentes que tienden a mantener un buen nivel de puntuación.
Axelrod propuso una especie de competición científica abierta, para que cada investigador enviara su diseño de agente de interacción, de forma que el experimento introdujo múltiples diseños de agentes de interacción provenientes de todo el mundo. En esa competición hubo de todo, desde algoritmos de interacción extremadamente complejos que tenían en cuenta interacciones pasadas y hacían estimaciones probabilísticas de los resultados de la interacción, hasta algoritmos realmente simplones como el "toma y daca" (ojo por ojo).
Lo más curioso es que un algoritmo extremadamente sencillo ganaba siempre en todas las competiciones que se llevaron a cabo, y tiene tres simples reglas:
1- Ante un nuevo agente desconocido (no conocemos experiencias previas, ni existen referencias conocidas) la primera regla es cooperar (confiar).
2- Ante un agente con el que se interacciona por segunda vez, si NO cooperó en la primera, NUNCA jamás se volverá a cooperar con él.
3- Ante un agente con el que se interacciona por segunda vez, que sí cooperó en la primera, el proceso a seguir es ojo por ojo, es decir, coopero si la última vez cooperó, y delato si la última vez delató.
Parece casi absurdo, pero este simple conjunto de reglas batió consistentemente a todos los agentes propuestos por sesudos investigadores con intrincados conjuntos de reglas de interacción.
La traducción en términos de confianza es, inicialmente confía (salvo que lo que se ponga en juego es tu vida o todo tu capital, que entonces es para pensárselo), si te defraudan esa primera vez, NUNCA vuelvas a confiar en ese agente (persona, producto, empresa...), y sí no defraudó, aplica el "toma y daca" de ahí en adelante cada vez que interactues con ese agente.