Tip:
Highlight text to annotate it
X
Empezaré planteándoles una cuestión muy profunda e importante.
¿Qué piensan del queso azul?
Muchos de Uds. tienen una opinión firme en un sentido o en otro.
Me gustaría que pensaran en alguien que no compartiera su opinión sobre el queso azul
y consideraran si les gustaría tener a esa persona
como vecino,
como amigo íntimo,
o como pareja sentimental.
Recuerden este sentimiento.
Aquí viene otro tema controvertido:
aborto.
¿Debería ser legal o ilegal?
Piensen en su propia opinión y ahora
díganme si les gustaría tener a alguien
que no comparte su opinión sobre el aborto
como vecino,
como buen amigo o pareja sentimental.
La pregunta que les acabo de hacer
está adaptada de la investigación de Linda Skitka
de la Universidad de Illinois.
Su investigación ha demostrado que hay algo especial en las actitudes morales,
como la oposición al aborto,
en comparación con las actitudes no morales, como sus gustos sobre el queso azul.
Y tal como esperan,
el desacuerdo en cuestiones morales
daña mucho más las relaciones sociales
que los desacuerdos en cuestiones no morales.
Y es por eso que un amante del queso azul sería perfectamente feliz
haciéndose amigo, casándose y teniendo hijos con una persona que odie el queso azul
pero hay extremistas antiabortistas
que piensan que es justificable
matar a otro ser humano
solamente por estar en desacuerdo con ellos.
Tenemos que resolver esto
porque actualmente vivimos en un mundo donde los extremistas,
movidos por sus convicciones morales,
pueden hacer mucho daño.
Podemos empezar preguntándonos cómo sabemos qués es correcto y qué no.
Y, de hecho, esta pregunta ni siquiera tiene sentido para muchos de nosotros
porque la gente tiende a pensar en las creencias morales
como si fueran hechos objetivos sobre el mundo.
Tenemos pruebas de ello
gracias a la investigación de Geoffrey Goodwin y sus colegas
de la Universidad de Pensilvania.
Presentó a los sujetos de estudio una serie de afirmaciones en las siguientes categorías:
Hechos, como "Boston se encuentra más al norte que Los Ángeles";
cuestiones éticas, como "abrir fuego en una calle concurrida de la ciudad está mal";
normas, como "ir en pijama a una charla de TED no es adecuado";
y gustos, como "la música clásica es mejor que el rock".
Para cada una de estas afirmaciones, el sujeto debía contestar
sí o no a la siguiente pregunta:
"¿Tiene esta afirmación una respuesta objetivamente correcta?"
Y esto es lo que descubrieron: como es lógico,
las personas pensaban firmemente que los hechos tenían respuestas correctas, pero los gustos no.
Pero se dieron cuenta de que las afirmaciones éticas
se parecían más a los hechos que a los gustos.
Y vemos esta coincidencia entre hechos y valores también en nuestro cerebro.
Sam Harris y sus colegas escanearon el cerebro de varias personas
mientras evaluaban su veracidad
de afirmaciones factuales, afirmaciones éticas
y afirmaciones religiosas.
Descubrieron que en una región cerebral llamada córtex prefrontal medial, mostrada aquí,
estaba más activa cuando la gente creía que las afirmaciones
eran más ciertas que falsas,
pero, más importante, esta región no diferenciaba
entre las diferentes categorías de creencias.
Así que las creencias matemáticas, como 2+2 = 4
mostraban un patrón de actividad similar
que las creencias éticas, como
"Está mal conseguir placer a través del sufrimiento de otro".
El resultado de todo esto es que pensamos
que hay una respuesta correcta a las preguntas morales.
Y ahí está el problema.
Si tú y yo estamos en desacuerdo
y ambos podemos tener razón,
bueno, seguramente sea yo quien tiene razón.
Mis hechos ganan a los tuyos.
Por tanto, tienes que ser estúpido o irrazonable.
Claro que este tipo de lenguaje es demasiado común en política estos días.
Pero hay una importante y peligrosa diferencia
entre estar en desacuerdo en los hechos
y estar en desacuerdo en los valores morales.
Porque vean, si piensan que 1 +1 = 3,
yo podría pensar de ti que eres tonto o un poco raro.
Pero si tú y yo estamos en desacuerdos en cuestiones morales,
no solo pensaré que eres estúpido e irrazonable,
sino también una mala persona,
incluso que no eres humano.
Los valores son como un hecho con esteroides.
Tienen emociones muy fuertes unidos a ellos.
Y, desafortunadamente, estas emociones vienen, a menudo,
unidas a una motivación de dañar o eliminar la otra psotura.
Y eso es un gran problema.
Porque mientras aceptamos de buena gana
que los gustos y opiniones pueden cambiar,
los hechos son los hechos.
Yo tengo los míos y tú tienes los tuyos.
Y estamos ambos tan comprometidos con esas realidades
que es inútil esperar que uno de los dos
cambie nunca.
Imaginen intentar convencer a alguien daltónico
que estos dos círculos son de diferentes colores.
No hay nada que se puedas decir para convencer a esa persona
para que vea el mundo como lo ves tú.
Y lo mismo pasa, desafortunadamente,
con las diferencias en opiniones morales.
Los valores parecen hechos
y los hechos son propiedades inmutables de la realidad.
¿Y ahora qué?
Quise entender cómo y por qué
estamos tan unidos a nuestras convicciones morales,
yo incluida.
Soy neurocientífica, así que, naturalmente,
empecé trasteando en los cerebros de la gente.
Y descubrí que nuestros valores morales
son menos estables de lo que parecen.
¿Qué pasaría si les dijera que una pastilla podría cambiar
nuestro juicio sobre lo que está bien y mal?
¿Y si les contara que nuestro sentido de la justicia
podría depender, en parte, de lo que hayamos desayunado hoy?
Probablemente pensarán que
parece cosa de ciencia ficción, ¿no?
Las neuronas usan unas sustancias químicas llamadas neurotransmisores para comunicarse.
Aquí hay dos neuronas. El espacio entre ambas se llama sinapsis.
Para transmitir un mensaje a través de la sinapsis,
una neurona debe liberar neurotransmisores en la sinapsis
donde se unen a los receptores del otro lado
y propagan el mensaje.
Nuestro cerebro produce y libera estas sustancias
como respuesta a diversas situaciones.
Mis colegas y yo queríamos saber
si manipulando los neurotransmisores de las personas
podíamos cambiar la manera en que la gente responde a situaciones morales.
En un estudio, presentamos a nuestros sujetos
una serie de dilemas morales como el siguiente:
Un tranvía fuera de control se dirige
hacia cinco trabajadores de las vías
que morirán si no haces nada.
Sin embargo, puedes
parar el tranvía empujando a un hombre,
el cual lleva un pesado maletín, a las vías.
Él morirá, pero los otros cinco se salvarán.
La pregunta es: ¿Es moralmente aceptable
dañar a una persona para salvar a los otros?
Por supuesto, no hay una respuesta objetiva correcta para esta pregunta,
pero hay dos escuelas de pensamiento moral
que tienen distintas opiniones.
La escuela utilitaria, basada en el trabajo del filósofo David Hume,
juzga el mérito de las acciones
basado en el resultado que consiguen.
Así que las acciones moralmente apropiadas son aquellas que suponen un bien para la mayoría.
Por otro lado, la escuela deontológica, basada en el trabajo del filósofo Immanuel Kant,
juzga las acciones por sí solas.
Por tanto, hay acciones correctas e incorrectas, y los resultados son irrelevantes.
En el ejemplo que les acabo de describir,
los utilitaristas dirían que es apropiado
empujar al hombre a las vías
porque al final se salvan más vidas,
mientras que los deontologistas dirían que es inapropiado
porque dañar a alguien está mal.
Mis colegas y yo pedimos a 30 personas
que juzgaran si eran correctos o no dilemas morales
como el que les he descrito.
Y queríamos saber si utilizando
una sustancia química específica denominada serotonina
podría cambiar los juicios morales de las personas.
Usamos un medicamento llamado inhibidor de recaptación de serotonina selectiva, o SRRI,
similar al antidepresivo Prozac,
y estos medicamentos actúan, básicamente, aumentando
la actividad de la serotonina en el cerebro.
En una sesión nuestros voluntarios contestaron
y juzgaron dilemas morales
bajo los efectos del SSRI
y en otra sesión juzgaron dilemas morales
bajo los efectos de un placebo.
Esto es lo que descubrimos: con el placebo, nuestros voluntarios decían
que era inapropiado dañar a uno para salvar a muchos otros
en un 40% de los casos que les presentamos.
Pero cuando les dimos el SSRI,
eran significativamente menos propensos a decir
que era aceptable dañar a alguien para salvar a muchos.
Tómense un segundo para pensar en estos resultados.
El debate entre los utilitaristas y los deontologistas
se viene librando desde cientos de años.
Y con una pastilla
y sin ni siquiera saberlo,
las personas cambian la respuesta a esta cuestión
sobre si está bien dañar a alguien para salvar a otros tantos.
¿Podría la diferencia entre Hume y Kant
reducirse a un par de sustancias químicas en el cerebro?
Y, ya más seriamente,
¿cuáles son las implicaciones de esto en otras cuestiones éticas?
Siguiendo esta idea, mis colegas y yo quisimos saber
si cambiar los niveles de serotonina podría influir en cómo
la gente responde a ser tratada injustamente.
Usamos un juego de economía
llamado el juego del ultimátum.
Hay dos jugadores, el proponente y el respondedor.
El proponente sugiere una manera de dividir
una suma de dinero con el respondedor.
Y el respondedor puede aceptar,
en cuyo caso ambos jugadores se llevarían su parte del dinero,
o puede rechazarlo,
en cuyo caso ninguno de los jugadores se lleva nada de dinero.
Muchos estudios muestran que los respondedores
generalmente rechazarán una oferta
que perciban como injusta.
Lo que tiene sentido. Creo que muchos de nosotros
estaríamos dispuestos a no ganar una suma de dinero
para castigar a alguien que nos ha tratado injustamente.
La pregunta es: ¿Podemos cambiar
las respuestas de las personas a la injusticia
mediante cambios en sus niveles de serotonina?
Lo hicimos manipulando la dieta de las personas.
Así que conseguimos el ingrediente puro de la serotonina.
Se llama triptófano y es un aminoácido.
Debemos reponer constantemente nuestro suministro de triptófano
comiendo alimentos ricos en proteínas.
En el laboratorio podemos bajar los niveles de serotonina de sus cerebros
dándoles un batido de proteínas en el que no haya triptófano.
Y a los del tratamiento de placebo de control
les dimos un batido de proteínas de sabor y apariencia igual.
La única diferencia es que este contenía
2,5 gramos de triptófano.
Así que dimos estas bebidas a nuestros voluntarios
y les hicimos jugar al juego del ultimátum
en el rol de respondedor.
Medimos el índice de rechazos por ofertas injustas, medias o justas.
Y estos son los datos del placebo.
Como pueden ver, las personas rechazan muchas ofertas injustas
y aceptan casi todas las ofertas de 50/50,
pero con niveles de serotonina más bajos,
el índice de rechazos aumenta en las ofertas injustas.
Así que tómense otro segundo y consideren estos resultados.
La única diferencia entre el placebo y las condiciones de reducción
son 2,5 gramos de triptófano en la dieta.
Nada más. Nuestros voluntarios no sintieron ninguna diferencia
entre ambos tratamientos,
ni notaron cambios en su comportamiento.
y aún así, la sutil diferencia en la dieta
fue suficiente para cambiar la cantidad de dinero
que la gente estaba dispuesta a perder
para castigar a alguien que les había tratado injustamente.
En estos experimentos manipulamos artificialmente
los niveles de serotonina de las personas,
pero en el mundo real,
estos niveles fluctúan de forma natural
como respuesta a cambios en cosas como la dieta o los niveles de estrés.
Lo que significa que nuestros valores morales
probablemente varían un poco todo el tiempo
sin ni siquiera darnos cuenta.
Y tenemos algunas pruebas de que pasa
en el mundo real.
Shai Danzinger y sus colegas observaron las decisiones de los jueces
sobre si conceder o no la libertad provisional a los presos.
Aquí, en el eje vertical tenemos la proporción
de casos en los que se concedieron,
y abajo, básicamente la hora del día,
el orden en el que los casos se presentaron.
Estas líneas de puntos verticales de aquí
son los descansos para comer de los jueces.
Si se da el caso de que tienes que pedir la libertad condicional,
en general,
es más probable que te la concedan
si tu vista tiene lugar después de que el juez haya comido algo.
Es un gran efecto y sucede incluso aunque controles otros factores importantes,
como si es una reincidencia
o si el preso ha estado en un programa de rehabilitación.
Espero que esto les preocupe, aunque sea un poquito.
Y ahora más en serio,
espero que les haya convencido
de que nuestros valores morales son menos estables
de lo que parecen.
Y esto es importante porque resulta que
simplemente creer
que nuestros valores morales pueden cambiar,
todo lo contrario a que sean fijos,
puede tener importantes efectos en nuestra disposición
a comprometernos y cooperar con los demás.
El conflicto de Israel y Palestina es uno de los mayores
enfrentamientos ideológicos de nuestro tiempo.
Y con miles de muertos de ambas partes como resultado,
un gran coste en la calidad de vida.
Eran Halperin, Carol Dweck y sus colegas han informado recientemente
que las creencias de si los grupos tienen naturaleza cambiante en contra de una naturaleza fija,
pueden influir las actitudes recíprocas de israelíes y palestinos
y su disposición a comprometerse por la paz.
En su experimento, asignaron aleatoriamente
a israelíes y palestinos a leer uno de estos dos artículos.
Uno sugería que los grupos agresivos tienen una naturaleza fija
y el otro insinuaba que los grupos agresivos tienen una naturaleza cambiante.
Aquellos que leyeron el artículo sobre los grupos cambiantes
estaban más dispuestos a reunirse con la otra parte y escuchar su punto de vista,
y más inclinados a negociar y comprometerse
en cuestiones como el estado de Jerusalén
y acuerdos sobre Cisjordania.
Lo que esto significa es que
si podemos hacernos a la idea
de que nuestros valores morales no son fijos, que pueden cambiar,
estaremos más predispuestos a escuchar al otro.
Y aquí viene una idea un poco loca.
Si los medicamentos pueden variar nuestros valores morales,
¿qué tal si los negociadores pusieran sobre la mesa un par de potenciadores morales
antes de la reunión?
Esta intervención podría facilitar
a los oponentes a ver el punto de vista del otro.
Por supuesto, todavía queda un largo camino que recorrer
antes de entender completamente qué neurotransmisores
dan forma a qué tipos de creencias éticas.
Pero creo que es plausible que algún día tengamos el conocimiento suficiente
para identificar las preferencias conducidas por sistemas cerebrales
para los principios éticos conflictivos.
Mientras creamos
que los valores morales son sólidos,
continuaremos invirtiendo nuestros recursos
en luchar entre nosotros
antes que en buscar un término medio.
En vez de eso, ¿no podríamos cultivar
un sano escepticismo sobre nuestro propio sentido del bien y del mal?
Porque, como ya saben, una vez aceptemos
que nuestros valores pueden cambiar
debido a factores fuera de nuestro conocimiento y control,
quizás no nos sintamos tan unidos a ellos.
Cuanto antes dejemos ir este sentimiento de unión,
mejor, porque tenemos algunos problemas bastante feos
amenazando a nuestra supervivencia colectiva.
Pero no los arreglamos porque
estamos demasiado enfrascados en pelearnos.
Así que, solo espero que un día podamos darnos cuenta de que
estamos nadando en este océano de odio y miedo
y eso afecta a nuestra humanidad común
y a las maravillosas cosas que podemos conseguir
si dejamos a un lado nuestras diferencias y juntamos nuestras cabezas y corazones.
Es tiempo de despertar. Gracias.
(Aplausos)