El problema duro de la conciencia
Hay una pregunta que cualquier proyecto sobre digitalizar mentes no puede esquivar y que la mayoría esquiva. La planteó con claridad David Chalmers en 1995 y se conoce como el problema duro de la conciencia (the hard problem of consciousness). En este post intento contártela sin filosofitis.
Los problemas fáciles
Para entender por qué hay un problema duro, primero hay que entender los fáciles. Y “fáciles” aquí no significa que ya estén resueltos, significa que sabemos cómo trabajar en ellos: están en el campo de la neurociencia normal.
- ¿Cómo procesa el cerebro la información sensorial? Trabajo neurocientífico estándar.
- ¿Cómo se integra la información de los distintos sentidos? Estándar.
- ¿Cómo se almacenan los recuerdos? Estándar.
- ¿Cómo se controla la atención? Estándar.
- ¿Cómo decidimos entre alternativas? Estándar.
- ¿Por qué dormimos y soñamos? Estándar.
Todas estas son preguntas inmensas, en muchas de ellas estamos lejos de tener respuesta completa, pero sabemos qué tipo de respuesta cuenta como respuesta: una explicación funcional o causal en términos de mecanismos neurales. Si descubrimos cómo se almacenan los recuerdos, hemos resuelto el problema.
El problema duro
Chalmers señaló que hay otra pregunta que no es de ese tipo:
¿Por qué hay algo que es ser tú, desde dentro? ¿Por qué los procesos físicos del cerebro están acompañados de experiencia subjetiva en absoluto?
Cuando ves el rojo de una rosa, hay actividad neuronal en tu corteza visual. Eso es un hecho objetivo, medible, científico. Pero también hay algo más: hay una cualidad de “rojez”, una experiencia, un cómo se siente ver el rojo. Esa cualidad subjetiva —los filósofos la llaman qualia— es lo que constituye que haya algo que es ser tú.
Aquí está la pregunta dura: ¿por qué la actividad neuronal está acompañada de esta dimensión subjetiva? No solo “qué neuronas se activan cuando ves rojo”, sino “por qué activarse esas neuronas viene con la experiencia interior de la rojez en lugar de pasar a oscuras, sin nadie ahí dentro experimentándolo”.
La diferencia es vertiginosa
Imagina que un día tenemos una neurociencia perfecta. Sabemos exactamente qué neuronas se activan cuando alguien ve rojo, qué neurotransmisores se liberan, qué circuitos integran la información. Tenemos una explicación funcional completa.
Esa explicación, por buena que sea, no contesta la pregunta dura. Sigue siendo posible imaginar coherentemente que esos mismos procesos físicos ocurrieran sin experiencia subjetiva acompañándolos: los filósofos llaman a esa hipótesis “zombi filosófico”, una entidad funcionalmente idéntica a un humano pero sin nada experiencial dentro. Que ese zombi sea coherente como experimento mental sugiere que la conciencia es algo “extra” que no se deduce de la descripción funcional.
Otra vía para verlo: el conocimiento de Mary, otro experimento mental clásico (Frank Jackson, 1982). Mary es una neurocientífica que ha vivido toda su vida en una habitación en blanco y negro pero que conoce todo lo que se puede saber físicamente sobre la visión del color: cada neurona, cada longitud de onda, cada proceso. Un día sale de la habitación y ve una rosa roja por primera vez. ¿Aprende algo nuevo? La intuición dice que sí — aprende qué se siente ver rojo. Si aprende algo nuevo, entonces el conocimiento físico no agotaba toda la realidad de la conciencia.
Por qué esto importa para Evolución 2
Ahora viene la parte incómoda. Imagina que en algún futuro tenemos la tecnología para mapear un cerebro humano completo y simular su funcionamiento en una computadora —el horizonte que el conectoma de la mosca empieza a hacer concebible. La simulación se comporta exactamente como tú: responde igual, decide igual, dice “sí, soy yo, sigo aquí”.
¿Hay algo que es ser esa simulación, desde dentro?
El problema duro dice que no podemos saberlo. La simulación nos dice que tiene experiencias subjetivas, pero también lo diría un zombi filosófico, perfectamente. Desde fuera, las dos opciones son indistinguibles. Desde dentro, no podemos preguntar al “tú original” porque ya no está.
Esto se cruza directamente con el problema de Parfit del que hablé en otro post. Allí la pregunta era: ¿la copia es la misma persona? Aquí la pregunta es aún más básica: ¿hay alguien en la copia, o es solo proceso sin experiencia?
Las posiciones serias sobre esto
No hay consenso. Las opciones razonables son:
1. Funcionalismo fuerte. La conciencia es lo que hace un sistema funcional cuando procesa información de cierta manera. Si la simulación replica funcionalmente al cerebro, replica también la conciencia. El problema duro es un pseudo-problema. Defendido por Daniel Dennett, entre otros.
2. Panpsiquismo. La conciencia es una propiedad fundamental del universo, como la masa o la carga eléctrica. Está, en grados muy distintos, en todo lo que existe. La conciencia humana es una forma muy organizada de algo que también está, mínimamente, en una piedra. Defendido por —sorpresa— el propio Chalmers en sus libros más recientes.
3. Misterianismo. El cerebro humano simplemente no es capaz cognitivamente de entender la conciencia, igual que un perro no puede entender el cálculo diferencial. La pregunta es real pero está fuera de nuestro alcance. Defendido por Colin McGinn.
4. Dualismo. Cuerpo y mente son cosas distintas. La conciencia no es física. La forma moderna y respetable de esta posición —la de Chalmers en sus primeros libros— acepta el dualismo de propiedades: hay propiedades físicas y hay propiedades fenoménicas (las de la experiencia), y estas no se reducen a las primeras.
5. Iluminismo / negacionismo. Lo que llamamos “conciencia subjetiva” es una ilusión generada por procesos cognitivos. No hay realmente “algo que sea ser tú”, solo cerebro funcionando que produce un relato de sí mismo. Defendido por Keith Frankish, entre otros.
Mi posición honesta
No la tengo cerrada. Si me apuras, hoy me siento cómodo con una mezcla de funcionalismo cauto y misterianismo: creo que la conciencia probablemente sí es, en última instancia, algo que emerge de procesos físicos suficientemente complejos —y por tanto, en principio, replicable—; pero no creo que tengamos los instrumentos conceptuales para demostrarlo, ni para diseñar un experimento que distinga entre una simulación con experiencia subjetiva y una sin ella.
Eso me deja en una posición incómoda para Evolución 2: creo que la digitalización mental es probablemente posible en algún sentido relevante, pero no puedo probarlo ni puedo prometer que la copia “sea” tú en el sentido más profundo. Lo más honesto que puedo hacer es nombrar la dificultad y seguir pensando.
Cualquier proyecto que prometa “subir tu mente al cloud” sin haber pasado por el problema duro está vendiendo certezas que la filosofía contemporánea no tiene.
Para seguir leyendo
David Chalmers, The Conscious Mind (1996) y Reality+ (2022). El primero es donde planteó el problema duro a fondo. El segundo es más accesible y aplica el problema duro a las simulaciones, las realidades virtuales y las mentes digitales — directamente relevante para Evolución 2.
Para una crítica desde el funcionalismo, Daniel Dennett, Consciousness Explained (1991). El título es deliberadamente provocador: Dennett sostiene que el problema duro se disuelve cuando entendemos bien los problemas fáciles.
Si te ha interesado, esto conecta directamente con el centro del manifiesto:
Leer el capítulo 4: Copia o continuidad →