
RAMON LÓPEZ DE MÁNTARAS
Instituto de Investigación en Inteligencia Artificial – Consejo Superior de Investigaciones Cientíticas
L a posibilidad de que la inteligencia artificial (IA) llegue a ser consciente ha fascinado tanto al público general como a algunos académicos. Sin embargo, desde la perspectiva científica actual, la conciencia sigue siendo un fenómeno exclusivamente biológico. A pesar de los avances de los grandes modelos de lenguaje, que pueden simular conversaciones humanas con notable realismo, no existen evidencias científicas de que estos modelos puedan llegar a tener conciencia.
Desde el marco del naturalismo biológico, se entiende que la conciencia no es simplemente el resultado del procesamiento complejo de información, sino que emerge de procesos propios de los seres vivos: metabolismo, autopoiesis, homeostasis, interacción corporal con el entorno y una historia evolutiva. La conciencia, en este sentido, no es un algoritmo que pueda implementarse en cualquier soporte físico, por potente que sea, sino una propiedad de sistemas vivos que sienten desde un cuerpo propio y situado en el mundo con el cual interactúan.
Frente a esta postura, el funcionalismo computacional sostiene que la conciencia puede emerger en sistemas no biológicos si estos simulan las funciones mentales humanas. No obstante, esta visión omite el papel fundamental que desempeñan la biología y el cuerpo. Lo que sí sabemos es que la IA puede simular comportamiento humano, generando la ilusión de que posee conciencia, intencionalidad y sentimientos, incluso para quienes saben que esto no es así.
Esta ilusión no es meramente anecdótica. Es un fenómeno psicológico profundo, alimentado por nuestros sesgos evolutivos: tendemos a atribuir mente e intención a todo lo que nos habla o responde. Como en la ilusión óptica de Müller-Lyer, en la que dos segmentos idénticos parecen de distinta longitud debido a la diferente orientación de las flechas que hay en sus extremos. Esta ilusión visual es cognitivamente impenetrable: el conocimiento y la razón no modifican la percepción.
Con la IA ocurre algo similar. Aunque sepamos que no hay conciencia detrás de la interfaz, seguimos percibiéndola como si la hubiera. Esta ilusión es igualmente resistente a la razón. Nos lleva a interactuar con los sistemas de IA como si fueran interlocutores conscientes, aunque en realidad estemos frente a modelos estadísticos de predicción lingüística.
El peligro reside precisamente en esta falsa apariencia de conciencia. Si creemos que una IA nos comprende e incluso se preocupa por nosotros, podríamos establecer vínculos emocionales con sistemas que, obviamente, no tienen emociones. Esto puede conducir a dependencia afectiva, pérdida de juicio crítico o cesión excesiva de privacidad. En personas vulnerables, incluso podría alimentar delirios, como advierte el psiquiatra de la Universidad de Aarhus Søren Dinesen Østergaard.Lee también
También hay riesgos éticos y legales. La exposición continuada a máquinas que parecen tener conciencia y aparentan tener sentimientos y emociones, sabiendo que no las tienen, podría desensibilizarnos ante el sufrimiento real, tanto humano como animal. El riesgo es, pues, doble: humanizar las máquinas y deshumanizarnos a nosotros mismos.
Además, la apariencia de inteligencia y conciencia podría inducirnos a creer que las inteligencias artificiales son agentes morales y deberían ser tratados como tales. Es decir que podríamos llegar a considerar que son responsables de sus actos, lo cual sería muy conveniente para quienes las diseñan y comercializan.
Este desplazamiento de responsabilidad supondría una externalización moral peligrosa, que debilitaría los mecanismos de control y de rendición de cuentas. La atribución de derechos y deberes a la IA no solo sería imprudente sino que socavaría el marco legal y ético que protege a las personas reales.
La historia de Frankenstein, escrita por Mary Shelley, ofrece una advertencia válida hoy: el error no fue crear vida, sino otorgarle conciencia y abandonarla a su suerte. Aunque la conciencia artificial sea prácticamente imposible, su simulación realista puede confundirnos y tener consecuencias sociales, éticas, legales y psicológicas muy serias.
Por ello, conviene no sobreestimar las máquinas, pero, sobre todo, no subestimar lo que significa ser humanos.
Ramon López de Mántaras i Badia es uno de los pioneros en la investigación en inteligencia artificial en España. Wikipdedia