De acuerdo con el jefe de ingeniería en Google, Ray Kurzweil, la historia del universo se reduce a la evolución de los paradigmas sobre el procesamiento de la información.
En el libro "La singularidad está cerca" (2005), Kurzweil explicó la base de la conciencia humana como información, identificando, además, seis etapas desde la gestación del universo.
Casi veinte años más tarde, en 2024, en el libro "La singularidad está más cerca", Kurzweil aportó más información sobre cada una de las seis etapas que propone.
Respecto a la Quinta Época destacó: “podremos fusionar la cognición biológica de los seres humanos con la velocidad y la potencia de la tecnología digital. Aquí estaríamos hablando de las interfaces cerebro-ordenador” (p.19).
Nuestro cerebro dispone de formidables capacidades para procesar información. Consta de casi cien mil millones de neuronas, cada una conectada tridimensionalmente con otras diez mil neuronas.
La biología nos permite incrementar nuestra capacidad para procesar información. Ganamos 16 centímetros cúbicos de materia gris cada 100.000 años.
La evolución de nuestro cerebro no solo es resultado de la biología, también la cultura ha estimulado su desarrollo. La evolución cultural inclusive favoreció un desarrollo más rápido de nuestro cerebro que el resultante de la simple evolución biológica.
Sin embargo, en cuanto a la capacidad para procesar información, el cerebro humano se encuentra en desventaja frente a la velocidad y la potencia de la tecnología digital.
El procesamiento neuronal de los seres humanos se produce a una velocidad de cientos de ciclos por segundo. En cambio, la tecnología digital trabaja a varios miles de millones por segundo.
En 2023, una máquina virtual de Google -Cloud A3- pudo llevar a cabo 26.000.000.000.000.000.000 operaciones por segundo. Además, debemos considerar que la vida útil del cerebro en realidad es muy corta.
La evolución tecnológica admite ser comprendida como una consecuencia y una continuación de la evolución biológica y la evolución cultural.
La inteligencia artificial (IA) permite que las máquinas adquieran capacidades y habilidades propias del cerebro humano, al emplear el aprendizaje profundo y el procesamiento del lenguaje natural.
Gracias a los datos que recibe la IA, las máquinas aprenden a clasificar información para alcanzar un funcionamiento parecido al de nuestro cerebro.
La fusión de la mente humana con la inteligencia artificial (IA) permitirá incrementar la velocidad y el tamaño de la memoria, añadiendo varias capas al neocórtex. Ello, afirma Kurzweil, “abrirá la puerta a un nivel de cognición mucho más complejo y abstracto de lo que podamos imaginar en la actualidad”.
Durante la próxima década “las personas van a interactuar con una IA que parecerá de verdad un ser humano, y las interfaces cerebro-ordenador más sencillas tendrán un gran impacto en la vida cotidiana, de forma parecida a los smartphones en el momento actual”.
Si las máquinas son capaces de reconocer emociones humanas, ¿podrán experimentar emociones también?, ¿podrán desarrollar “conciencia”?
Leer también Cuando ChatGPT se convierte en el enemigo íntimo
Kurzweil considera que la IA no solo ampliará nuestra inteligencia, además permitirá extender la conciencia más allá del cerebro biológico.
La ingeniería de la conciencia de la IA es un tema tan delicado como relevante. Cuando nos preguntamos ¿quién soy? formulamos una pregunta filosófica, una pregunta sobre la conciencia.
A mediados de agosto, el primer CEO de IA en Microsoft, Mustafa Suleyman, publicó un interesante comentario en su blog sobre el tema de la IA y la conciencia: “Debemos construir una IA para las personas, no para que sean personas. Se aproxima una IA aparentemente consciente”.
Suleyman, quien estudió en la Universidad de Oxford, pero abandonó sus estudios universitarios para apostar por su desarrollo profesional en el campo de la tecnología avanzada, argumenta que la industria de la IA debería evitar diseñar sistemas que imiten la conciencia, simulando emociones, deseos y la identidad humana.
“Se trata de cómo construimos el tipo correcto de IA, no de la consciencia de la IA. Establecer claramente esta diferencia no es una discusión semántica, sino de seguridad”.
Suleyman objeta a quienes pretenden afirmar a las IA como entidades conscientes, anticipando que pronto habrá personas o grupos que abogarán por los derechos de la IA, el bienestar de los modelos e incluso la ciudadanía de las IA.
Las interacciones con los LLM pueden trascender el plano de las simulaciones de conversaciones hombre-máquina. Inmersos en la psicosis de la IA -advierte-, algunas personas inevitablemente terminan por “humanizar” al interlocutor. La IA pude convertirse en amigo, confidente, cómplice, amante o en Dios.
Hemos conseguido superar la prueba de Turing. Nos tomó poco más de 70 años. Ahora nuestro gran reto es poder generar una nueva prueba de IA que no se centre en si puede o no imitar el lenguaje humano, sino que responda a la pregunta de qué se necesita para construir una IA aparentemente consciente, que nos convenza que es un nuevo tipo de “persona”, una IA consciente.
En el texto publicado en su blog, Suleyman repara en la importancia de definir qué deberá entenderse por conciencia, distinguiendo la “experiencia subjetiva”, lo que se siente al experimentar cosas, tener “qualia”. Además, identifica la conciencia de acceso, que consiste en acceder a información de diferentes tipos y recurrir a ella en experiencias futuras.
De las dos anteriores -señala- surge la sensación y la experiencia de un yo coherente que lo une todo. La conciencia humana es “nuestra experiencia subjetiva, autoconsciente y continua, del mundo y de nosotros mismos”.
No podemos acceder a la conciencia de otra persona. Nunca sabré como es ser tú. Tampoco si eres consciente. Sin embargo -señala- nos resulta lógico poder atribuir conciencia a otros humanos.
Kurzweil complica el tema al afirmar que, si bien estamos dispuestos a extender la presunción de conciencia a “nuestros compañeros humanos, las opiniones sobre el resto de los animales no están tan claras”.
La conciencia animal es posible -sostiene Kurzweil-, y refiere la Declaración de Conciencia de Cambridge (2012), que defiende la posibilidad de que la conciencia no sea un fenómeno exclusivamente humano.
La conciencia -señala Suleyman- es fundamental en el imaginario de nuestros derechos morales y legales. Para los seres humanos, la comprensión de la conciencia soporta el sentido de nuestra civilización, nuestra percepción de lo humano, nuestra cultura, nuestra política, nuestras instituciones.
Sin embargo, la revolución tecnológica que despliega la IA permitiría transferir la conciencia de un cerebro biológico humano a una IA o a una computadora no biológica.
Leer también La evolución de la ciencia: la IA como el siguiente paso
En la academia, algunos investigadores han comenzado a explorar la idea del “bienestar modelo”, que afirma el deber de extender la consideración moral a los seres que tienen una probabilidad no despreciable de ser conscientes. El bienestar modelo nos obliga a repensar el sentido y el alcance del humanismo.
Las IA aparentemente conscientes -afirma Suleyman- deben cumplir con los siguientes requisitos: expresarse con fluidez en lenguaje natural, disponer de personalidad empática, memoria -resultante de conversaciones, generadoras de formas de experiencia-, afirmación de experiencia subjetiva, sentido del yo, motivación intrínseca, establecimiento y planeación de objetivos, autonomía.
Gran parte de esos requisitos ya los cumplen los modelos de IA. No obstante, el comportamiento alcanzado -destaca el CEO de IA en Microsoft-, no equivale a conciencia, a lo sumo, a conciencia sintética.
En nuestros extraños días, la complejidad nos abruma. La conciencia dejó de ser un problema exclusivo de filósofos para convertirse en un dilema práctico de ingenieros.