Lo que sigue es un reto que le
planteo a mi amigo Rafa Yáñez, ingeniero informático. Le propongo debatir en
profundidad (al menos en la que yo sea capaz de alcanzar) sobre la inteligencia
artificial.
La pregunta objeto de debate
sería:
¿El ser humano
logrará crear en el futuro un ente inteligente?
Mi respuesta, lo
adelanto, es un no rotundo.
Es un debate apasionante, qué
duda cabe, pero muy complejo. Primero convendría acordar con Rafa unas cuantas
premisas:
¿Qué es la inteligencia? Etimológicamente
la palabra “inteligencia” se refiere a la capacidad de elegir entre distintas
opciones. Esto implica que hablamos de
una cualidad gracias a la cual un ente – en este caso artificial - se relaciona con su entorno, y en este
trasvase de información escoge, de entre distintas respuestas o acciones, la
que resulte más eficaz o eficiente. La respuesta no será siempre la misma, ni
está preconfigurada. Donde hay inteligencia hay variedad.
¿A qué inteligencia nos
referimos? Este punto es importante. Existen dos tipos de Inteligencia
Artificial: la IA fuerte y la débil.
En mi opinión, el debate debería
centrarse en la IA fuerte. La IA débil es una realidad incuestionable, muy útil
en la resolución de problemas y con unas posibilidades prácticas indudables. Ya
hay máquinas capaces de emular las capacidades intelectivas humanas en
determinadas tareas, siempre muy concretas. IBM inventó una máquina capaz de
vencer al ajedrez, y podemos diseñar una máquina que haga por nosotros las
tareas de cálculo complejas que implica, por ejemplo, decodificar las
secuencias del genoma humano. Pero estas máquinas tienen dos limitaciones; se
dedican únicamente a las tareas para las que están programadas y, en todo caso,
no son capaces de saltarse los algoritmos que son la base de su lógica, creando
motu proprio algoritmos, pautas de actuación o procesos lógicos nuevos. No
son creativas ni plantean hipótesis.
Las inteligencias de la IA débil
son lo que hemos diseñado que sean. Potentes pero limitadas, porque sólo hacen aquello
que están diseñadas para hacer. No son inteligentes, tan solo son eficaces
porque tienen una enorme capacidad de cálculo y, gracias a los últimos avances
en programación y hardware, pueden no repetir errores y aprender de ellos.
La IA fuerte, por el contrario,
aspira a crear un ente capaz de pensar por si mismo, más allá de su potencia de
cálculo o de su capacidad de almacenamiento. Actúa no sobre ámbitos concretos
de la realidad (una partida de ajedrez o el diagnóstico de una enfermedad sobre
la base de unos síntomas), sino sobre la generalidad de retos que plantea constantemente
la realidad. Debe tomar decisiones que, en ocasiones, tendrán incluso
consecuencias de índole ética.
Pero, y éste es el tercer punto a
tratar, ello no implica que debamos pensar en la IA fuerte como una
inteligencia equiparable o similar a la inteligencia humana
¿La Inteligencia Artificial debe
ser igual que la humana? Desde mediados del siglo pasado hemos especulado
con la posibilidad de crear entes equivalentes a los humanos, hasta el punto de
hacerlos indistinguibles de nosotros. La inteligencia HALL 9000 de la novela
2001 Una Odisea en el Espacio hablaba, razonaba e incluso sentía como un humano
cualquiera; al final, manifiesta el miedo a dejar de existir, lo que implica
conciencia. Data, el androide de la nave Enterprise, entabla un juicio para que
se le reconozca públicamente su identidad y derechos como individuo
cognoscente.
Esta inteligencia similar a la
humana ha demostrado, por el momento, ser una absoluta quimera.
Sin embargo, por simplificar lo
que estamos buscando, hay facetas de la psique humana de las que una máquina
podría prescindir; por ejemplo, la sensibilidad estética o las emociones. El
estudio de la IA fuerte debe huir de todo antropocentrismo. La IA fuerte podría
razonar o actuar de manera muy distinta a los seres humanos, y no por ello ser
menos inteligente. En definitiva, la IA fuerte no tiene por qué ser similar a
la humana.
¿Es necesario que La IA fuerte
esté viva? No es fácil contestar a esta pregunta, porque nuestra
inteligencia es, de hecho, un constructo de la vida, la obra más elaborada de
la evolución natural. Pero si nos fijamos en los tres elementos definitorios de
un ser vivo, la inteligencia artificial fuerte cumple con dos: debe ser una
singularidad, un individuo con una identidad diferenciada y, segundo, debe
relacionarse con su entorno. Sin embargo la IA no tiene la compulsión de
generar descendencia, de replicarse. Por consiguiente, no creemos que sea
necesario que esté viva.
¿Es necesario que perciba
sensaciones? Sin duda, la respuesta en este caso es sí. La IA no se explica
sin un abanico lo más amplio posible de sensores que le faciliten un contacto
auditivo, visual, electromagnético o de cualquier otro tipo, una red de
estímulos que le permita percibir el entorno por sí misma. Para responder a la
realidad e interactuar con ella, para superar la prueba de la inteligencia, la
IA debe disponer de ojos y oídos, o sensores digitales equivalentes. Debe saber
qué se le requiere y un contexto en el que se posiciona. La IA fuerte existe
porque participa y aporta respuestas. No puede ser autista. No puede no
contestar.
¿Es necesario que hable? Definitivamente,
no. No hace falta un HALL 9.000; los delfines o chimpancés son entes dotados de
una inteligencia considerable (aunque diferente e inferior a la humana), y no
hablan. Pero ambas especies interactúan con el entorno y se comunican con sus
semejantes. Toda relación implica comunicación. Hablar, no. Comunicarse, sí.
¿Es necesario que sea consciente?
Posiblemente es la pregunta más difícil de contestar. Defensores de la IA
fuerte como Ray Kurzweil consideran que en un primer momento no son necesarias
las capacidades espirituales de la mente humana (como la consciencia). Estas
capacidades son fruto de la evolución y surgen espontáneamente en una entidad
que tiene la capacidad de pensar. Sólo es cuestión de tiempo.
En todo caso, la individualidad y
la capacidad de reflexionar conducen casi inexorablemente a la autopercepción
y, en consecuencia, a la consciencia. Una máquina que interacciona y responde a
su entorno tiene conciencia (conocimiento) de sus propios límites, distingue
entre el “yo” y “los demás”. Se sabe existente (que no viva). Y, posiblemente,
única. Todo esto implica que no habrá una máquina inteligente igual a otra, del
mismo modo que todo ser humano es un ente único e irrepetible. Si se dan
cuenta, este hecho nos obliga a abordar cuestiones que interesan a la ética
¿Tiene derechos una máquina con IA fuerte? ¿Se debe proteger su dignidad? ¿La
máquina se preocupará por su propia supervivencia?
¿Qué consecuencias tendría la
IA fuerte? Todo lo anterior, el análisis de lo que se denomina
“singularidad”, implica el riesgo de que las máquinas evolucionen por sí mismas
hasta superar en inteligencia a los humanos, en una carrera exponencial hacia
la excelencia y el predominio inexorable de la máquina sobre el hombre.
Yo no creo en este funesto
augurio, porque no creo que jamás llegue a existir un ente consciente e
inteligente creado por el hombre. Esta creencia la fundamento en dos motivos:
1. La inteligencia humana es fruto de la evolución natural, con
miles de millones de años de experimentación. El cerebro, su obra más acabada,
es de tal complejidad que no es viable intentar siquiera construir prototipos
que emulen su eficacia y potencia. Intentamos ganarle una carrera a un F1 trabajando
con el diseño de una bicicleta sin motor.
2. La inteligencia no tiene un fundamento únicamente físico. El
pensamiento es un fenómeno que, en esencia, desconocemos por lo complejo que
resulta. No podemos emular lo que no podemos entender. El uso de la lógica o
los algoritmos, la computación, tan solo se asoman a la superficie del reino de
la intuición y la conciencia, de la reflexión y los sentimientos. Pretendemos
enfrentar a un Fernando Alonso entrenado contra un niño de dos años que no sabe
siquiera pedalear.
En definitiva, hay una enorme
diferencia en diseño (Hardware) y programación (software). O, en
términos utilizados por los ingenieros informáticos, hay un enfoque “de abajo
arriba” en el que se intenta simular la estructura del cerebro (con redes
neuronales u ordenadores cuánticos); y un enfoque “de arriba abajo” en el que
se pretende crear programas que simulen la cognición (como los sistemas
expertos o la inteligencia artificial evolutiva)
Analizaremos ambos enfoques por
separado:
A.
Hardware
¿Qué es una computadora? Una
máquina que recibe unos datos a través de dispositivos de entrada, los procesa
por medio de un soporte lógico en forma de lenguaje de programación y los
convierte en información, que es enviada a los dispositivos de salida para ser
almacenada, impresa, transmitida a otro dispositivo, etc. El trabajo lo realizan
una o varias unidades centrales de procesamiento (CPU) situadas en un circuito
integrado: el microprocesador. El cerebro de la bestia.
Pero conviene que nos fijemos en
lo más básico. Los microprocesadores están formados por uno o varios CPU, que a
su vez están formados por transistores, algo así como la unidad básica de todo
este complejo entramado digital. El secreto del transistor es que está hecho de
un elemento llamado silicio, que tiene una característica interesante: 8
electrones en su última capa (capa de Valencia). Este elemento, con una capa
exterior estable (por una cuestión de física cuántica, la regla del octeto, que
no vamos a detallar,) es poco conductor y no le gusta mezclarse ni relacionarse
con nadie. Pero si se lo contamina y se le quita o añade un electrón, se altera
y vuelve semiconductor, con la peculiaridad de que en la búsqueda del
equilibrio genera una corriente direccional que además implica una ganancia
(amplificación). Situado en una oblea (lámina) de silicio diez veces más finas
que un pelo humano, en un circuito impreso con miles de transistores iguales, el
tamaño de cada transistor apenas si llega al ancho equivalente a 200
electrones.
Para entendernos; usted se compra
un portátil con el microprocesador AMD Ryzen de última generación. Pues bien,
el microprocesador de su portátil, diminuto, cuenta con 4.800 millones de
transistores. Alucinante.
Para que entiendan la complejidad
de un microprocesador, les pondré un ejemplo que les sorprenderá. China, con
sus 2.000 millones de habitantes y su enorme desarrollo industrial, tiene dos
problemas importantes que dificultan su desarrollo: primero, no tiene reservas
propias de energía. China tiene que importar todo el petróleo y el gas que
mantiene en marcha su producción. Con tanta población y la mayor industria del
planeta, imaginarán la cantidad ingente de dinero que el gobierno Chino gasta
en petróleo. Sin embargo, curiosamente, hay algo en lo que China tiene que
invertir mucho más dinero: la compra de microprocesadores a EEUU, Japón o Corea.
La friolera de 200.000 millones de euros al año. Y preguntarán ¿por qué China
no fabrica sus propios microchips? Lo están intentando, y lo conseguirán, pero les
representa un enorme esfuerzo. Es una tecnología tan avanzada que está al
alcance de unos pocos países punteros. Simplemente, por el momento no saben
hacerlo a un nivel que les permita la producción en masa y ser autosuficientes.
Gordon E. Moore, cofundador de
Intel, postuló la Ley que lleva su nombre, la Ley de Moore. Según Moore cada
18-24 meses se duplica el número de transistores de un microprocesador. Cada
vez son más pequeños. Sin embargo, como veremos al hablar de entropía y
disipación de calor, parece que estamos alcanzando límites a este proceso.
Tengo noticias de al menos dos
microprocesadores chinos: el Loongson y el ShenWei; y de un microprocesador de
última generación, el Sunwai, desarrollado por Jiāngnán Computing Lab en la
ciudad de Wuxi. En esta ciudad se encuentra el supercomputador más potente del
mundo, el Sunway TaihuLight, que tiene 40.960 procesadores sunwai y es capaz de
realizar un trillón de operaciones por segundo ¿Han oído hablar de la guerra
comercial entre China y EEUU y los problemas derivados del robo de patentes?
Los norteamericanos no quieren que China les copie y deje de comprarles
tecnología. Porque China sólo es capaz de producir el 10% de los microchips que
necesita. Invierte grandes cantidades de dinero para mejorar su I+D; pero sigue
muy lejos de los americanos o los japoneses.
Sigamos: además de la enorme
capacidad de los microprocesadores, tenemos una realidad complejísima que se
denomina big data: una ingente cantidad de información e interconexiones
de los ordenadores en todo el mundo, con los terminales funcionando en red a
través de entornos conexionistas del llamado “Deep Learning”. Las cifras son
mareantes; calculamos que todo el conocimiento humano desde la prehistoria
hasta el 2003 cabe en 5 exabytes. Pues bien; en el 2018 el planeta produce 5
exabytes de información en tan solo 48 horas.
Sin embargo parece haber un
problema: la miniaturización parece tener un límite (lo que comentamos sobre la
Ley de Moore) y la subida de las frecuencias de reloj de las computadoras no
crecen al ritmo esperado, exponencialmente. Parece haber un límite debido a la
segunda Ley de la Termodinámica y el borrado de información.
Mejor lo explico con un ejemplo.
En el año 1997 el ajedrecista
Kaspárov se enfrento a un supercomputador de IBM, Deeper Blue, una
máquina capaz de calcular 200 millones de movimientos por segundo. No sin
polémica, la computadora ganó la partida.
Los ingenieros de IBM se
enfrentaron a un serio problema. Durante la partida los microprocesadores de Deeper
Blue, en los momentos más intensos de cálculo frenético, se recalentaban a
unos niveles difíciles de controlar.
Es un problema conocido en el
mundo de los superordenadores. En ocasiones se tienen que utilizar elementos
como hielo seco, nitrógeno líquido o helio líquido, con temperaturas cercanas
al cero absoluto. Sólo así el microprocesador de silicio puede alcanzar su
límite físico, que se calcula en 10 GHz de velocidad. En el superordenador ETH,
que se está construyendo en Suiza, se reciclará parte del calor que genere la
máquina para calentar las habitaciones de la universidad donde se encuentra.
La energía necesaria para disipar
tanto calor se calcula en unos 250Kw extra.
Vuelvo a la partida de ajedrez
entre el humano y la máquina. A un científico se le ocurrió la idea de
monitorizar las constantes de Kaspárov durante la partida. Mientras Deeper
Blue ardía, la temperatura corporal del humano no subió ni medio grado. En
términos exclusivamente de eficiencia energética, el cerebro era un Ferrari y
el supercomputador un tractor averiado.
¿Por qué?
Como ya he dicho, el problema
radica en la segunda ley de la termodinámica: la entropía. Sin entrar en muchas
profundidades, la física cuántica ha demostrado que el simple uso de
información no representa un gasto energético, o es indetectable. Por eso
Kaspárov no se veía afectado. Pero Deeper Blue no solo manejaba
información; fundamentalmente se dedicaba a borrarla. Y la información, según
las últimas teorías en física teórica, tiene una virtualidad similar a la
materia o la energía. Por tanto, eliminar información del universo implica un alto
coste (Ley de Conservación de la Energía).
Si tu eliminas información a
razón de 200 millones de jugadas por segundo, lo haces para rechazar los
movimientos que entrañan un peligro. El ordenador necesita hacer los cálculos
uno a uno, a una velocidad de vértigo. Cuanta más jugadas rechace, más se acerca
a un movimiento idóneo, más “ordenado”. Es decir: lo que hace es bajar la
entropía, el desorden. Pero como debe haber un equilibrio termodinámico, la
física exige que en el universo se produzca una reacción contraria de aumento
de entropía. Y esto se manifiesta en forma de calor.
Insisto: borrar información tiene
un coste energético altísimo. Y por ello la capacidad de cálculo (de borrado)
de un microprocesador parece tener un límite.
Pero ¿Qué hay dentro del cráneo
de Kaspárov que le permita superar esta limitación? Para que lo entiendan, en
el 2005 se realizó un experimento con un superordenador. Por medio de complejos
algoritmos consiguieron simular lo que sería (lo que se supone que sería) un
único segundo de pensamiento primordial en el cerebro de un recién nacido.
El superordenador necesitó procesar
información durante 50 días a pleno rendimiento para realizar lo que un recién
nacido hace en un segundo.
Insisto: ¿Cómo se explica algo
así? ¿Qué es el cerebro, el hardware de la inteligencia humana? ¿De qué está
hecho? ¿Qué capacidad tiene?
Por decirlo de una vez: el
cerebro sapiens es la organización de materia más compleja que existe en el
universo. Al menos del universo que conocemos. Ni más, ni menos.
Pongamos un ejemplo: el cerebro
de Rafa, mi amigo interlocutor. Apenas un kilo y medio (suponemos) de una masa
blancuzca y gelatinosa, llena de surcos en su superficie y en la que se
distinguen claramente dos hemisferios (esperamos). Deeper Blue es mucho
más espectacular, a menos a simple vista. Pero escudriñemos el cerebro de
nuestro ingeniero informático con un microscopio.
Hay una maraña indescifrable de
fibras nerviosas, de conexiones y núcleos celulares, ramificaciones más o menos
densas, pequeñas como una célula o tan largas que viajan de un extremo a otro
del cerebro. 100.000 millones de neuronas.
Detengámonos aquí. Lo del número
de neuronas es algo que todo el mundo sabe. Pero ¿sabían que hay distintos
tipos de neuronas? Algunas tienen forma de repollo, otras de árbol, las hay con
forma de raíz… ¿Cuántos tipos de neuronas hay en el cerebro de Rafa?
Sorpréndanse: ni la más remota idea.
Por ahora se han catalogado unos
50 tipos de neuronas, pero los neurólogos creen que deben ser cientos, sino
miles. La mayoría de las neuronas ni las conocemos. Y es importante, porque la
forma determina la función. No conocemos en detalle ni tan siquiera la forma de
los ladrillos que dan fundamento a nuestro órgano más importante, el que nos
dota de inteligencia.
El otro asunto que dificulta el
estudio del cerebro es el de las conexiones. Cada una de las neuronas está
conectada a unas mil; hablamos de una red de unos 100 billones de conexiones. Vamos
a cortar un cubito de cerebro de Rafa; apenas un milímetro cuadrado. Hay mil
millones de conexiones en algo tan pequeño, algunas tan diminutas que cuesta
verlas.
Si el genoma humano contiene unos
30.000 genes, casi dos terceras partes se dedican al diseño y mantenimiento de
esta red. En el seno materno, el feto crea unas 250.000 neuronas por minuto.
Son datos que dan idea de la complejidad del reto de emular al cerebro.
¿Les parece complicado? Pues solo
acabamos de comenzar. Las redes neuronales forman áreas funcionales que se
ocupan de realizar una determinada tarea. Por el momento se han distinguido más
de 150 áreas, pero podría haber muchas más. Además, en ocasiones hay áreas
redundantes, y otras cuya activación no acaba de comprenderse. En una función
concreta se detecta la activación de distintas áreas, algunas de las cuales
también se activan para otras funciones. Es un verdadero galimatías, en el que
el ovillo de axones que recorren el cerebro, a veces de parte a parte, tiene
una longitud total de unos 150.000 millones de kilómetros.
Es mucho “cable” como para
seguirle la pista. Y todo encerrado en un cráneo de apenas 1.500 cm3.
Hasta ahora el hardware humano es
impresionante; pero todos los números y datos no convierten al cerebro en un
milagro. Podríamos afrontar el reto de intentar hacer un cálculo de las
combinaciones posibles, teniendo además en cuenta que los neurotransmisores
encargados de transmitir la señal son más de 50 – que sepamos -, cada uno con
una función, o que las conexiones (sinapsis) entre las neuronas no siempre son
iguales: hay neuronas – la mayoría - que
no se tocan, que transmiten la información salvando un espacio vacío entre las
dentritas (terminaciones). Pero en ocasiones las neuronas sí se tocan
directamente. No sabemos la razón de esta diferencia.
Son muchos inconvenientes los que
se suman, sin embargo podríamos intentar introducir todas las variables e
intentar esbozar un mapa.
Pero esta tarea titánica sería
inútil.
Porque todo este endemoniado
laberinto biológico y electroquímico es impredecible; el cerebro es maleable.
Es decir: constantemente estamos rehaciendo las conexiones neuronales,
desechando unas y estableciendo otras nuevas. El mapa tridimensional del
cerebro tendría una validez cero si no se actualiza en tiempo real. Lo cual es,
simplemente, imposible. Podemos medir la actividad eléctrica del cerebro, u
observar la afluencia de sangre a una determinada zona e inferir una
consecuencia de este fenómeno. Pero las hipótesis que inferimos no dejan de ser
especulaciones. Y, en todo caso, tener una imagen de conjunto de una red de
billones de conexiones funcionando en tiempo real, que se transforman, que se
agrupan siguiendo patrones que no entendemos, que son redundantes y en ocasiones
impredecibles… es demasiado complejo.
Las probabilidades de este baile
de información se disparan inevitablemente a un número: infinito.
Y, por último, deberíamos intentar
el absurdo de multiplicar este infinito por los 6.000 millones de personas que
vivimos en este planeta, porque no hay un cerebro igual a otro. Ni siquiera el
cerebro de dos gemelos idénticos presenta las mismas conexiones. Esta
singularidad es lo que nos hace únicos e insustituibles. Además, el cerebro se
moldea en base a la experiencia que supone relacionarse con otras personas. Un
niño que crece aislado no aprende a hablar, y su inteligencia está muy por
debajo de la media. Estos 6.000 millones de organismos tienen una energía
potencial ilimitada porque, al ser entes vivos, interactúan diariamente con una
realidad física impredecible. Y gracias a los avances en comunicación que ha
posibilitado la tecnología, el Big Data también afecta a las personas,
que están más interconectadas.
Por no hablar de cómo el cerebro
de una persona que murió hace 2.400 años puede transformar el mío. Si leo “El
Banquete” de Platón es seguro que las reflexiones que contiene provocarán un
cambio en la forma de mi cerebro.
Lo que llevamos descrito hasta el
momento sucede en una capa externa de apenas 5 milímetros de espesor; el
neocórtex: la sede del razonamiento.
Pero sigamos: reflexionamos sobre
la importancia que tienen los números, inteligibles, para explicar la
inteligencia humana. Ahora bien, suponga que le cortasen el cerebro de un niño
por la mitad. Tendría la mitad de conexiones neuronales, de áreas implicadas…
¿Qué pasaría?
Que se moriría, pensará una
mayoría ¿y si le digo que sobrevive? Vale, pero sería un vegetal, o un
discapacitado severo. ¡Medio cerebro, todo un hemisferio! ¡700 gramos de
cerebro y medio billón de conexiones! La mitad de las áreas funcionales
extraídas, arrancadas miles de millones de conexiones en apenas unas horas de
operación quirúrgica.
Se denomina hemisferectomía la
operación por la que se vacía un hemisferio cerebral por completo. Pues bien:
si esta operación (para tratar de curar una epilepsia grave sin tratamiento
farmacológico, por ejemplo) se realiza en una edad temprana, con el cerebro
hirviendo de agitación neuronal, con siete años aproximadamente, el niño no
sólo no muere, sino que tampoco sufre secuelas graves. El niño con medio
cerebro hablará, comerá, resolverá problemas matemáticos y sabrá leer.
Terminará sus estudios en la universidad.
Será un niño (casi) normal.
¿Cómo es posible?
El secreto, una vez más, está en la
ductilidad cerebral. Con esa edad, el cerebro utilizará todos sus recursos para
reconfigurar su forma, de tal manera que optimice el espacio y pueda realizar
todas las funciones que la inteligencia le exige. Este ejemplo nos obliga a
revisar la férrea (e inamovible) organización cerebral. Una vez más: en el
cerebro todo es posible, porque se reinventa a sí mismo. Constantemente.
Es un poco mareante.
Y si sólo fuese esto… pero es que
hay mucho más que neuronas en el cerebro. De hecho, las neuronas ocupan una
mínima parte. Casi todo el cerebro es otra cosa. ¿Sorprendidos?
Las células gliales (conocidas
como glía) son células que sirven de soporte para las neuronas. Sin glía, las
neuronas no pueden sobrevivir. Hay 10 células glía por cada neurona en los humanos
(en la mosca la proporción es justamente la contraria). Y parte de su función
se adivina tras su etimología: "Glía" es una palabra que procede del
griego, y significa pegamento; unión.
Como sucedía con las neuronas, no
hay una sola célula glía, sino varias, con distintos nombres y formas, todas
especializadas en distintas labores y localizadas en distintos lugares del
cerebro y del cuerpo. Curiosamente, hay células glía por todo el cuerpo,
formando parte del sistema nervioso periférico. También en la retina (que se
considera parte del sistema nervioso central) donde, aparte de participar en su
desarrollo y organización, actúan como filtro, de manera que posibilitan una
imagen más nítida.
La primera función de la célula
glía es separar las neuronas en familias, en agrupaciones diferenciadas. Sin
esta labor de agrupamiento y diferenciación el cerebro sería ingobernable. La
glía no sólo sostiene el cerebro; le da forma. Ya dijimos que el cerebro está
organizado en secciones que, aunque suenen en conjunto, lo hacen cada una con
una potencia y timbre diferente. Pero no comprendemos cómo lo hace. Sabemos que
hay un director de orquesta en una zona de los lóbulos prefrontales; pero poco
más.
Las células glía provienen de
oxígeno y nutrientes a las neuronas, cuidando de las condiciones homeostáticas
del cerebro. Sustituyen, así, al tejido conjuntivo. Son importantes almacenes
de glucógeno. Dentro de las neuronas hay cientos de pequeñas centrales
energéticas llamadas mitocondrias, entes no humanos, siquiera animales. En cada
una de nuestras células hay miles de bacterias, con su propio ADN, que nos
alimentan. Un acuerdo de colaboración que se inició hace miles de millones de
años, toda vez que una arquea intentó comerse a una bacteria que sobrevivió en
su interior y llegó a un acuerdo: tú no me digieres y yo te aporto energía.
Simular este aporte energético,
su eficacia y complejidad, es una tarea que la ingeniería informática ni tan
siquiera se plantea.
También participan activamente
las glía en el desarrollo de las redes neuronales. Ayudan en el diseño de la
intrincada red de autopistas en el cerebro. Son algo así como los topógrafos
del sistema nervioso. Controlan los niveles de neurotransmisores, vigilan la
correcta correspondencia entre iones de sodio y potasio, responsables de la activación
eléctrica entre dentritas. Con ello hacen factible el desarrollo de axones y
dentritas, e incluso establecen redes sinápticas no neuronales paralelas que
hacen el sistema más eficaz y seguro. En definitiva: participan activamente en
la sinapsis: en el entramado de trasvase de información que constituye la
esencia del cerebro. En lo que somos. Sin las células glía el cerebro humano no
sería tan moldeable ni propenso al aprendizaje. Esto explica la diferencia de
proporción entre moscas y humanos: los homo sapiens necesitamos un cerebro
flexible y abierto a la curiosidad y al cambio.
Eso es IA fuerte: improvisación y
adaptación.
Por si esto fuera poco, las
células glía son las encargadas de proteger y aislar los axones por los que
transcurre los impulsos nerviosos. Son las que forman las vainas de mielina que
hacen de los axones unos “cables” maravillosamente eficaces en la tarea de
transmitir impulsos eléctricos. Además, crean una barrera hematoencefálica
(junto con el endotelio de los capilares encefálicos) que aísla a las neuronas
del ataque de patógenos o de cambios bruscos en la carga iónica del entorno,
por ejemplo por un exceso de potasio. A su vez, retiran del entorno los
neurotransmisores liberados, como el GABA o el glutamato, mediante pinocitosis
(un mecanismo de absorción por el que se atrapan los elementos formando
cavidades, y luego cerrándolas).
También son el recurso del
cerebro para paliar daños cuando surgen problemas. Detectan pequeñas roturas en
los vasos sanguíneos, reparan los daños y retiran los restos. Cuando el
problema es mayor las neuronas las activan, las glía aumentan su tamaño,
aumentan su número de filamentos y se ponen a trabajar duro. Lo primero que
hacen es reclutar soldados. Captan células inmunitarias presentes en la sangre,
y las derivan a las zonas donde hacen falta. Mientras tanto, minimizan los
daños limpiando la zona donde se ha producido el daño, comiéndose a las
neuronas que han resultado muertas. A su vez, abonan el área accidentada con
nutrientes y neurotransmisores, procurando con ello que la recuperación sea más
rápida, con un aumento significativo de las conexiones neuronales.
En definitiva, el cerebro es un
mecanismo que se repara y reconfigura a sí mismo. Algo que un ordenador no
puede hacer.
Después de todo lo que he dicho,
entenderán que la definición que Kurzweil hace del cerebro, un simple fractal probabilístico, una
redundancia masiva muy común en los sistemas biológicos, suena demasiado
simplista. Y créanme; podría seguir escribiendo decenas de páginas sobre lo poco
que sabemos del cerebro.
Los microprocesadores, por muy
avanzados que estén, no pueden siquiera acercarse en una milésima parte a la
complejidad intrínseca del cerebro. Piénselo: nuestro sistema nervioso es fruto
de 3.800 millones de años de investigación en el mayor laboratorio que haya existido:
la vida.
¿Podemos replicarlo? No. Primero,
porque no lo conocemos y, por consiguiente, no lo entendemos. No en
profundidad. Segundo, porque es demasiado complejo. Estamos en unos estadios de
conocimiento tan básicos que sería como pedirle a un niño de tres meses que resolviese
una integral. Por no poder, ni tan siquiera podemos crear vida simulando en un
laboratorio las condiciones de la Tierra primigenia. Si no podemos crear ni una
simple célula. ¿Cómo podemos pretender emular la culminación más elaborada y
compleja de la vida?
Desde luego, si hay un futuro
para la IA fuerte (que no lo creo) necesitamos saber más sobre el cerebro,
sobre su fisiología y su función. Algo así se intenta con dos revoluciones que
se están produciendo en estos momentos:
La primera, crear computadoras
con microprocesadores que simulen el comportamiento de las redes neuronales. Es
el caso de Intel y su prototipo del microprocesador neuromórfico LOIHI, con
130.000 “neuronas artificiales” y 130 millones de conexiones (sinapsis) entre
ellas. Lo importante de estas y otras tecnologías es que implementan un sistema
lógico denominado Deep Learning, con el cual la máquina sería capaz de
aprender por sí misma. Desde hace más de 20 años se viene investigando en este
tipo de redes, como en el caso de las “Redes de Hopfield” o las “Redes de
Kohonen”.
La segunda posibilidad de
acercarse a la IA fuerte es el avance en el desarrollo de los denominados ordenadores
cuánticos, computadoras cuyo secreto radica en utilizar las propiedades
fascinantes de las partículas a un nivel subatómico. Me refiero concretamente a
la “superposición cuántica”, la capacidad de una partícula elemental de estar
en varios estados simultáneamente. Por ejemplo; el spin (giro de una partícula
sobre sí misma) puede ser hacia la derecha o hacia la izquierda; pero la física
cuántica nos dice que además la partícula puede presentar ambos estados a la
vez. Si hasta ahora sólo teníamos bits (dos estados, 1,0/encendido, apagado)
ahora tenemos qubit (al menos tres estados). Esto supone que la capacidad de
gestionar la información no crece de forma lineal, sino exponencial. IBM
presentará próximamente su primer ordenador cuántico.
Estos avances son impresionantes,
fundamentales en el desarrollo de la IA débil, pero… por el momento han
conseguido crear una máquina con el potencial de aprendizaje de una lombriz de
tierra, sin la estructura ni la maleabilidad del cerebro humano. Y los límites
físicos que la termodinámica impone pueden provocar que no podamos acceder a
microprocesadores de silicio cada vez más pequeños y potentes. Como vimos, mientras
las máquinas borren información y disminuyan su entropía, tendremos límites a
la capacidad de procesamiento. En cambio, en el cerebro, en su kilo y medio de
neuronas y células glía, de redes mutables y diminutas centrales energéticas no
humanas, la potencialidad es infinita.
Como vimos al hablar de Platón,
ni siquiera la muerte representa una frontera.
B. Software
En la programación de cualquier
computadora se utiliza de base una lógica de silogismo (simbólica) que, gracias
a los avances que supuso el álgebra booleana y el sistema pergeñado por De
Morgan, avanzó hacia una lógica de primer orden. Las computadoras obedecen a
unos programas (sistemas formales) que se basan en algoritmos, una sucesión de
instrucciones concretas, ordenadas y finitas que tienen por fin conseguir un
resultado.
Los sistemas formales parten de
un lenguaje formal y unos mecanismos deductivos en forma de reglas (código) que
transforman unas expresiones (o símbolos) en otras. Pueden ser muy complejos, y
ocupar miles de líneas de código; pero una computadora sólo hará lo que el informático
le ha dicho que haga. Y lo puede hacer muy bien, es evidente.
Puede ganar al ajedrez, conducir
un vehículo de manera autónoma o leer expresiones de la cara de una persona;
pero estos avances – impresionantes – pertenecen al ámbito de la IA débil.
Si el ordenador funciona bajo la
forma de un sistema de lógica formal, está sujeto a los teoremas de
incompletitud de Gödel, como nos recuerda Roger Penrose. No puede ser a la vez
consistente y completo. Esto limita su alcance, la posibilidad de que se
independice del programador. Que se programe a sí mismo. Puede aprender, incluso
mejorar con la experiencia, como consigue la IA débil con el Deep Learning;
pero eso no es inteligencia.
La pregunta es: ¿Por qué la
inteligencia humana no está sometida a esos mismos límites? No puede ser sólo
que nuestro hardware sea mejor; algo distinto debe haber en nuestro software.
Lo primero que hay que decir es
que la inteligencia radica en el cerebro, fruto pues de una evolución de miles
de millones de años, y que el impulso que nos hizo generar esta potencia
cognitiva fue el afán de supervivencia y de transmitir nuestros genes. Somos
los reyes de la manipulación simbólica, cierto, pero hay algo más. Algo más
profundo. Nuestra representación simbólica de la realidad y de nosotros mismos
– la autopercepción – es fruto también de lo que llamamos instintos.
Intuiciones. Y que estos procesos cerebrales son inconscientes. De hecho, el
80% de nuestra actividad cerebral no se maneja por un discurso simbólico, sino
por un rumor de fondo del que no tenemos noticia ni podemos rendir cuentas.
Kaspárov no podía analizar 200
millones de movimientos por segundo cuando jugó contra Deep blue. La
mente humana no tiene esta capacidad de cálculo. Entonces ¿por qué era capaz de
vencer a la máquina? Deep Blue generaba algo parecido a un árbol de
decisiones estadístico, e iba rechazando las bifurcaciones que no resultaban
convenientes. Una a una. Kaspárov, sin embargo, sabía si un movimiento era
conveniente o no sin necesidad de realizar un análisis explícito o refrendar
las condiciones de validez de unas proposiciones que tenía memorizadas.
Kaspárov recibía una conjetura espontánea, un destello de comprensión que no
tiene una explicación inmediata, algo así como un elan vital a la manera
de Bergson, un soplo instintivo que nos permite conjeturar. Un modo de
razonamiento que llamamos abducción.
Umberto Eco llamaba al razonar
abductivo el razonar del detective; una especie de “pensamiento lateral”, no
puramente lineal, sin verdadera validez lógica, pero capaz de extraer
suposiciones de indicios presentes en el subconsciente. Junto con la inducción,
la abducción nos aporta a los humanos herramientas lógicas que no es necesario
que sean validadas. Es decir, no borramos porque simplemente inducimos o
inferimos. Bertrand Russell afirmaba que sabía si una formulación matemática
era correcta sólo por su belleza. Y Einstein afirmó que a las leyes de la
naturaleza no se podía llegar por la lógica, sino por la intuición.
No es posible programar la
intuición ni el razonamiento inductivo ni abductivo. Lo único que podemos
programar es el razonamiento deductivo. Y no basta.
No basta porque la realidad es lo
que denominamos un “sistema complejo”; está formada por casi infinitas partes que
interaccionan generando patrones que son más que la simple suma de sus partes.
Para poder participar de un diálogo (comunicación) tan complejo necesitamos de
mucho más que la lógica formal. La lógica formal nos restringe el alcance de
nuestra perspectiva a las líneas de código. Pero una máquina no formula
hipótesis ni genera teorías que deben ser validadas. Le falta imaginación.
La intuición o el razonamiento
abductivo ¿Dónde se generan? En mi opinión son una expresión de la evolución
natural y la necesidad de supervivencia, y por consiguiente se sustentan en lo
que denominamos emociones. Para Jung, la emoción es la principal fuente de los
procesos conscientes.
El ordenador no tiene por ejemplo
miedo, ni curiosidad, y eso limita su impulso a evolucionar.
Bueno, aquí lo dejo.
Es el turno de Rafa.
Antonio Carrillo