domingo, 3 de junio de 2018

INTELIGENCIA ARTIFICIAL: El debate sobre la IA fuerte



Lo que sigue es un reto que le planteo a mi amigo Rafa Yáñez, ingeniero informático. Le propongo debatir en profundidad (al menos en la que yo sea capaz de alcanzar) sobre la inteligencia artificial.

La pregunta objeto de debate sería:



¿El ser humano logrará crear en el futuro un ente inteligente?

Mi respuesta, lo adelanto, es un no rotundo.



Es un debate apasionante, qué duda cabe, pero muy complejo. Primero convendría acordar con Rafa unas cuantas premisas:

¿Qué es la inteligencia? Etimológicamente la palabra “inteligencia” se refiere a la capacidad de elegir entre distintas opciones. Esto implica que  hablamos de una cualidad gracias a la cual un ente – en este caso artificial -  se relaciona con su entorno, y en este trasvase de información escoge, de entre distintas respuestas o acciones, la que resulte más eficaz o eficiente. La respuesta no será siempre la misma, ni está preconfigurada. Donde hay inteligencia hay variedad.

¿A qué inteligencia nos referimos? Este punto es importante. Existen dos tipos de Inteligencia Artificial: la IA fuerte y la débil.

En mi opinión, el debate debería centrarse en la IA fuerte. La IA débil es una realidad incuestionable, muy útil en la resolución de problemas y con unas posibilidades prácticas indudables. Ya hay máquinas capaces de emular las capacidades intelectivas humanas en determinadas tareas, siempre muy concretas. IBM inventó una máquina capaz de vencer al ajedrez, y podemos diseñar una máquina que haga por nosotros las tareas de cálculo complejas que implica, por ejemplo, decodificar las secuencias del genoma humano. Pero estas máquinas tienen dos limitaciones; se dedican únicamente a las tareas para las que están programadas y, en todo caso, no son capaces de saltarse los algoritmos que son la base de su lógica, creando motu proprio algoritmos, pautas de actuación o procesos lógicos nuevos. No son creativas ni plantean hipótesis.

Las inteligencias de la IA débil son lo que hemos diseñado que sean. Potentes pero limitadas, porque sólo hacen aquello que están diseñadas para hacer. No son inteligentes, tan solo son eficaces porque tienen una enorme capacidad de cálculo y, gracias a los últimos avances en programación y hardware, pueden no repetir errores y aprender de ellos.

La IA fuerte, por el contrario, aspira a crear un ente capaz de pensar por si mismo, más allá de su potencia de cálculo o de su capacidad de almacenamiento. Actúa no sobre ámbitos concretos de la realidad (una partida de ajedrez o el diagnóstico de una enfermedad sobre la base de unos síntomas), sino sobre la generalidad de retos que plantea constantemente la realidad. Debe tomar decisiones que, en ocasiones, tendrán incluso consecuencias de índole ética.

Pero, y éste es el tercer punto a tratar, ello no implica que debamos pensar en la IA fuerte como una inteligencia equiparable o similar a la inteligencia humana

¿La Inteligencia Artificial debe ser igual que la humana? Desde mediados del siglo pasado hemos especulado con la posibilidad de crear entes equivalentes a los humanos, hasta el punto de hacerlos indistinguibles de nosotros. La inteligencia HALL 9000 de la novela 2001 Una Odisea en el Espacio hablaba, razonaba e incluso sentía como un humano cualquiera; al final, manifiesta el miedo a dejar de existir, lo que implica conciencia. Data, el androide de la nave Enterprise, entabla un juicio para que se le reconozca públicamente su identidad y derechos como individuo cognoscente.

Esta inteligencia similar a la humana ha demostrado, por el momento, ser una absoluta quimera.

Sin embargo, por simplificar lo que estamos buscando, hay facetas de la psique humana de las que una máquina podría prescindir; por ejemplo, la sensibilidad estética o las emociones. El estudio de la IA fuerte debe huir de todo antropocentrismo. La IA fuerte podría razonar o actuar de manera muy distinta a los seres humanos, y no por ello ser menos inteligente. En definitiva, la IA fuerte no tiene por qué ser similar a la humana.

¿Es necesario que La IA fuerte esté viva? No es fácil contestar a esta pregunta, porque nuestra inteligencia es, de hecho, un constructo de la vida, la obra más elaborada de la evolución natural. Pero si nos fijamos en los tres elementos definitorios de un ser vivo, la inteligencia artificial fuerte cumple con dos: debe ser una singularidad, un individuo con una identidad diferenciada y, segundo, debe relacionarse con su entorno. Sin embargo la IA no tiene la compulsión de generar descendencia, de replicarse. Por consiguiente, no creemos que sea necesario que esté viva.

¿Es necesario que perciba sensaciones? Sin duda, la respuesta en este caso es sí. La IA no se explica sin un abanico lo más amplio posible de sensores que le faciliten un contacto auditivo, visual, electromagnético o de cualquier otro tipo, una red de estímulos que le permita percibir el entorno por sí misma. Para responder a la realidad e interactuar con ella, para superar la prueba de la inteligencia, la IA debe disponer de ojos y oídos, o sensores digitales equivalentes. Debe saber qué se le requiere y un contexto en el que se posiciona. La IA fuerte existe porque participa y aporta respuestas. No puede ser autista. No puede no contestar.

¿Es necesario que hable? Definitivamente, no. No hace falta un HALL 9.000; los delfines o chimpancés son entes dotados de una inteligencia considerable (aunque diferente e inferior a la humana), y no hablan. Pero ambas especies interactúan con el entorno y se comunican con sus semejantes. Toda relación implica comunicación. Hablar, no. Comunicarse, sí.

¿Es necesario que sea consciente? Posiblemente es la pregunta más difícil de contestar. Defensores de la IA fuerte como Ray Kurzweil consideran que en un primer momento no son necesarias las capacidades espirituales de la mente humana (como la consciencia). Estas capacidades son fruto de la evolución y surgen espontáneamente en una entidad que tiene la capacidad de pensar. Sólo es cuestión de tiempo.

En todo caso, la individualidad y la capacidad de reflexionar conducen casi inexorablemente a la autopercepción y, en consecuencia, a la consciencia. Una máquina que interacciona y responde a su entorno tiene conciencia (conocimiento) de sus propios límites, distingue entre el “yo” y “los demás”. Se sabe existente (que no viva). Y, posiblemente, única. Todo esto implica que no habrá una máquina inteligente igual a otra, del mismo modo que todo ser humano es un ente único e irrepetible. Si se dan cuenta, este hecho nos obliga a abordar cuestiones que interesan a la ética ¿Tiene derechos una máquina con IA fuerte? ¿Se debe proteger su dignidad? ¿La máquina se preocupará por su propia supervivencia?


¿Qué consecuencias tendría la IA fuerte? Todo lo anterior, el análisis de lo que se denomina “singularidad”, implica el riesgo de que las máquinas evolucionen por sí mismas hasta superar en inteligencia a los humanos, en una carrera exponencial hacia la excelencia y el predominio inexorable de la máquina sobre el hombre.

Yo no creo en este funesto augurio, porque no creo que jamás llegue a existir un ente consciente e inteligente creado por el hombre. Esta creencia la fundamento en dos motivos:

1.       La inteligencia humana es fruto de la evolución natural, con miles de millones de años de experimentación. El cerebro, su obra más acabada, es de tal complejidad que no es viable intentar siquiera construir prototipos que emulen su eficacia y potencia. Intentamos ganarle una carrera a un F1 trabajando con el diseño de una bicicleta sin motor.



2.       La inteligencia no tiene un fundamento únicamente físico. El pensamiento es un fenómeno que, en esencia, desconocemos por lo complejo que resulta. No podemos emular lo que no podemos entender. El uso de la lógica o los algoritmos, la computación, tan solo se asoman a la superficie del reino de la intuición y la conciencia, de la reflexión y los sentimientos. Pretendemos enfrentar a un Fernando Alonso entrenado contra un niño de dos años que no sabe siquiera pedalear.



En definitiva, hay una enorme diferencia en diseño (Hardware) y programación (software). O, en términos utilizados por los ingenieros informáticos, hay un enfoque “de abajo arriba” en el que se intenta simular la estructura del cerebro (con redes neuronales u ordenadores cuánticos); y un enfoque “de arriba abajo” en el que se pretende crear programas que simulen la cognición (como los sistemas expertos o la inteligencia artificial evolutiva)

Analizaremos ambos enfoques por separado:



A.      Hardware



¿Qué es una computadora? Una máquina que recibe unos datos a través de dispositivos de entrada, los procesa por medio de un soporte lógico en forma de lenguaje de programación y los convierte en información, que es enviada a los dispositivos de salida para ser almacenada, impresa, transmitida a otro dispositivo, etc. El trabajo lo realizan una o varias unidades centrales de procesamiento (CPU) situadas en un circuito integrado: el microprocesador. El cerebro de la bestia.

Pero conviene que nos fijemos en lo más básico. Los microprocesadores están formados por uno o varios CPU, que a su vez están formados por transistores, algo así como la unidad básica de todo este complejo entramado digital. El secreto del transistor es que está hecho de un elemento llamado silicio, que tiene una característica interesante: 8 electrones en su última capa (capa de Valencia). Este elemento, con una capa exterior estable (por una cuestión de física cuántica, la regla del octeto, que no vamos a detallar,) es poco conductor y no le gusta mezclarse ni relacionarse con nadie. Pero si se lo contamina y se le quita o añade un electrón, se altera y vuelve semiconductor, con la peculiaridad de que en la búsqueda del equilibrio genera una corriente direccional que además implica una ganancia (amplificación). Situado en una oblea (lámina) de silicio diez veces más finas que un pelo humano, en un circuito impreso con miles de transistores iguales, el tamaño de cada transistor apenas si llega al ancho equivalente a 200 electrones.

Para entendernos; usted se compra un portátil con el microprocesador AMD Ryzen de última generación. Pues bien, el microprocesador de su portátil, diminuto, cuenta con 4.800 millones de transistores. Alucinante.

Para que entiendan la complejidad de un microprocesador, les pondré un ejemplo que les sorprenderá. China, con sus 2.000 millones de habitantes y su enorme desarrollo industrial, tiene dos problemas importantes que dificultan su desarrollo: primero, no tiene reservas propias de energía. China tiene que importar todo el petróleo y el gas que mantiene en marcha su producción. Con tanta población y la mayor industria del planeta, imaginarán la cantidad ingente de dinero que el gobierno Chino gasta en petróleo. Sin embargo, curiosamente, hay algo en lo que China tiene que invertir mucho más dinero: la compra de microprocesadores a EEUU, Japón o Corea. La friolera de 200.000 millones de euros al año. Y preguntarán ¿por qué China no fabrica sus propios microchips? Lo están intentando, y lo conseguirán, pero les representa un enorme esfuerzo. Es una tecnología tan avanzada que está al alcance de unos pocos países punteros. Simplemente, por el momento no saben hacerlo a un nivel que les permita la producción en masa y ser autosuficientes.

Gordon E. Moore, cofundador de Intel, postuló la Ley que lleva su nombre, la Ley de Moore. Según Moore cada 18-24 meses se duplica el número de transistores de un microprocesador. Cada vez son más pequeños. Sin embargo, como veremos al hablar de entropía y disipación de calor, parece que estamos alcanzando límites a este proceso.

Tengo noticias de al menos dos microprocesadores chinos: el Loongson y el ShenWei; y de un microprocesador de última generación, el Sunwai, desarrollado por Jiāngnán Computing Lab en la ciudad de Wuxi. En esta ciudad se encuentra el supercomputador más potente del mundo, el Sunway TaihuLight, que tiene 40.960 procesadores sunwai y es capaz de realizar un trillón de operaciones por segundo ¿Han oído hablar de la guerra comercial entre China y EEUU y los problemas derivados del robo de patentes? Los norteamericanos no quieren que China les copie y deje de comprarles tecnología. Porque China sólo es capaz de producir el 10% de los microchips que necesita. Invierte grandes cantidades de dinero para mejorar su I+D; pero sigue muy lejos de los americanos o los japoneses.

Sigamos: además de la enorme capacidad de los microprocesadores, tenemos una realidad complejísima que se denomina big data: una ingente cantidad de información e interconexiones de los ordenadores en todo el mundo, con los terminales funcionando en red a través de entornos conexionistas del llamado “Deep Learning”. Las cifras son mareantes; calculamos que todo el conocimiento humano desde la prehistoria hasta el 2003 cabe en 5 exabytes. Pues bien; en el 2018 el planeta produce 5 exabytes de información en tan solo 48 horas.

Sin embargo parece haber un problema: la miniaturización parece tener un límite (lo que comentamos sobre la Ley de Moore) y la subida de las frecuencias de reloj de las computadoras no crecen al ritmo esperado, exponencialmente. Parece haber un límite debido a la segunda Ley de la Termodinámica y el borrado de información.

Mejor lo explico con un ejemplo.

En el año 1997 el ajedrecista Kaspárov se enfrento a un supercomputador de IBM, Deeper Blue, una máquina capaz de calcular 200 millones de movimientos por segundo. No sin polémica, la computadora ganó la partida.

Los ingenieros de IBM se enfrentaron a un serio problema. Durante la partida los microprocesadores de Deeper Blue, en los momentos más intensos de cálculo frenético, se recalentaban a unos niveles difíciles de controlar.

Es un problema conocido en el mundo de los superordenadores. En ocasiones se tienen que utilizar elementos como hielo seco, nitrógeno líquido o helio líquido, con temperaturas cercanas al cero absoluto. Sólo así el microprocesador de silicio puede alcanzar su límite físico, que se calcula en 10 GHz de velocidad. En el superordenador ETH, que se está construyendo en Suiza, se reciclará parte del calor que genere la máquina para calentar las habitaciones de la universidad donde se encuentra.

La energía necesaria para disipar tanto calor se calcula en unos 250Kw extra.

Vuelvo a la partida de ajedrez entre el humano y la máquina. A un científico se le ocurrió la idea de monitorizar las constantes de Kaspárov durante la partida. Mientras Deeper Blue ardía, la temperatura corporal del humano no subió ni medio grado. En términos exclusivamente de eficiencia energética, el cerebro era un Ferrari y el supercomputador un tractor averiado.

¿Por qué?

Como ya he dicho, el problema radica en la segunda ley de la termodinámica: la entropía. Sin entrar en muchas profundidades, la física cuántica ha demostrado que el simple uso de información no representa un gasto energético, o es indetectable. Por eso Kaspárov no se veía afectado. Pero Deeper Blue no solo manejaba información; fundamentalmente se dedicaba a borrarla. Y la información, según las últimas teorías en física teórica, tiene una virtualidad similar a la materia o la energía. Por tanto, eliminar información del universo implica un alto coste (Ley de Conservación de la Energía).

Si tu eliminas información a razón de 200 millones de jugadas por segundo, lo haces para rechazar los movimientos que entrañan un peligro. El ordenador necesita hacer los cálculos uno a uno, a una velocidad de vértigo. Cuanta más jugadas rechace, más se acerca a un movimiento idóneo, más “ordenado”. Es decir: lo que hace es bajar la entropía, el desorden. Pero como debe haber un equilibrio termodinámico, la física exige que en el universo se produzca una reacción contraria de aumento de entropía. Y esto se manifiesta en forma de calor.

Insisto: borrar información tiene un coste energético altísimo. Y por ello la capacidad de cálculo (de borrado) de un microprocesador parece tener un límite.

Pero ¿Qué hay dentro del cráneo de Kaspárov que le permita superar esta limitación? Para que lo entiendan, en el 2005 se realizó un experimento con un superordenador. Por medio de complejos algoritmos consiguieron simular lo que sería (lo que se supone que sería) un único segundo de pensamiento primordial en el cerebro de un recién nacido.

El superordenador necesitó procesar información durante 50 días a pleno rendimiento para realizar lo que un recién nacido hace en un segundo.

Insisto: ¿Cómo se explica algo así? ¿Qué es el cerebro, el hardware de la inteligencia humana? ¿De qué está hecho? ¿Qué capacidad tiene?

Por decirlo de una vez: el cerebro sapiens es la organización de materia más compleja que existe en el universo. Al menos del universo que conocemos. Ni más, ni menos.

Pongamos un ejemplo: el cerebro de Rafa, mi amigo interlocutor. Apenas un kilo y medio (suponemos) de una masa blancuzca y gelatinosa, llena de surcos en su superficie y en la que se distinguen claramente dos hemisferios (esperamos). Deeper Blue es mucho más espectacular, a menos a simple vista. Pero escudriñemos el cerebro de nuestro ingeniero informático con un microscopio.

Hay una maraña indescifrable de fibras nerviosas, de conexiones y núcleos celulares, ramificaciones más o menos densas, pequeñas como una célula o tan largas que viajan de un extremo a otro del cerebro. 100.000 millones de neuronas.

Detengámonos aquí. Lo del número de neuronas es algo que todo el mundo sabe. Pero ¿sabían que hay distintos tipos de neuronas? Algunas tienen forma de repollo, otras de árbol, las hay con forma de raíz… ¿Cuántos tipos de neuronas hay en el cerebro de Rafa?

Sorpréndanse: ni la más remota idea.

Por ahora se han catalogado unos 50 tipos de neuronas, pero los neurólogos creen que deben ser cientos, sino miles. La mayoría de las neuronas ni las conocemos. Y es importante, porque la forma determina la función. No conocemos en detalle ni tan siquiera la forma de los ladrillos que dan fundamento a nuestro órgano más importante, el que nos dota de inteligencia.

El otro asunto que dificulta el estudio del cerebro es el de las conexiones. Cada una de las neuronas está conectada a unas mil; hablamos de una red de unos 100 billones de conexiones. Vamos a cortar un cubito de cerebro de Rafa; apenas un milímetro cuadrado. Hay mil millones de conexiones en algo tan pequeño, algunas tan diminutas que cuesta verlas.

Si el genoma humano contiene unos 30.000 genes, casi dos terceras partes se dedican al diseño y mantenimiento de esta red. En el seno materno, el feto crea unas 250.000 neuronas por minuto. Son datos que dan idea de la complejidad del reto de emular al cerebro.

¿Les parece complicado? Pues solo acabamos de comenzar. Las redes neuronales forman áreas funcionales que se ocupan de realizar una determinada tarea. Por el momento se han distinguido más de 150 áreas, pero podría haber muchas más. Además, en ocasiones hay áreas redundantes, y otras cuya activación no acaba de comprenderse. En una función concreta se detecta la activación de distintas áreas, algunas de las cuales también se activan para otras funciones. Es un verdadero galimatías, en el que el ovillo de axones que recorren el cerebro, a veces de parte a parte, tiene una longitud total de unos 150.000 millones de kilómetros.

Es mucho “cable” como para seguirle la pista. Y todo encerrado en un cráneo de apenas 1.500 cm3.

Hasta ahora el hardware humano es impresionante; pero todos los números y datos no convierten al cerebro en un milagro. Podríamos afrontar el reto de intentar hacer un cálculo de las combinaciones posibles, teniendo además en cuenta que los neurotransmisores encargados de transmitir la señal son más de 50 – que sepamos -, cada uno con una función, o que las conexiones (sinapsis) entre las neuronas no siempre son iguales: hay neuronas – la mayoría  - que no se tocan, que transmiten la información salvando un espacio vacío entre las dentritas (terminaciones). Pero en ocasiones las neuronas sí se tocan directamente. No sabemos la razón de esta diferencia.

Son muchos inconvenientes los que se suman, sin embargo podríamos intentar introducir todas las variables e intentar esbozar un mapa.

Pero esta tarea titánica sería inútil.

Porque todo este endemoniado laberinto biológico y electroquímico es impredecible; el cerebro es maleable. Es decir: constantemente estamos rehaciendo las conexiones neuronales, desechando unas y estableciendo otras nuevas. El mapa tridimensional del cerebro tendría una validez cero si no se actualiza en tiempo real. Lo cual es, simplemente, imposible. Podemos medir la actividad eléctrica del cerebro, u observar la afluencia de sangre a una determinada zona e inferir una consecuencia de este fenómeno. Pero las hipótesis que inferimos no dejan de ser especulaciones. Y, en todo caso, tener una imagen de conjunto de una red de billones de conexiones funcionando en tiempo real, que se transforman, que se agrupan siguiendo patrones que no entendemos, que son redundantes y en ocasiones impredecibles… es demasiado complejo.

Las probabilidades de este baile de información se disparan inevitablemente a un número: infinito.

Y, por último, deberíamos intentar el absurdo de multiplicar este infinito por los 6.000 millones de personas que vivimos en este planeta, porque no hay un cerebro igual a otro. Ni siquiera el cerebro de dos gemelos idénticos presenta las mismas conexiones. Esta singularidad es lo que nos hace únicos e insustituibles. Además, el cerebro se moldea en base a la experiencia que supone relacionarse con otras personas. Un niño que crece aislado no aprende a hablar, y su inteligencia está muy por debajo de la media. Estos 6.000 millones de organismos tienen una energía potencial ilimitada porque, al ser entes vivos, interactúan diariamente con una realidad física impredecible. Y gracias a los avances en comunicación que ha posibilitado la tecnología, el Big Data también afecta a las personas, que están más interconectadas.

Por no hablar de cómo el cerebro de una persona que murió hace 2.400 años puede transformar el mío. Si leo “El Banquete” de Platón es seguro que las reflexiones que contiene provocarán un cambio en la forma de mi cerebro.

Lo que llevamos descrito hasta el momento sucede en una capa externa de apenas 5 milímetros de espesor; el neocórtex: la sede del razonamiento.

Pero sigamos: reflexionamos sobre la importancia que tienen los números, inteligibles, para explicar la inteligencia humana. Ahora bien, suponga que le cortasen el cerebro de un niño por la mitad. Tendría la mitad de conexiones neuronales, de áreas implicadas… ¿Qué pasaría?

Que se moriría, pensará una mayoría ¿y si le digo que sobrevive? Vale, pero sería un vegetal, o un discapacitado severo. ¡Medio cerebro, todo un hemisferio! ¡700 gramos de cerebro y medio billón de conexiones! La mitad de las áreas funcionales extraídas, arrancadas miles de millones de conexiones en apenas unas horas de operación quirúrgica.

Se denomina hemisferectomía la operación por la que se vacía un hemisferio cerebral por completo. Pues bien: si esta operación (para tratar de curar una epilepsia grave sin tratamiento farmacológico, por ejemplo) se realiza en una edad temprana, con el cerebro hirviendo de agitación neuronal, con siete años aproximadamente, el niño no sólo no muere, sino que tampoco sufre secuelas graves. El niño con medio cerebro hablará, comerá, resolverá problemas matemáticos y sabrá leer. Terminará sus estudios en la universidad.  Será un niño (casi) normal.

¿Cómo es posible?

El secreto, una vez más, está en la ductilidad cerebral. Con esa edad, el cerebro utilizará todos sus recursos para reconfigurar su forma, de tal manera que optimice el espacio y pueda realizar todas las funciones que la inteligencia le exige. Este ejemplo nos obliga a revisar la férrea (e inamovible) organización cerebral. Una vez más: en el cerebro todo es posible, porque se reinventa a sí mismo. Constantemente.

Es un poco mareante.

Y si sólo fuese esto… pero es que hay mucho más que neuronas en el cerebro. De hecho, las neuronas ocupan una mínima parte. Casi todo el cerebro es otra cosa. ¿Sorprendidos?

Las células gliales (conocidas como glía) son células que sirven de soporte para las neuronas. Sin glía, las neuronas no pueden sobrevivir. Hay 10 células glía por cada neurona en los humanos (en la mosca la proporción es justamente la contraria). Y parte de su función se adivina tras su etimología: "Glía" es una palabra que procede del griego, y significa pegamento; unión.

Como sucedía con las neuronas, no hay una sola célula glía, sino varias, con distintos nombres y formas, todas especializadas en distintas labores y localizadas en distintos lugares del cerebro y del cuerpo. Curiosamente, hay células glía por todo el cuerpo, formando parte del sistema nervioso periférico. También en la retina (que se considera parte del sistema nervioso central) donde, aparte de participar en su desarrollo y organización, actúan como filtro, de manera que posibilitan una imagen más nítida.

La primera función de la célula glía es separar las neuronas en familias, en agrupaciones diferenciadas. Sin esta labor de agrupamiento y diferenciación el cerebro sería ingobernable. La glía no sólo sostiene el cerebro; le da forma. Ya dijimos que el cerebro está organizado en secciones que, aunque suenen en conjunto, lo hacen cada una con una potencia y timbre diferente. Pero no comprendemos cómo lo hace. Sabemos que hay un director de orquesta en una zona de los lóbulos prefrontales; pero poco más.

Las células glía provienen de oxígeno y nutrientes a las neuronas, cuidando de las condiciones homeostáticas del cerebro. Sustituyen, así, al tejido conjuntivo. Son importantes almacenes de glucógeno. Dentro de las neuronas hay cientos de pequeñas centrales energéticas llamadas mitocondrias, entes no humanos, siquiera animales. En cada una de nuestras células hay miles de bacterias, con su propio ADN, que nos alimentan. Un acuerdo de colaboración que se inició hace miles de millones de años, toda vez que una arquea intentó comerse a una bacteria que sobrevivió en su interior y llegó a un acuerdo: tú no me digieres y yo te aporto energía.

Simular este aporte energético, su eficacia y complejidad, es una tarea que la ingeniería informática ni tan siquiera se plantea.

También participan activamente las glía en el desarrollo de las redes neuronales. Ayudan en el diseño de la intrincada red de autopistas en el cerebro. Son algo así como los topógrafos del sistema nervioso. Controlan los niveles de neurotransmisores, vigilan la correcta correspondencia entre iones de sodio y potasio, responsables de la activación eléctrica entre dentritas. Con ello hacen factible el desarrollo de axones y dentritas, e incluso establecen redes sinápticas no neuronales paralelas que hacen el sistema más eficaz y seguro. En definitiva: participan activamente en la sinapsis: en el entramado de trasvase de información que constituye la esencia del cerebro. En lo que somos. Sin las células glía el cerebro humano no sería tan moldeable ni propenso al aprendizaje. Esto explica la diferencia de proporción entre moscas y humanos: los homo sapiens necesitamos un cerebro flexible y abierto a la curiosidad y al cambio.

Eso es IA fuerte: improvisación y adaptación.

Por si esto fuera poco, las células glía son las encargadas de proteger y aislar los axones por los que transcurre los impulsos nerviosos. Son las que forman las vainas de mielina que hacen de los axones unos “cables” maravillosamente eficaces en la tarea de transmitir impulsos eléctricos. Además, crean una barrera hematoencefálica (junto con el endotelio de los capilares encefálicos) que aísla a las neuronas del ataque de patógenos o de cambios bruscos en la carga iónica del entorno, por ejemplo por un exceso de potasio. A su vez, retiran del entorno los neurotransmisores liberados, como el GABA o el glutamato, mediante pinocitosis (un mecanismo de absorción por el que se atrapan los elementos formando cavidades, y luego cerrándolas).

También son el recurso del cerebro para paliar daños cuando surgen problemas. Detectan pequeñas roturas en los vasos sanguíneos, reparan los daños y retiran los restos. Cuando el problema es mayor las neuronas las activan, las glía aumentan su tamaño, aumentan su número de filamentos y se ponen a trabajar duro. Lo primero que hacen es reclutar soldados. Captan células inmunitarias presentes en la sangre, y las derivan a las zonas donde hacen falta. Mientras tanto, minimizan los daños limpiando la zona donde se ha producido el daño, comiéndose a las neuronas que han resultado muertas. A su vez, abonan el área accidentada con nutrientes y neurotransmisores, procurando con ello que la recuperación sea más rápida, con un aumento significativo de las conexiones neuronales.

En definitiva, el cerebro es un mecanismo que se repara y reconfigura a sí mismo. Algo que un ordenador no puede hacer.

Después de todo lo que he dicho, entenderán que la definición que Kurzweil hace del cerebro,  un simple fractal probabilístico, una redundancia masiva muy común en los sistemas biológicos, suena demasiado simplista. Y créanme; podría seguir escribiendo decenas de páginas sobre lo poco que sabemos del cerebro.

Los microprocesadores, por muy avanzados que estén, no pueden siquiera acercarse en una milésima parte a la complejidad intrínseca del cerebro. Piénselo: nuestro sistema nervioso es fruto de 3.800 millones de años de investigación en el mayor laboratorio que haya existido: la vida.

¿Podemos replicarlo? No. Primero, porque no lo conocemos y, por consiguiente, no lo entendemos. No en profundidad. Segundo, porque es demasiado complejo. Estamos en unos estadios de conocimiento tan básicos que sería como pedirle a un niño de tres meses que resolviese una integral. Por no poder, ni tan siquiera podemos crear vida simulando en un laboratorio las condiciones de la Tierra primigenia. Si no podemos crear ni una simple célula. ¿Cómo podemos pretender emular la culminación más elaborada y compleja de la vida?

Desde luego, si hay un futuro para la IA fuerte (que no lo creo) necesitamos saber más sobre el cerebro, sobre su fisiología y su función. Algo así se intenta con dos revoluciones que se están produciendo en estos momentos:

La primera, crear computadoras con microprocesadores que simulen el comportamiento de las redes neuronales. Es el caso de Intel y su prototipo del microprocesador neuromórfico LOIHI, con 130.000 “neuronas artificiales” y 130 millones de conexiones (sinapsis) entre ellas. Lo importante de estas y otras tecnologías es que implementan un sistema lógico denominado Deep Learning, con el cual la máquina sería capaz de aprender por sí misma. Desde hace más de 20 años se viene investigando en este tipo de redes, como en el caso de las “Redes de Hopfield” o las “Redes de Kohonen”.

La segunda posibilidad de acercarse a la IA fuerte es el avance en el desarrollo de los denominados ordenadores cuánticos, computadoras cuyo secreto radica en utilizar las propiedades fascinantes de las partículas a un nivel subatómico. Me refiero concretamente a la “superposición cuántica”, la capacidad de una partícula elemental de estar en varios estados simultáneamente. Por ejemplo; el spin (giro de una partícula sobre sí misma) puede ser hacia la derecha o hacia la izquierda; pero la física cuántica nos dice que además la partícula puede presentar ambos estados a la vez. Si hasta ahora sólo teníamos bits (dos estados, 1,0/encendido, apagado) ahora tenemos qubit (al menos tres estados). Esto supone que la capacidad de gestionar la información no crece de forma lineal, sino exponencial. IBM presentará próximamente su primer ordenador cuántico.

Estos avances son impresionantes, fundamentales en el desarrollo de la IA débil, pero… por el momento han conseguido crear una máquina con el potencial de aprendizaje de una lombriz de tierra, sin la estructura ni la maleabilidad del cerebro humano. Y los límites físicos que la termodinámica impone pueden provocar que no podamos acceder a microprocesadores de silicio cada vez más pequeños y potentes. Como vimos, mientras las máquinas borren información y disminuyan su entropía, tendremos límites a la capacidad de procesamiento. En cambio, en el cerebro, en su kilo y medio de neuronas y células glía, de redes mutables y diminutas centrales energéticas no humanas, la potencialidad es infinita.

Como vimos al hablar de Platón, ni siquiera la muerte representa una frontera.



B.      Software



En la programación de cualquier computadora se utiliza de base una lógica de silogismo (simbólica) que, gracias a los avances que supuso el álgebra booleana y el sistema pergeñado por De Morgan, avanzó hacia una lógica de primer orden. Las computadoras obedecen a unos programas (sistemas formales) que se basan en algoritmos, una sucesión de instrucciones concretas, ordenadas y finitas que tienen por fin conseguir un resultado.

Los sistemas formales parten de un lenguaje formal y unos mecanismos deductivos en forma de reglas (código) que transforman unas expresiones (o símbolos) en otras. Pueden ser muy complejos, y ocupar miles de líneas de código; pero una computadora sólo hará lo que el informático le ha dicho que haga. Y lo puede hacer muy bien, es evidente.

Puede ganar al ajedrez, conducir un vehículo de manera autónoma o leer expresiones de la cara de una persona; pero estos avances – impresionantes – pertenecen al ámbito de la IA débil.

Si el ordenador funciona bajo la forma de un sistema de lógica formal, está sujeto a los teoremas de incompletitud de Gödel, como nos recuerda Roger Penrose. No puede ser a la vez consistente y completo. Esto limita su alcance, la posibilidad de que se independice del programador. Que se programe a sí mismo. Puede aprender, incluso mejorar con la experiencia, como consigue la IA débil con el Deep Learning; pero eso no es inteligencia.

La pregunta es: ¿Por qué la inteligencia humana no está sometida a esos mismos límites? No puede ser sólo que nuestro hardware sea mejor; algo distinto debe haber en nuestro software.

Lo primero que hay que decir es que la inteligencia radica en el cerebro, fruto pues de una evolución de miles de millones de años, y que el impulso que nos hizo generar esta potencia cognitiva fue el afán de supervivencia y de transmitir nuestros genes. Somos los reyes de la manipulación simbólica, cierto, pero hay algo más. Algo más profundo. Nuestra representación simbólica de la realidad y de nosotros mismos – la autopercepción – es fruto también de lo que llamamos instintos. Intuiciones. Y que estos procesos cerebrales son inconscientes. De hecho, el 80% de nuestra actividad cerebral no se maneja por un discurso simbólico, sino por un rumor de fondo del que no tenemos noticia ni podemos rendir cuentas.

Kaspárov no podía analizar 200 millones de movimientos por segundo cuando jugó contra Deep blue. La mente humana no tiene esta capacidad de cálculo. Entonces ¿por qué era capaz de vencer a la máquina? Deep Blue generaba algo parecido a un árbol de decisiones estadístico, e iba rechazando las bifurcaciones que no resultaban convenientes. Una a una. Kaspárov, sin embargo, sabía si un movimiento era conveniente o no sin necesidad de realizar un análisis explícito o refrendar las condiciones de validez de unas proposiciones que tenía memorizadas. Kaspárov recibía una conjetura espontánea, un destello de comprensión que no tiene una explicación inmediata, algo así como un elan vital a la manera de Bergson, un soplo instintivo que nos permite conjeturar. Un modo de razonamiento que llamamos abducción.

Umberto Eco llamaba al razonar abductivo el razonar del detective; una especie de “pensamiento lateral”, no puramente lineal, sin verdadera validez lógica, pero capaz de extraer suposiciones de indicios presentes en el subconsciente. Junto con la inducción, la abducción nos aporta a los humanos herramientas lógicas que no es necesario que sean validadas. Es decir, no borramos porque simplemente inducimos o inferimos. Bertrand Russell afirmaba que sabía si una formulación matemática era correcta sólo por su belleza. Y Einstein afirmó que a las leyes de la naturaleza no se podía llegar por la lógica, sino por la intuición.

No es posible programar la intuición ni el razonamiento inductivo ni abductivo. Lo único que podemos programar es el razonamiento deductivo. Y no basta.

No basta porque la realidad es lo que denominamos un “sistema complejo”; está formada por casi infinitas partes que interaccionan generando patrones que son más que la simple suma de sus partes. Para poder participar de un diálogo (comunicación) tan complejo necesitamos de mucho más que la lógica formal. La lógica formal nos restringe el alcance de nuestra perspectiva a las líneas de código. Pero una máquina no formula hipótesis ni genera teorías que deben ser validadas. Le falta imaginación.

La intuición o el razonamiento abductivo ¿Dónde se generan? En mi opinión son una expresión de la evolución natural y la necesidad de supervivencia, y por consiguiente se sustentan en lo que denominamos emociones. Para Jung, la emoción es la principal fuente de los procesos conscientes.

El ordenador no tiene por ejemplo miedo, ni curiosidad, y eso limita su impulso a evolucionar.

Bueno, aquí lo dejo.

Es el turno de Rafa.



Antonio Carrillo

2 comentarios:

  1. Enhorabuena por el artículo.

    Estoy de acuerdo en la conclusión fundamental sobre que no es posible el objetivo de crear un IA fuerte, ni nada que se le parezca aunque por motivos diferentes.

    En primer lugar crear inteligencia artificial fuerte, en el sentido de que pueda albergar conciencia, emociones o sentimientos es cómo pretender literalmente sustituir a eso que comunmente llamamos genéricamente "Dios". Y digo esto en el sentido de que vida e inteligencia para ser elementos sinónimos en el universo que vivimos.

    Por otro lado, observo que te centras en la vertiente más material del problema, aunque hay otros aspectos más relevantes a considerar. El principal sería la diferencia entre tiempo matemático y tiempo real, el que todos experimentamos.

    Nuestra inteligencia, si es que este concepto existe en realidad, no surgió de la nada, sino que (como bien dices) en cierto sentido es producto de la evolución. Por lo tanto, nuestra inteligencia está ligada al continuo espacio-tiempo, con todas las implicaciones que eso representa, pero no así en el caso de un ordenador.

    Para un ordenador, por muy elevada que sea su capacidad de procesamiento, está claro que no existe el tiempo en el sentido en que nosotros lo experimentamos, ni tampoco algorítmicamente tiene la posibilidad de computar instantáneamente, dado que se enfrentaría a una referencia circular imposible de solventar.

    Es más, puede que matemáticamente este problema no tenga solución y que nuestra inteligencia esté ligada a muchas otras irracionalidades que se dan en el Universo. Eso por no hablar de que nuestra capacidad mental no sabemos hasta que punto puede estar ligada a la mecánica cuántica o al universo cómo una totalidad.

    Es absurdo, como comentas, pensar en crear inteligencia artificial sin conocer la nuestra, sin conocer la mecánica cuántica, sin resolver esa irracionalidad llamada "problema de la parada", sin entender en global lo que representa la relatividad o... sin ir más lejos utilizando las matemáticas.

    En conclusión, es absurdo pensar en IA fuerte, de la misma forma que lo es pensar que podemos computar de forma cuántica. Aunque a veces ocurre no es una implicación directa que repetir muchas veces una absurdidad ésta acabe siendo una verdad.

    Saludos.

    ResponderEliminar
    Respuestas
    1. Un comentario brillante.
      Es cierto que me centro en la vertiente más material, más hardware. Mi intención es desarrollar los argumentos en un diálogo de varias entregas, en el que este artículo no hace sino introducir el tema. Y empezar centrándolo en las características puramente biológicas de nuestra mente, su enorme complejidad y, por consiguiente, en lo absurdo que resulta emular lo que desconocemos. En artículos posteriores profundizaremos en aspectos más "intangibles" que, como bien dices, tienen mucho que ver con la física cuántica. En el artículo hago mención al tema de la información y su relación con la entropía; pero no es más que un primer paso.
      Gracias por la enhorabuena. Que alguien tan preparado te felicite es un gran aliciente. Son cuestiones de un enorme interés, y entre todos podemos profundizar un poco en lo que, al fin y al cabo, nos hace únicos. Nos define.

      Eliminar