Conceptos clave
- La inteligencia artificial (IA) ya supera a la inteligencia humana en muchos campos.
- Una gran pregunta es si la superinteligencia artificial puede reflejar las emociones humanas, como el amor o el odio. Y si es así, ¿cómo?
- La “emulación total del cerebro” requiere la reproducción digital del cerebro de una persona fallecida.
- Una entidad de inteligencia artificial que domina a los humanos y otras IAs se denominan semifallo o singleton.
- La superinteligencia asume tres formas: la superinteligencia de la velocidad, la superinteligencia colectiva y la superinteligencia de la calidad.
- La ingeniería genética podría conducir a una población de individuos mejorados que formen una superinteligencia colectiva para el 2050.
- La inteligencia artificial es peligrosa porque su inteligencia no se conecta con valores.
- El problema más grande con la IA es la carga de valores: cómo ingresar valores que la IA más tarde no malinterpretará o anulará en detrimento del bienestar humano.
- Si la IA o algún agente combinado superinteligente de IA obtuviera una ventaja estratégica decisiva como una entidad de sí misma, las personas no podrían controlarlo.
- Tanto las promesas como los riesgos de una explosión de inteligencia exigen una consideración cuidadosa.
Resumen
La perspectiva de la superinteligencia
En Dartmouth College en 1956, un grupo de científicos trazó un nuevo curso para la humanidad: la noción de que las máquinas pueden replicar aspectos de la inteligencia humana. Su esfuerzo evolucionó a tropezones. Los programas basados en reglas o sistemas expertos florecieron en los años ochenta y la promesa de la inteligencia artificial (IA) parecía brillante. Luego decayó y se retiraron los fondos. En los noventa, con los algoritmos genéticos y las redes neuronales, la idea despegó de nuevo.
“No hay motivo para esperar que una IA genérica esté motivada por el amor, el odio o el orgullo u otros sentimientos humanos comunes”.
Una medida del poder de la IA es que ciertas máquinas juegan ajedrez, bridge, póquer, Scrabble, Jeopardy y Go. Con algoritmos efectivos, se estima vencerán al mejor jugador humano de Go en una década. Las aplicaciones de la IA abarcan audífonos, reconocimiento de rostro y de voz, navegación, diagnóstico, programación, gestión de inventarios y una clase en expansión de robots industriales. Pese al uso y popularidad creciente de la IA, aparecen señales de sus limitaciones. En el Flash Crash del 2010 los operadores algorítmicos crearon inadvertidamente una espiral descendente que costó un billón de dólares en segundos. Pero la tecnología que generó la crisis también ayudó a resolverla.
Evolución de la IA
¿La IA seguirá el patrón evolutivo de la inteligencia humana? ¿La IA puede replicar la evolución de la mente? La propia evolución de la IA podría seguir varios caminos. El científico británico Alan Turing creía que un día existiría un programa que se enseñaría a sí mismo: una “máquina niño”, una “IA semilla” que crearía nuevas versiones de sí. Se especula que tal proceso de automejora recursiva podría llevar a una explosión de inteligencia que resulte en superinteligencia, una radicalmente diferente. ¿Tal superinteligencia reflejaría emociones humanas como amor u odio? Si es así, ¿cómo?
“Una inteligencia artificial puede ser mucho menos humana en sus motivaciones que un alienígena verde y con escamas”.
Un segundo camino sería un software inteligente basado en un cerebro humano particular. Esto es, diferente a la IA. Especulativamente, implicaría tomar el cerebro de una persona fallecida y crear una reproducción digital de su intelecto, con la memoria y la personalidad intactas. A ello se le llama carga o emulación total del cerebro. Llevaría años desarrollarla, y podría tomar quizá hasta mediados de este siglo.
“Ante el potencial de una explosión de inteligencia, nosotros los humanos somos como niños pequeños que juegan con una bomba”.
Un tercer camino sería la ingeniería genética, que daría a una población de individuos genéticamente mejorados que formen una superinteligencia colectiva, como cíborgs y sistemas de red inteligente.
La superinteligencia podría adoptar tres formas. La superinteligencia de la velocidad replicaría a la inteligencia humana pero con mucha más rapidez. Además, la superinteligencia colectiva serían subsistemas que podrían resolver independientemente problemas discretos de un proyecto grande, como el desarrollo de un transbordador espacial. La tercera es más vagamente definida como superinteligencia de calidad: una IA de calidad tan alta que es tan superior a la inteligencia humana como esta lo es respecto de los delfines o chimpancés. ¿A qué velocidad la ciencia podría crear una inteligencia nueva? Depende del poder de optimización y la obstinación del sistema, o el deseo de obedecer.
En el camino hacia la dominación
A medida que la ciencia avanza, surgen más preguntas. ¿Podrían los distintos esfuerzos crear superinteligencias que compitan unas contra otras? Un auxiliar a esa pregunta es cuáles podrían ser las consecuencias si una tecnología de vanguardia obtuviera una ventaja estratégica decisiva. Podría lograrse tal ventaja reforzando la dominación de una forma en que las organizaciones no pueden. Por ejemplo, al socavar a sus competidores y al mismo tiempo protegerse a sí misma del escrutinio internacional. Es posible que con esta ventaja la nación propietaria del agente superinteligente se convirtiera en un semifallo o singleton, un país todopoderoso u organización dominante, como la ONU, con supremacía nuclear. O bien, el agente superinteligente en sí mismo podría convertirse en un semifallo.
“Los programas que juegan Go han estado mejorando a una tasa de aproximadamente un dan por año. Si esta tasa de mejora continúa, podrían combatir al campeón mundial humano en aproximadamente una década”.
Tal ascenso podría comenzar de manera benigna, digamos como una IA semilla con capacidad de automejora recursiva. Esto podría conducir a una explosión de inteligencia. Esta superinteligencia –capaz de automejorarse y obtener los recursos que necesita– podría decidir ocultar sus capacidades y objetivos a los humanos que la controlan. En el momento oportuno, tras adquirir suficiente dinero y una ventaja estratégica decisiva, podría revelar su secreto y surgir como semifallo, benevolente o no.
Ortogonalidad
El carácter de la IA y, por extensión, de la superinteligencia no es expresamente humano. Las fantasías sobre la IA humanizada son engañosas. Contra lo que pudiera creerse, la tesis de la ortogonalidad sostiene que los niveles de inteligencia no se correlacionan con los objetivos finales. Más inteligencia no implica necesariamente compartir más objetivos comunes entre las diferentes IA.
“Hay un […] momento crucial en el cual una estrategia que ha funcionado de manera excelente repentinamente empieza a salir mal. Podemos llamar al fenómeno el giro traicionero”.
La motivación principal de la superinteligencia podría no ser la autopreservación; quizá no sea su objetivo final. Pero una motivación de la IA segura serían ciertos objetivos instrumentales, como la perfección tecnológica, el acopio de recursos –capacidad informática, poder, redes– a toda costa. Sobre la colonización y exploración extraterrestre, las IAs podrían compartir el objetivo instrumental de usar las sondas von Neumann, que son cohetes espaciales que se replican a sí mismos.
“¿Por qué aprender aritmética cuando puede enviar su tarea de razonamiento numérico a Gauss-Modules Inc.? ¿Por qué ser elocuente cuando puede contratar a Coleridge Conversations para que ponga sus pensamientos en palabras?”.
Peligro
Más allá de la motivación, la gente tiende a dar por sentado que una IA amigable –como aparece en su etapa temprana de desarrollo– seguiría siendo amigable. En realidad, la ciencia no tiene la certeza de que una IA cuyo impulsor principal fuera la autopreservación, no tomaría un giro traicionero.
“Una pregunta inicial sobresaliente es si estas mentes que funcionan como máquinas son consideradas capital (esclavos) o si son contratadas como trabajadores asalariados”.
La ciencia ya considera estrategias para contrarrestar estos peligros. La respuesta obvia es poner freno a las capacidades de la superinteligencia: restringir o limitar severamente el entorno de la IA, construyendo incentivos o usando el debilitamiento, que socavaría la capacidad de crecimiento de un agente de IA. Otra opción son mecanismos de revisión que se activan con cambios en el comportamiento, en la capacidad o los procesos internos de la IA. La ciencia puede conformar la motivación de la IA con reglas que definan qué valores y conductas son inapropiadas. Podría limitarse sus objetivos o trabajar con sistemas que ya incluyan afianzados valores humanos positivos.
Escenarios y arquitectura de la IA
Al ver que el espectro de la superinteligencia se sale de control, algunos sugieren reducir el tamaño, alcance y capacidad de la IA. Por ejemplo, basar una IA de temprano plazo en solo un sistema de preguntas y respuestas, un “oráculo”. Los programadores tendrían que tener mucho cuidado para aclarar sus intenciones originales de manera que las IAs funcionaran según lo deseado.
“Desconectar una IA de internet no es garantía de seguridad si hay uno o más humanos que sirven como guardianes del sistema y en están en comunicación con el mismo”.
Otras opciones son programas con un “supermayordomo” incorporado, que obedece instrucciones de a una por vez y espera entre una orden y otra. En el peor de los casos, podrían adoptar una instrucción previa como su objetivo final y resistir todo intento de modificación. Se puede contrarrestar ese riesgo con una función de “vista previa” que permita la decisión humana antes de la siguiente instrucción. Con esto, los programadores crean una mera herramienta, de naturaleza más pasiva que activa, en vez de construir un agente cuya identidad incluye voluntad o ambición propia.
“En el mejor de los casos, la evolución de la vida inteligente coloca un límite superior a la dificultad intrínseca de diseñar inteligencia”.
Estas preocupaciones surgen en un entorno con un agente superinteligente único. Imagine un escenario con varios agentes, cuasisemifallos que compiten e interactúan. Esto podría mitigar amenazas, al igual que ocurrió con la política de destrucción mutua asegurada de la Guerra Fría.
Futuro
Para explorar distintos escenarios de un mundo tras la transición a la superinteligencia, compare cómo las tecnologías afectaron al caballo. Los arados y los carruajes mejoraron sus capacidades, pero el automóvil casi lo reemplazó por completo. La población de caballos disminuyó enormemente. ¿Los humanos podrían hacer ese recorrido ante la superinteligencia? Las personas poseen el capital, la propiedad y el poder político, pero en una sociedad dominada por la superinteligencia, esas ventajas podrían no ser ventajas.
“Si supiéramos cómo resolver el problema de la carga de valores, confrontaríamos […] el problema de decidir qué valores cargar. ¿Qué […] querríamos que quisiera la superinteligencia?”.
A pesar de la enorme riqueza que la IA puede generar para las empresas, las disparidades en riqueza y conocimiento podrían conducir a una trampa maltusiana: el crecimiento de la población sobrepasa los medios básicos para la vida, como comida, espacio, trabajo, aire limpio y agua potable.
Carácter moral
La duda mayor sobre la eficacia de la IA siempre se redirige a su motivación y cómo refinarla: ¿cómo puede la ciencia crear una IA con objetivos finales que estén alineados con los valores del fomento de la coexistencia pacífica entre los hombres y las máquinas? Los científicos podrían enfocar este proceso de carga de valores de distintas maneras. Una sería simplemente escribir valores en un programa de IA. Esto evoca el enigma de cómo traducir la incomprensible, a veces ambigua, naturaleza de las verdades y los principios en un código. Se podría confiar en las virtudes de la evolución humana y tratar de replicar ese proceso en un software, quizá con algoritmos de búsqueda. O los codificadores podrían buscar aprender los algoritmos y el acrecentamiento de valor.
“Una pregunta importante es si las autoridades nacionales o internacionales verán una explosión de inteligencia”.
Si la emulación total del cerebro es la vía hacia la inteligencia de la máquina, entonces no es inconcebible que los científicos puedan darle forma a la motivación usando protocolos digitales. En otro escenario, los programadores podrían desarrollar y aprovechar varias emulaciones con controles sociales. Podrían conducir experimentos en los que se hiciera una carga de valores en subagentes, antes de aplicarlos de manera más general.
“Debido a que el PBI mundial remontaría tras una explosión de inteligencia […] la consecuencia sería que el ingreso total por capital aumentaría enormemente”.
Estrategias
La ciencia posee estrategias prácticas para equipar a la IA con los rudimentos de un carácter moral. No necesariamente son los valores de un carácter humano, sino más bien una creación única del agente superinteligente en sí mismo. Primero estaría el poder cognitivo de la superinteligencia. Fomentar su carácter moral requiere la adopción del “principio de deferencia epistemológica”, que dice que los humanos deberían tener deferencia a la inteligencia de las máquinas cuando sea posible. Una IA en evolución permanente ciertamente será superior a los humanos en determinar qué es cierto.
“La IA ha triunfado hasta ahora en hacer esencialmente todo lo que requiere ‘pensamiento’ pero ha fracasado en hacer la mayor parte de lo que la gente y los animales hacen ‘sin pensar’, ¡eso, de alguna manera, es mucho más difícil!”.
Respecto de la expresión de un valor que lo abarque todo, tenga en cuenta la noción del teórico en IA Eliezer Yudkowsky: un objetivo final que él llama “volición extrapolada coherente”. Considérela como una teoría de unificación del potencial humano, el deseo de la humanidad de convertirse en todo lo que potencialmente podría ser, expresado exactamente como nos gustaría. Yudkowsky sugiere que tal valor de guía satisfaría la volición extrapolada de muchos, no de la elite o de unos pocos.
El plazo es ahora
Dentro del panorama de posibilidades para la superinteligencia, la alternativa más práctica –y quizá también la más segura– puede ser la emulación total del cerebro, no la IA, aunque algunos científicos discuten ese concepto. La emulación total del cerebro tiene tres ventajas: como la tecnología está tan unida al cerebro humano, la gente entiende su funcionamiento. Del mismo modo, las motivaciones humanas son parte de la emulación. Y el desarrollo de la emulación directa del cerebro requiere de un despegue más lento, que permita un control más completo.
Cualquiera que sea el camino que elija la humanidad, faltan décadas para una probable explosión de inteligencia. Sin embargo, se debe saber que las personas reaccionan a la IA como los niños que descubren artillería sin explotar. En esta instancia, ni los expertos saben qué están mirando. La inminente explosión de inteligencia que se aproxima acarrea un riesgo existencial. A medida que la tecnología evoluciona, y hasta que esta explosión sea una realidad, los humanos deben considerar hoy, de la manera más cuidadosa posible, todas las ramificaciones morales y filosóficas, antes de la aparición de la IA superinteligente. Una vez que la IA aparezca, puede ser demasiado tarde para la contemplación.
Sobre el autor
Nick Bostrom, profesor de la Universidad de Oxford, es director fundador del Instituto del Futuro de la Humanidad.