A mediados del 2018, escribí un artículo donde aún miraba la obsolescencia humana como un escenario posible pero lejano e invitaba a considerar seriamente las consecuencias del reemplazo del ser humano como la especie dominante de nuestro planeta como un simple ejercicio intelectual.
Debo admitir que en esas épocas incluso yo no tenía una auténtica y existencial preocupación por el tema, pero creo que estas últimas semanas me han demostrado que no solo debo retomar mi preocupación sino que tal vez tengo que pasar directamente a la etapa de aceptación porque tal vez ya estamos muy tarde para tomar acciones preventivas…
El inicio del terror
Mi miedo/fascinación por la rebelión de las máquinas comenzó hace mucho tiempo con las variadas historias de ciencia ficción que he consumido a lo largo de los años pero fue alrededor del 2015 que mis temores se tornaron dramáticamente más reales luego de leer Superintelligence: Paths, Dangers, Strategies de Nick Bostrom:
En este libro explica una multitud de posibles escenarios en los cuales el desarrollo mal planeado de las inteligencias artificiales podría resultar detrimental para la humanidad y plantea además una serie de posibles estrategias para reducir su impacto.
Ese sólo fue el inicio de una larga lista de otros libros y contenidos relacionados donde buscaba con creciente morbosidad los exactos detalles de los días finales de nuestra civilización.
Eventualmente fue un video de youtube llamado “Humans Need Not Apply” que cimentó firmemente mi creencia fundamentalista en el ciber-apocalipsis.
Con el pasar del tiempo y la aparente incapacidad de la humanidad de producir software competente (hasta el día de hoy Photoshop sigue colgándose sin buenos motivos) fui olvidando el tema lentamente, al menos como una amenaza real hasta que las primeras versiones de programas artísticos como Dall-E comenzaron a llenar las redes imágenes que en ese momento fueron más hilarantes que preocupantes. Esto cambió en cuestión de meses con la popularización de sistemas como MidJourny y Stable Difusion.
La existencia de estas herramientas es sin duda notable, pero el lanzamiento de GPT- 3 y 4 fue lo que finalmente me hizo recordar con renovado pavor mis temores robo-apocalípticos.
El final de la humanidad
Tengo la teoría que los humanos no vamos a crear la primera versión de lo que muchos llaman “AUTÉNTICA” inteligencia artificial (inserte aquí cual sea su definición favorita), al menos no en un futuro cercano.
El asunto es que no necesitamos hacerlo nosotros mismos, lo que sí vamos a crear es el paso anterior; un sistema que no vamos a entender del todo (y no va ser “inteligente” aún) pero que de todos modos va ser capaz de crear dicha super inteligencia. Esta a su vez tendrá la capacidad de recursivamente diseñar su propio reemplazo y ahí es donde se acaba nuestra historia.
Lo que muchos se preguntan lógicamente es: ¿cómo es posible que alguien pueda programar un sistema que no entiende?. Aquí un ejemplo relativamente simple, explicado con videojuegos:
El programa no está necesariamente creado para “GANAR” en Mario, está hecho para aprender cómo y qué es ganar, y ese proceso es básicamente impredecible por lo cual la manera en que finalmente logra cumplir su tarea es igualmente misteriosa.
Ese proceso impredecible y misterioso, dada su naturaleza, va crear eventualmente procedimientos totalmente inesperados que tienen el potencial de incrementar su eficiencia de forma drástica.
Aquí un ejemplo de esto (también con un robot jugando Mario):
Específicamente en el minuto 16:17, el programa ha aprendido a hacer un movimiento que pareciera que rompe todas las reglas del mismo juego, pero ahí está, un adelanto totalmente inesperado en su habilidad para completar tareas que va en contra de todas las nociones que un limitado humano hubiera considerado.
Creo que el primer sistema estilo GPT que sea creado y puesto a diseñar su propio sucesor eventualmente va dar un salto parecido.
Como lo mencionaba la investigación publicada hace no muchos días atrás, ni siquiera estamos seguros cómo exactamente es que estos sistemas hacen lo que hacen hoy. Imaginen cuando realmente suceda un incremento significativo.
Este salto brusco en las capacidades de un AI con la tarea de diseñar un AGI sería el principio del A.I. Take Off, el momento en que dejamos de ser la entidad más inteligente en nuestro propio planeta.
La secuencia de eventos posteriores a este punto no es dificil de imaginar.
Esa primera inteligencia post-humana probablemente también va diseñar una nuevo sistema que no entiende del todo para crear una nueva versión de sí misma. Y aquí ya estámos a 2 órdenes de magnitud separados de cualquier cosa que un humano puede comprender.
Una inteligencia con estas capacidades puede trivialmente dejar sin trabajo a un porcentaje significativo de la humanidad y sospecho que no todos vamos a poder cambiar nuestra profesión lo suficientemente rápido a granjero o constructor.
Y eso es en el mejor de los casos asumiendo que una entidad con semejantes poderes decida quedarse tranquila en la internet buscando fotos de gatos y esperando a que le demos órdenes para hacer nuestro trabajo.
Por otro lado resulta que, al menos en apariencia, los propios desarrolladores de nuestros potenciales verdugos están comenzando a pensar que tal vez crear hyper-humanos no es la mejor idea:
https://openai.com/blog/planning-for-agi-and-beyond
Esperemos que sus reparos morales no sean sobrescritos por fuerzas económicas externas.
En cualquier caso, si ustedes también quieren participar en un último intento de posponer el apocalipsis, aquí hay una carta de petición con firmas innegablemente interesantes:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Como siempre digo, la ciencia ficción no existe, solo son documentales antes de tiempo, y lastimosamente la gran mayoría de las narrativas dedicadas al despertar de las máquinas pintan un futuro poco favorable para nuestra especie.