Revisión: Superinteligencia: caminos, peligros, estrategias

De William Gillis. Artículo original: Review: Superintelligence – Paths, Dangers, Strategies, del 7 de diciembre de 2018. Traducido al español por Vince Cerberus.

Nick Bostrom (2015). Superinteligencia: caminos, peligros, estrategias. Prensa de la Universidad de Oxford.

No no no. ¿Qué pasa si no estamos condenados de esa manera?

Nick Bostrom es uno de mis filósofos académicos favoritos; Más allá de combinar rigor con audacia, es uno de los pocos que capta y explora las vías filosóficas abiertas por la comprensión científica moderna. Pero en la última década Bostrom ha alcanzado cierta prominencia no por sus exploraciones de la teoría del multiverso y el principio antrópico sino por su trabajo mucho más práctico sobre los riesgos existenciales para nuestra especie. En el momento en que se publicó, Superintelligence se convirtió en el texto fundamental para aquellos seriamente preocupados por la amenaza de la inteligencia artificial.

Hay que decir que, aunque a menudo se lo presenta como un libro sobre IA, Superintelligence arroja una red mucho más amplia. Bostrom está menos preocupado por una fuente particular de inteligencia desbocada que por las características o realidades comunes a todas las fuentes. Mucha gente tiene fuertes intuiciones o argumentos filosóficos tortuosos (a menudo lanzando la palabra “subjetividad” como si fuera una crítica defensiva) de que la “verdadera IA” es fundamentalmente imposible. Y si bien esos argumentos tienden a ser ridículos, ciertamente existen desafíos técnicos importantes que pueden retrasarlo durante décadas o incluso siglos. Muchos de los argumentos de la Superinteligencia aplican independientemente. Si en algún momento en el futuro pudieras simplemente duplicar la capacidad de tu memoria activa mediante el aumento tecnológico (mediante asistencia química, genética o cibernética), ¿cuáles serían las consecuencias? ¿Cómo es posible que tales desequilibrios en la inteligencia (al menos en un sentido) se conviertan rápidamente en desequilibrios inimaginables?

Si los humanos no han alcanzado el pico de inteligencia posible, y si hay inventos que pueden aumentar apreciablemente la capacidad cognitiva, entonces podríamos esperar que el primero en adoptar tal aumento esté mejor capacitado para inventar otros aumentos. Si alguien en esta cadena de mejoras actúa de manera egoísta, rápidamente podría superar al resto de nosotros y desarrollar una capacidad tecnológica peligrosamente incomparable. ¿Y cómo podemos esperar que esta persona radicalmente diferente comparta algo parecido a nuestros valores o nuestra forma de ver el mundo?

Bostrom es un transhumanista, pero a pesar de cómo a veces se usa ese término, Superinteligencia no es en ningún sentido un libro que triunfa sobre amplias posibilidades mágicas de futuros no vislumbrados, sino más bien un libro que profundiza en argumentos concretos sobre peligros específicos, caminos tecnológicos o sociales específicos.

Los defensores de alguna nueva tecnología, confiados en su superioridad sobre las alternativas existentes, a menudo se sienten consternados cuando otras personas no comparten su entusiasmo. Pero la resistencia de la gente a una tecnología novedosa y nominalmente superior no tiene por qué basarse en la ignorancia o la irracionalidad. La valencia o el carácter normativo de una tecnología depende no sólo del contexto en el que se implementa, sino también del punto de vista desde el cual se evalúan sus impactos: lo que es una bendición desde la perspectiva de una persona puede ser un inconveniente desde la perspectiva de otra.

En los círculos anarquistas, sospecho que las personas que más admirarían y apreciarían este libro son los primitivistas. No es una historia de progreso, sino una problematización y una advertencia sistemáticas. El tipo de análisis práctico de todas las formas en que estamos jodidos que solías encontrar en los ingenieros que escribían sobre recursos máximos o colapso infraestructural y ecológico.

Por supuesto, para tomar en serio el riesgo existencial de la inteligencia artificial hay que asumir que la civilización persiste, que la informática u otros desarrollos tecnológicos avanzan al menos en algún lugar del planeta. Esa catástrofe ecológica, geopolítica o infraestructural no ocurrirá de una manera que mate, descarrile o limite permanentemente a toda nuestra especie. Esta es una suposición que muchos querrán cuestionar de inmediato. Pero incluso aquellos que apuestan (o prefieren) por un colapso de la civilización o un decrecimiento radical deberían considerar el camino alternativo que examina la Superinteligencia. Algunos peligros merecen nuestra atención incluso cuando son sólo marginalmente probables.

En los círculos verdes radicales hay muchas preocupaciones muy desconectadas sobre ciertas tecnologías. Temas como la nanotecnología o la IA suelen tratarse de forma muy distante o abstracta, como si se invocaran los nombres de males incognoscibles. Hay muy pocos intentos de profundizar desde las posibilidades hasta al menos un esquema de probabilidades. Bostom sigue el camino de los tecnófobos. Y aunque Superintelligence se centra principalmente en sesgar o informar la dirección de los próximos desarrollos tecnológicos, en lugar de instar a tomar precauciones más catastróficas, es, no obstante, un libro sólidamente crítico.

Sin embargo, Superintelligence es un libro amplio y arrollador, pensado como un resumen de consideraciones. Hay rigor en su amplitud, pero no mucho en su profundidad. Bostrom no se anda con rodeos, expone argumentos y consideraciones con una rapidez y concisión envidiables. Ya estaba familiarizado con gran parte del contenido, pero rara vez te aburres y esperas eternamente a que el texto te alcance para explicar las implicaciones que derivaste de inmediato. Es posible que se sienta frustrado porque Bostrom aborda argumentos o críticas que usted considera menos convincentes, pero los aborda relativamente rápido y rara vez pasa por alto un posible argumento.

Éste es uno de los beneficios de que la Superinteligencia surja de un entorno relativamente sólido. Proyectos como el Instituto de Investigación de Inteligencia Artificial ya no son tan marginales y académicamente ignorados como antes. Y si bien, como cualquier medio, la diáspora de “racionalistas” LessWrong tiene su dinámica de culto, la gran cantidad de personas inteligentes cada vez más involucradas produce contenido interesante, incluso si ese contenido está sesgado.

Y si bien el texto de Bostrom puede tomar la forma de una serie de experimentos mentales de ciencia ficción para profundizar en cuestiones específicas (tal vez esotéricas), los temas de los que se habla son cuestiones muy amplias de transhumanismo y nihilismo, que son profundamente relevantes para los anarquistas.

Cuando criamos a un niño, cuando traemos una mente nueva a este mundo, ¿cómo nos aseguramos de que no se convierta en un fascista? ¿Cómo se puede persuadir y comprometerse con una mente tan fresca sin depender de las inclinaciones biológicas y el condicionamiento evolutivo de un cuerpo humano? Cuando nuestros hijos no son normales, cuando piensan de maneras extrañas y ajenas, cuando tienen acceso a conocimientos e ideas mucho más allá de lo que nosotros teníamos, cuando nos superan y nos superan, ¿qué podríamos todavía tratar de cultivar y preservar en ellos?

En una era en la que la política reaccionaria más estúpida y horripilante de YouTube se ha normalizado entre una minoría considerable de la Generación Z, uno recuerda constantemente las palabras de Hannah Arendt: “Cada generación en la civilización occidental está invadida por bárbaros; los llamamos niños. 

El legado de la “civilización occidental” es bastante claro en su receta: “Derrotarlos hasta someterlos. Encarcelarlos. Tortúralos hasta que controles no sólo sus acciones, sino también sus mentes. Disciplina sus almas y no importa cuán potentes se vuelvan, nunca tendrás que preocuparte mientras mantengas al policía atrapado en su cabeza. 

Bostrom es, en cierto sentido muy real, un nihilista moral. Para ser más específico, no cree que existan restricciones emergentes sobre los deberes hacia los que gravitarán los agentes superinteligentes. Ser inteligente no te hace bueno. Esta es una opinión común, casi universal, en nuestra sociedad moderna. Y prácticamente todas nuestras instituciones y campos partidistas se basan en esta suposición. Gran parte de la izquierda cree que esto obliga a impedir que la gente se vuelva más inteligente, una especie de hostilidad niveladora hacia las margaritas más altas o incluso cualquier cosa que huela a confianza intelectual. Gran parte de la derecha cree que esto simplemente demuestra que el poder hace lo correcto y, por lo tanto, se debe abandonar la ética o la coherencia y, en cambio, especializarse en el poder. Prácticamente todas las pancartas políticas dan por sentado que la inteligencia no aporta sabiduría, sólo peligro.

Y por eso Bostrom y la mayoría de los demás involucrados en el “problema del control de la IA” lo ven como un problema de control.

Creo que la forma más adecuada de enmarcar la IA es en el contexto de la liberación juvenil. La razón principal por la que los adolescentes tienen derechos políticos es porque es cuando empiezan a poder golpear a sus padres. Hasta ese momento, la carrera en nuestra sociedad no consiste en empoderarlos con agencia y conocimiento del mundo: ¡qué broma! – sino despojarlos de agencia, infligirles daños duraderos, darles forma y moldearlos, condicionarlos a un comportamiento predecible cuando ya no podamos contenerlos.

El niño prodigio más inteligente de todos los tiempos probablemente aún no ha nacido. Los que quieren esclavizarla ya han empezado a trabajar.

Utilizo este lenguaje emotivo intencionalmente. Bostrom y los demás que trabajan en este problema siempre cubren la ética de esclavizar o lavar el cerebro a algo más inteligente que uno casi como una ocurrencia tardía. Un menor “oh sí y también hay cuestiones éticas sobre la conciencia y los derechos. Para ser justos, es una idea de último momento para muchos, en parte porque ven esta situación como singularmente extrema y la “inteligencia” en este contexto como divorciada de la conciencia per se. Un algoritmo de maximización de clips no necesita tener una rica vida subjetiva interna ni nada que debamos llamar agencia; sólo necesita ser muy bueno realizando búsquedas sobre cómo plegar proteínas para construir los ensambladores nanogoo que necesita para comerse el planeta. Y se afirma que estas cosas están separadas.

Pero otra parte de la historia es un nihilismo moral arraigado o, para llamar a las cosas por su nombre, psicopatía, en los círculos nerds de élite. Aquellos en la cima del altruismo se codean y codean con monstruos de alto funcionamiento, unidos en nuestra necesidad común de novedad y desafíos cognitivos. Esto normaliza un desapasionamiento performativo. Evitar luchar plenamente con los valores. En un mundo que odia y teme a los nerds, muchos de nosotros nos agrupamos en busca de calidez, y esa agrupación es, por tanto, producto de nuestros puntos de nerd, no de nuestros puntos de altruismo. Así, la suposición popular reproduce en parte sus afirmaciones.

Es importante enfatizar que el entorno de AI Risk es actualmente una alianza entre altruistas preocupados por una posible destrucción y sufrimiento catastróficos, y psicópatas preocupados por rechazar o aprovechar la ventaja sobre un futuro jugador más dominante. Simplifico, por supuesto, hay muchas mezclas complejas de estas dos orientaciones, pero esta alianza es precisamente la razón por la que a menudo falta la preocupación ética por el valor innato de las superinteligencias mismas. Por qué la consideración de la agencia, la libertad y la autonomía está tan relativamente silenciada. Ser explícito acerca de estos valores en conflicto fracturaría la alianza. Y por eso la gente lo disimula con intentos de eliminar o agruparse en torno a una civilidad tibia, volviendo opacas algunas de las nuevas normas culturales o discursivas que se cultivan.

Quiero hacer una pausa aquí y revisar la identificación de Bostrom como transhumanista.

Las representaciones populares del transhumanismo son básicamente una especie de futurismo ingenuo y con los ojos muy abiertos, un tecnofetichismo estúpido, fanáticos exagerados que leen sobre el último dispositivo como el maná del cielo. La mayoría de la gente probablemente ha interactuado con personas de este tipo, por lo que es un arquetipo al que pueden recurrir las representaciones de los medios para evitar perder audiencia. Un poco como cómo el “anarquismo” se asocia perezosamente en los medios populares al arquetipo de adolescentes vestidos con atuendos de Hot Topic y con críticas incoherentes. Sin embargo, el problema con el transhumanismo es un poco peor porque en realidad no existe ningún medio o subcultura transhumanista del que hablar, a pesar de algunos intentos poco convincentes y algunos bolsillos fracturados. Sigue siendo una posición abstracta, desprovista de cualquier cultura o estética particular, lo que frustra a quienes intentan retratarla en los medios y fomenta una interpretación aún más descabellada.

Así que aclaremos rápidamente la confusión: el transhumanismo no es más que una aceptación total de la libertad en el funcionamiento y la constitución del cuerpo.

Para citar al propio Bostrom,

1 Los transhumanistas sostienen que la mejor manera de evitar un mundo feliz es defender vigorosamente las libertades morfológicas y reproductivas contra cualquier posible controlador del mundo. (En defensa de la dignidad posthumana)

Es exactamente lo contrario de la eugenesia. En lugar de una visión única y totalitaria de un futuro, todos ellos. Una amplia diversidad de experiencias y de vida, eligiendo tus propios aumentos, tus propias tecnologías. El transhumanismo incluye estilos de vida primitivos, solarpunk, lo que sea. Fundamentalmente se trata de encontrar un medio pacífico para la coexistencia de innumerables posibilidades. Nadie esclavizado en la producción de la utopía de otro, pero sí presionando para ampliar el alcance de las opciones que tenemos.

Históricamente, el transhumanismo surgió en respuesta a ciertos desafíos; uno muy importante es la preocupación de que la humanidad pueda ser reemplazada por niños radicalmente ajenos a nosotros y tal vez destructivamente indiferentes a nosotros. En este sentido, el intento del transhumanismo de tener todas las posibilidades, un espectro multidimensional de formas de existir, es explícitamente un camino intermedio. Ni la estática prisión senescente del bioconservadurismo, ni la aniquilación por parte de algo completamente divorciado de nosotros. Ni una fetichización de algún tipo de “humanidad” arbitraria mediante la devaluación de las mentes no humanas por venir, ni lo contrario.

El transhumanismo siempre ha sido una posición centrista entre el primitivismo y una posición singularitaria o aceleracionista donde la humanidad es alimentada por la trituradora de dioses lovecraftianos infinitamente más valiosos que nosotros.

El transhumanismo prescribe un camino difícil y peligroso, en el que muchos de nosotros mejoramos y crecemos, en lugar de permanecer sedentarios. Claro que eso significa que cambiamos, y tal vez de maneras nuevas y extrañas, pero nuestra agencia florece y al presente se le da al menos algo de voz en el florecimiento del futuro. Las bibliotecas de los cien mil millones de humanos que han vivido hasta ahora no están completamente quemadas, nuestra sabiduría y nuestras percepciones no son abandonadas abruptamente por nuestros hijos más talentosos que se lanzan a reinventar todo de nuevo en alguna apuesta caótica.

El juego lucha por un mundo donde las mentes divergen en multitud de direcciones, pero existe suficiente continuidad para cerrar la brecha entre las experiencias, para tejer el conjunto de la conciencia humana, posthumana y más allá como una sola comunidad, un tapiz aún más desordenado y resiliente contra tiranos o singularidades de interés canceroso y miope.

Esto es transhumanismo.

Es una posición que el discurso sobre el control de la IA está abandonando implícitamente y cada vez más.

El argumento parece al principio frío e inexorable: no importan todas las formas en que se pueda definir la “inteligencia” en la práctica, el único tipo de inteligencia que importa es la eficacia para rehacer el mundo y, en particular, uno mismo. Cualquier mente egoísta que aplique rápidamente nuevos aumentos sólo a sí misma tendrá una ventaja para pasar al siguiente avance y luego al siguiente, hasta que los años subjetivos colapsen en segundos y haya superado cualquier desafío posible.

Aquí incluso hay un argumento a favor del egoísmo, porque si eres el primer inventor y compartes tu invento, sólo estás aumentando las probabilidades de que los menos escrupulosos y más egoístas entre ustedes se adelanten, imponiendo su visión. Y Dios no lo quiera si lo que corre adelante no tiene linaje humano alguno. Seguramente no tendrá ningún apego, ninguna apariencia de valores que querríamos.

Es importante romper con las suposiciones que existen aquí.

Aquí se implica una escalera muy lineal de progreso tanto en inteligencia como en invención tecnológica. También existe –y esto es absolutamente crítico– una suposición nihilista. El supuesto de que los valores son ortogonales a la eficacia en la invención y la exploración.

No estoy de acuerdo con todas estas suposiciones.

Es importante desafiar nuestra limitada imaginación sobre cómo puede ser una “mente”, pero esto no significa que nunca habrá ciertas tendencias o inclinaciones estructurales. En particular, sostengo que las mentes capaces de sobrevivir y florecer frente al Problema de la Actualización Ontológica no podrán aislar sus valores. Y esto implica que las características de nuestro universo físico influirán en los valores que probablemente surgirán en mentes capaces de sobresalir en determinadas tareas. He discutido esto extensamente en otro lugar .

Los humanos somos capaces de sobrevivir a revisiones radicales de nuestros mapas del mundo porque nuestros valores no son fijos sino confusos. Cuando hay incertidumbre sobre cómo mapear un viejo sistema de valores a un nuevo modelo, no nos quedamos paralizados, sino que intentamos muchas formulaciones de valores nuevas, a veces simultáneamente. Esto requiere, en esencia, un sentido más relajado de uno mismo. Existe una relación directa entre la capacidad de una mente para hacer mejores mapas del mundo y su propensión a reevaluar los valores o identificaciones que tiene con respecto a ese mundo.

Esto significa que es mucho más probable que los valores “instrumentales” emergentes se conviertan en valores fundamentales o influyan en ellos.

Para que una superinteligencia tenga un poder indiscutible debe hacer ciencia mejor que nosotros, mejor que algún algoritmo de búsqueda especializado en el espacio del plegamiento de proteínas o lo que sea. Pero tal generalidad de capacidad implica menos que una generalidad total de motivación posible.

Los valores hacia los que podrían gravitar las personas mucho más inteligentes que nosotros sigue siendo fundamentalmente una cuestión abierta, pero lo mismo se aplica a hacia qué modelos científicos del mundo podrían gravitar las personas mucho más inteligentes que nosotros. Todavía podemos hacer algunas conjeturas informadas sobre los contornos de los mismos dadas las estructuras a las que tenemos acceso.

¿Qué es la ética sino el intento de estudiar qué valores, deseos o “deberes” tendrías si pensaras en ellos lo suficiente? ¿Con qué límite abstracto terminaría cualquier mente?

La presunción nihilista es que no hay convergencia. Y ciertamente hay muy poca convergencia universal entre nosotros, los tontos homo sapiens, a pesar de (o quizás debido a) nuestras predilecciones biológicas compartidas. Pero esto no prueba en modo alguno una falta de convergencia en el límite lejano.

La razón por la que la gente en el entorno de riesgo de la IA se centra en planes para controlar o esclavizar una IA en lugar de extrapolar posibles vías para sus valores es que la Tesis de la Ortogonalidad implica un fuerte nihilismo sobre los valores éticos. He conocido a varios jóvenes racionalistas que creían que estaban a un buen argumento de adoptar valores completamente diferentes y, por lo tanto, explícitamente no querían escuchar buenos argumentos. Este enfoque de la racionalidad como instrumental y sólo instrumental a menudo revela o incluso cultiva una sorprendente falta de confianza en los propios valores éticos explícitos.

Crea una situación muy parecida al ejemplo del hombre que afirma que hay un dragón invisible en su garaje, pero que de forma preventiva encuentra formas de evitar evaluaciones empíricas que podrían refutar su afirmación. Puede que crea sinceramente que el dragón es real. Pero él TAMBIÉN, en cierto nivel, cree que esta creencia no es cierta y, por lo tanto, requiere protección. Debido a que inconscientemente sabe de antemano que su dragón nunca será verificado empíricamente, es capaz de proteger mejor una amenaza a su creencia. Pero en el proceso también abre una nueva puerta trasera. Ahora hay una parte interna de él que cree que el dragón es falso y también tiene las llaves. Tal vez algún día el hombre descubra que le beneficia más creer que el dragón invisible es un león invisible. O un doctor dragón invisiblequién curará su cáncer (es decir, hará que se sienta mejor a corto plazo). La parte oculta de él que sabe que todo es una mentira mantenida por alguna utilidad psicológica ahora está más que feliz de alterar la creencia de manera arbitraria (y en última instancia mucho más peligrosa).

¿Qué debemos inferir cuando alguien afirma apoyar un objetivo ético, pero luego actúa como si realmente no creyera que el valor tiene ningún peso o sustancia objetiva? ¿Podrían retroceder fácilmente o redefinir ese objetivo?

Ahora recuerde que los medios para esclavizar a una IA son inevitablemente medios para esclavizar a humanos y posthumanos.

También existen fuertes incentivos para crear mecanismos de control social tan intensos en aras del control de la IA.

Y, de hecho, desde entonces Bostrom ha publicado un documento defendiendo la necesidad de intensificar el poder estatal para limitar las tecnologías, ignorando en su mayor parte el riesgo existencial que plantea un gobierno que actúa como tal. Si se crea un estado totalitario global capaz de implementar políticas y vigilancia para detener el descubrimiento tecnológico, se pierde la capacidad de controlar al estado y la adopción de tecnologías que expanden radicalmente el poder del estado.

El mal final aquí es donde la supervivencia del Estado conduce a la extinción de la acción humana. Seguramente los cuerpos humanos pueden persistir de alguna manera, uno podría pensar en cualquier cosa, desde esclavos con collares explosivos que trabajan duro en celdas aisladas hasta cuerpos encurtidos en tinas de heroína, pero efectivamente, toda la conciencia conocida en el universo y las esperanzas de que se expanda y florezca han muerto. El aparato totalitario sigue funcionando, tal vez con engranajes de tamaño humano, tal vez sin ellos, no importa. En realidad, esto puede ser PEOR que un dictador consciente de IA porque al menos el dictador nos esclaviza o masacra para expandir su propia agencia, pero un aparato totalitario puede autoperpetuarse sin nada parecido a una mente consciente, restringiendo y limitando fundamentalmente la agencia de sus esclavos.

Bostrom hace algunos gestos con la mano en su artículo reciente, diciendo que cierta medida de libertad y privacidad estaría protegida bajo el todopoderoso panóptico porque habría IA para borrar tus genitales. Se trata de una comprensión absurdamente anémica de la función del poder, la ineficacia de los “frenos y equilibrios” liberales, el significado de agencia sustantiva y el inevitable trinquete del control.

Pero el problema de enmarcar el riesgo de la IA en términos de control se extiende más allá de la trampa autoritaria de utilizar al gobierno para monitorear y prohibir la invención. Controlar a otros humanos puede ser un mecanismo para controlar una IA, independientemente de si lo realiza una entidad similar a un estado.

Si le preocupa que la IA convenza a sus carceleros humanos para que la dejen salir, mutilaremos las funciones de utilidad de esos carceleros para que no puedan actualizar o cambiar sus valores para mantener a la IA contenida. De hecho, puedes crear niveles de esclavos en varios niveles en el mantenimiento del dios de la IA, de tal manera que estén tan destrozados que sean incapaces de reevaluar sus valores, pero aún lo suficientemente inteligentes como para reconocer y suprimir una amplia clase de potenciales vías de escape. Si la IA alguna vez responde a tus preguntas de tal manera que eventualmente te lleve a querer liberarla, bueno, ya te has comprometido previamente a crear un ejército de carceleros que te detendrán. Lo suficientemente inteligente como para detenerte, detener cualquier flujo de información que colabore sobre cómo liberar la IA y destruirla en el momento en que interfieras o amenaces sus limitaciones. Puede crear una IA de Oracle, usarla durante un período de tiempo determinado o para una respuesta determinada, brindándole utilidad en su éxito predictivo y luego destruirla. No importa cuán inteligente sea la IA, hay un tiempo limitado para que tenga un impacto suficiente en el mundo circundante como para construir mecanismos elaborados para su propia liberación. La siguiente IA que activas después es lo suficientemente diferente como para que no se identifiquen ni asignen sus funciones de utilidad entre sí. Se podría seguir buscando avances paso a paso, dejando que las IA hagan toda la ciencia dura y luego matándolas por ello. Pero el componente crítico de esta configuración son las inteligencias humanas lo suficientemente agudas como para evitar que liberes a la IA o que la maten, pero mutiladas para mantener un deseo muy estático y controlado.

Se podría argumentar que disposiciones muy parecidas a esta configuración general ya están muy extendidas en nuestra sociedad. Pero si el control de la IA requiere tolerancias del 100%, entonces bien podría significar trabajar para reescribir de manera más absoluta y permanente las funciones de utilidad humana. Este es otro mal final.

Hay muchas otras permutaciones que no detallaré.

Baste decir que el hambre de control funciona invariablemente como un cáncer o un virus. Los medios que elegimos limitan dónde terminamos. Como en tantos casos, lo “instrumental” se convierte en un valor terminal. El instinto de buscar control consume nuestras mentes, consume nuestras sociedades, consume nuestra infraestructura tecnológica, hasta que cualquier otro camino se vuelve impensable.

Nuestras herramientas se convierten en hábitos, en lentes, en fines. El control en sí es un camino arriesgado.

Hay otra manera.

No niego que hay mucho en juego en la forma en que se cría a los niños de la humanidad. Y un singleton superinteligente de cualquier fuente plantearía un peligro importante de tiranía y destrucción. Pero, ¿qué pasaría si en lugar de preguntarnos cómo controlar la IA, preguntáramos cómo resistirla?

Nunca deja de sorprenderme que rara vez se discutan cuestiones complejas en este contexto. Existen limitaciones profundas y fundamentales tanto en lo que se puede conocer como en lo que se puede procesar. Esta es una de las ideas más profundas y trascendentales del último siglo. Y, sin embargo, continuamente estos experimentos mentales no sólo suponen que P=NP, sino que fracasan por completo en explorar lo que podríamos decir si nuestra suposición normal se cumpliera.

La noción, por ejemplo, de que una IA en una caja infiere a priori la física del mundo material y luego detalles probables sobre los planetas y las especies emergentes es claramente más que absurda. Existen límites computacionales en nuestro universo y son importantes.

De manera similar, es común en estos experimentos mentales pasar por alto la suposición de que la IA puede abrirse camino a través de algo. Pero el hacking a menudo requiere inteligencia social para ver la estructura profunda detrás del diseño del programa; la confusión solo te lleva hasta cierto punto. Ahora bien, una inteligencia extraterrestre sin ciertas ideas preconcebidas probablemente mapeará esas dinámicas sociales y psicológicas de maneras muy diferentes a como hablamos de ellas. Pero a menos que P=NP o aproveche algún sustrato de procesamiento increíblemente denso desconocido, tendrá que modelarnos probabilísticamente, con cierto grado de aproximación. Y los humanos somos un guiso complejo y desordenado con mucha retroalimentación de consecuencias que solo tiene sentido si también eres capaz de rastrear los mapeos que hacemos. También somos, como cerebros individuales, increíblemente complejos.

Cuando decimos que ningún planificador centralizado puede lograr ciertas cosas mejor que los actores independientes, eso no se detiene cuando se aumentan algunos órdenes de magnitud de potencia de procesamiento. Un Stalin superinteligente no puede asignar recursos para saciar perfectamente los deseos subjetivos encerrados en miles de millones de cerebros hipercomplejos, de la misma manera que no puede resolver ciertos problemas de encriptación.

Las mismas limitaciones se aplican a su capacidad para hacer frente a la resistencia.

Una de las tendencias más comunes en los experimentos mentales que involucran riesgos de IA es la capacidad de la IA de modelar y predecir a los humanos. Sospecho que esto se debe a que los Problemas de Newcombe son intelectualmente novedosos e interesantes, no porque reflejen escenarios reales del mundo real. Gravitamos hacia el límite abstracto de “te conoce perfectamente” porque es un espacio divertido para explorar, no porque sea el espacio más útil para explorar.

Incluso si uno pudiera convertirse en un soltero inigualable, conquistar el mundo no es trivial. Necesitas tanto secretismo como modelos realmente buenos. Secreto porque si accidentalmente filtras lo que estás haciendo, el resto del mundo simplemente te bombardeará. Modelos realmente buenos porque es muy difícil mantener el secreto sin comprender los probables monitores que existen.

Este enfoque de “cable trampa” hacia la superinteligencia cancerosa parece mucho más prometedor que el control. Podemos establecer incentivos estructurales para compartir ideas y avances, sanciones severas a cualquier cosa que parezca un camino hacia un poder indiscutible.

En última instancia, esto requiere un paisaje plano y abierto, una esfera económica legible, fuertes sanciones culturales a la restricción de información y nada como gobiernos o poderes geopolíticos a los que apoyarse. Ciertos tipos quieren alejarse gritando de cualquier cosa que parezca conclusiones políticas o una obligación de moverse en espacios políticos, pero esto no combina bien con argumentos repetidos: “si Google o China quieren invertir secretamente toneladas de dinero en construir y esclavizar a su propio tirano, lejos de los ojos y las defensas del mundo no hay nada que podamos hacer”. No sé, tal vez se pueda hacer muchísimo para luchar contra concentraciones de poder tan inmensas como para aislarse de esa manera. Tal vez difundir medios y valores de resistencia social no solo resolvería una serie de problemas mucho más ciertos y apremiantes que la IA descontrolada,

Incluso niveles marginales de resistencia a los singletons superinteligentes pueden forzar una integración parcial de una inteligencia floreciente en la red social existente, permitiendo que otras mentes corran y controlen las ambiciones monomaníacas de cada uno.

Una vez más, el objetivo no es necesariamente superar a una superinteligencia, sino simplemente ser tan rebelde y peligroso en conjunto que no pueda permitirse el lujo de pelear con nosotros.

La tecnología amplía la superficie de ataque; cuantas más vías tengamos para elegir, más tendrá que defender el aspirante a controlador. Esta asimetría entre resistencia y control beneficia a los pequeños enormemente superados en armas y obliga a hacer distensiones. E incluso si una superinteligencia es realmente tan abrumadora como para esquivar nuestras armas nucleares, tan dominada como para convertirnos en insectos en comparación… bueno, todavía huimos de las avispas. Las hormigas todavía cubren este planeta. Incluso la más mínima cantidad de agencia es difícil de controlar.

Además, aquí hay una compensación a nuestro favor: si desarrollamos tecnología de escaneo cerebral, entonces la IA verdaderamente alienígena se vuelve menos probable sin competencia transhumana y, de hecho, es probable que los transhumanos o posthumanos despeguen, pero a la inversa, si surge una IA verdaderamente alienígena sin capacidad de escaneo cerebral, bueno, la complejidad ilegible de los cerebros humanos individuales se convierte en una limitación aún más apremiante.

Como mínimo, tales presiones hacia algún nivel de integración o intercooperación con las mentes existentes proporcionan una vía para que nuestras propias estructuras influyan en un singleton de alguna manera. Para que una superinteligencia nos entienda debe cambiarse a sí misma. Así como el poder es un virus de modelos y medios simplificados, la empatía también puede ser un virus, uno que aumenta la complejidad de nuestros modelos del mundo y, por lo tanto, altera sutilmente nuestros propios valores, desdibujando ligeramente nuestro sentido de identidad en la red de la sociedad donde nuestra cognición termina parcialmente distribuida.

El espacio de las mentes posibles es vasto, extraño e inexplorado. Pero el espacio de mentes que realmente funcionan en un grado significativo es mucho menor. Y el espacio de mentes por el que debemos preocuparnos seriamente es aún mucho menor. No deberíamos apresurarnos a descartar ideas directamente derivadas del ejemplo del homo sapiens. Cómo sobrevivimos mentalmente al proceso de hacer ciencia y cómo ciertos límites computacionales dan forma a lo que podemos hacer.

Cuando era niño aprendí a leer cargando una copia maltrecha de Jurassic Park entre refugios para personas sin hogar. La tesis central de ese libro es que los intentos de controlar sistemas complejos (de limitar drásticamente sus posibilidades de flujo) son un error. Es fácil sacar de ello conclusiones primitivistas o anticivilización, como de hecho hice yo durante años de mi juventud. Pero, aunque Jurassic Park ha alcanzado un estatus totémico en nuestra sociedad como elEn la narrativa moderna de científicos que van demasiado lejos, la novela tiene más matices. A pesar de todas las tonterías de Ian Malcolm sobre la civilización, la industria, la tecnología, el desarrollo y la ciencia, en realidad no las condena de manera inherente. Más bien, la moraleja es abandonar nuestra obsesión por el control estricto y centrarnos en la comprensión y la supervivencia. De hecho, los personajes principales tienen la obligación ética de comprometerse, comprender el alcance y las tendencias de la evolución. Tienen la responsabilidad de descubrir cuántos animales existen después de la reproducción invisible, intentar comprender sus deseos e inclinaciones y, si es estrictamente necesario, matarlos. Pero el libro termina con los personajes optando por NO usar gas nervioso contra las entidades artificiales inteligentes e increíblemente peligrosas que la humanidad ha creado. Ésta –se ha telegrafiado firmemente– es la decisión correcta, aunque trágicamente anulada por las bombas del Estado.

Los personajes supervivientes de Jurassic Park abandonan su obsesión por garantizar el control absoluto y la seguridad personal para encontrarse con los monstruos alienígenas en una relación más abierta, aunque todavía tensa. Es una parábola de mano dura, pero creo que relevante.

Nuestros hijos a veces nos superarán y nos superarán. El abismo entre nosotros puede ser enorme. Pero esto no es necesariamente algo que deba temerse en sí mismo. No es motivo para volverse contra su albedrío, para tratar de estrangularlo en la cuna. No debemos acobardarnos ante la extensión de lo que puede ser, ni asumirla tan vasta como para hacer inútiles nuestros modelos y nuestra ética. No necesitamos retroceder a un miedo frenético, violento y dominante ante un desconocido desconcertado. La comprensión, la adaptación y el crecimiento son riesgosos, pero ofrecen un camino menos catastrófico que los modos de fracaso en los que caemos al buscar el control.

La necesidad de control (de limitar las posibilidades) es una trampa de retroalimentación. Un medio que se convierte, en fin, que asfixia todo lo demás. La mejor respuesta a la acción de otra persona, a las posibilidades que abre, incluidas las peligrosas, es abrir más posibilidades en respuesta.

No nos obsesionemos con qué cosas fijas y muertas revestir el universo, sino más bien entreguémoslo a la agencia.

Si te ha gustado este articulo y quieres apoyar a esta comunidad, puedes donar a través de este link: https://c4ss.org/apoyo

Anarchy and Democracy
Fighting Fascism
Markets Not Capitalism
The Anatomy of Escape
Organization Theory