El año es 2027. Los poderosos sistemas de inteligencia artificial se están volviendo más inteligentes que los humanos, y están causando estragos en el orden global. Los espías chinos han robado los secretos de IA de Estados Unidos, y la Casa Blanca se apresura a tomar represalias. Dentro de un laboratorio de IA líder, los ingenieros se asustan al descubrir que sus modelos están comenzando a engañarlos, lo que aumenta la posibilidad de que se vuelvan rebeldes.
Estas no son escenas de un guión de ciencia ficción. Son escenarios previstos por una organización sin fines de lucro en Berkeley, California, llamado AI Futures Project, que ha pasado el año pasado tratando de predecir cómo se verá el mundo en los próximos años, a medida que se desarrollan sistemas de IA cada vez más poderosos.
El proyecto está dirigido por Daniel Kokotajlo, un ex investigador de Operai que dejó la compañía el año pasado por sus preocupaciones de que estaba actuando imprudentemente.
Mientras estaba en Openai, donde estaba en el equipo de gobernanza, el Sr. Kokotajlo escribió informes internos detallados sobre cómo podría desarrollarse la carrera por la inteligencia general artificial, o AGI, un término difuso para la inteligencia de la máquina a nivel humano. Después de irse, se asoció con Eli Lifland, un investigador de IA que tenía un Huella de pronósticos con precisión eventos mundiales. Llegaron a trabajar tratando de predecir la próxima ola de AI.
El resultado es “AI 2027”, un informe y un sitio web Lanzado esta semana Eso describe, en un escenario ficticio detallado, lo que podría suceder si los sistemas de IA superan la inteligencia a nivel humano, que los autores esperan que suceda en los próximos dos o tres años.
“Predecimos que AIS continuará mejorando hasta el punto en que sean agentes completamente autónomos que son mejores que los humanos en todo a fines de 2027 más o menos”, dijo Kokotajlo en una entrevista reciente.
No hay escasez de especulaciones sobre la IA en estos días. San Francisco ha sido agarrado por AI Fervor, y la escena tecnológica del Área de la Bahía se ha convertido en una colección de tribus en guerra y sectas Splinter, cada una convencida de que sabe cómo se desarrollará el futuro.
Algunas predicciones de IA han tomado la forma de un manifiesto, como “Máquinas de gracia amorosa“, Un ensayo de 14,000 palabras escrito el año pasado por Dario Amodei, director ejecutivo de Anthrope, o”Conciencia situacional“, Un informe del ex investigador de OpenAi Leopold Aschenbrenner que fue ampliamente leído en los círculos de políticas.
Las personas en el Proyecto de Futuros de AI diseñaron el suyo como un escenario de pronóstico, esencialmente, una pieza de ciencia ficción rigurosamente investigada que utiliza sus mejores suposiciones sobre el futuro como puntos de la trama. El grupo pasó casi un año perfeccionando cientos de predicciones sobre AI, luego trajeron a un escritor, Scott Alexander, quien escribe el blog Astral Codex Ten, para ayudar a convertir su pronóstico en una narrativa.
“Tomamos lo que pensamos que sucedería e intentaba que sea atractivo”, dijo Lifland.
Los críticos de este enfoque podrían argumentar que las historias ficticias de IA son mejores para dar a las personas que educarlas. Y algunos expertos en IA sin duda se opondrán a la afirmación central del grupo de que la inteligencia artificial superará la inteligencia humana.
Ali Farhadi, director ejecutivo del Instituto Allen de Inteligencia Artificial, un laboratorio de IA en Seattle, revisó el informe “AI 2027” y dijo que no estaba impresionado.
“Estoy a favor de las proyecciones y pronósticos, pero este pronóstico no parece estar basado en evidencia científica, o la realidad de cómo están evolucionando las cosas en la IA”, dijo.
No hay duda de que algunas de las opiniones del grupo son extremas. (El Sr. Kokotajlo, por ejemplo, me dijo el año pasado que creía que había un 70 por ciento de posibilidades de que AI destruya o dañara catastróficamente a la humanidad). Y el Sr. Kokotajlo y el Sr. Lifland tienen vínculos con un altruismo efectivo, otro movimiento filosófico popular entre los trabajadores tecnológicos entre los trabajadores tecnológicos. Eso ha estado haciendo advertencias terribles sobre IA durante años.
Pero también vale la pena señalar que algunas de las compañías más grandes de Silicon Valley son Planificación de un mundo Más allá de Agi, y que muchas de las predicciones locas se hicieron sobre la IA en el pasado, como la opinión de que las máquinas pasarían la prueba de Turing, un experimento mental que determina si una máquina puede parecer comunicarse como un humano, tener llegar a la verdad.
En 2021, el año antes de que se lanzaran Chatgpt, el Sr. Kokotajlo escribió una publicación de blog Titulado “What 2026 se ve”, describiendo su visión de cómo progresarían los sistemas AI. Varias de sus predicciones demostraron ser prescientes, y se convenció de que este tipo de pronóstico era valioso y que era bueno en eso.
“Es una forma elegante y conveniente de comunicar su punto de vista a otras personas”, dijo.
La semana pasada, el Sr. Kokotajlo y el Sr. Lifland me invitaron a su oficina, una pequeña habitación en un espacio de trabajo conjunto de Berkeley llamado Constellation, donde varias organizaciones de seguridad de IA cuelgan una teja, para mostrarme cómo operan.
El Sr. Kokotajlo, con una chaqueta de estilo militar bronceado, agarró un marcador y escribió cuatro abreviaturas en una pizarra grande: SC> Sar> Siar> Asi. Cada uno, explicó, representaba un hito en el desarrollo de la IA.
Primero, dijo, en algún momento a principios de 2027, si las tendencias actuales se mantienen, la IA será un codificador sobrehumano. Luego, a mediados de 2027, será un investigador de IA sobrehumano, un agente autónomo que puede supervisar equipos de codificadores de IA y hacer nuevos descubrimientos. Luego, a fines de 2027 o principios de 2028, se convertirá en un súperinteligente Investigador de IA: una inteligencia de máquinas que sabe más que nosotros para construir IA avanzada, y puede automatizar su propia investigación y desarrollo, esencialmente construyendo versiones más inteligentes de sí misma. A partir de ahí, dijo, es un breve salto a la superinteligencia artificial, o ASI, momento en el que todas las apuestas están apuestas.
Si todo esto suena fantástico … bueno, lo es. Nada remotamente como lo que el Sr. Kokotajlo y el Sr. Lifland predicen que es posible con las herramientas de IA de hoy, que apenas pueden ordenar un burrito en Doordash sin atascarse.
Pero confían en que estos puntos ciegos se reducirán rápidamente, ya que los sistemas de IA se vuelven lo suficientemente buenos para codificar para acelerar la investigación y el desarrollo de la IA.
Su informe se centra en Open Brain, una compañía de IA ficticia que construye un poderoso sistema de IA conocido como Agente-1. (Decidieron no señalar una compañía de IA en particular, en lugar de crear un compuesto de los principales laboratorios de IA estadounidenses).
A medida que el Agente-1 mejora en la codificación, comienza a automatizar gran parte del trabajo de ingeniería en Open Brain, lo que permite a la compañía moverse más rápido y ayuda a construir Agent-2, un investigador de IA aún más capaz. A finales de 2027, cuando termina el escenario, Agent-4 está haciendo un año de avances de investigación de IA cada semana y amenaza con volverse pícaros.
Le pregunté al Sr. Kokotajlo qué pensaba que sucedería después de eso. ¿Pensó, por ejemplo, que la vida en el año 2030 aún sería reconocible? ¿Las calles de Berkeley estarían llenas de robots humanoides? ¿La gente envía mensajes de texto a sus novias de IA? ¿Alguno de nosotros tendríamos trabajo?
Miró por la ventana y admitió que no estaba seguro. Si los próximos años salieron bien y mantuviéramos la IA bajo control, dijo, podría imaginar un futuro en el que la vida de la mayoría de las personas todavía fuera en gran medida la misma, pero donde las “zonas económicas especiales” cercanas llenas de fábricas de robot hipereficientes producirían todo lo que necesitábamos.
¿Y si los próximos años no salieron bien?
“¿Tal vez el cielo estaría lleno de contaminación y la gente estaría muerta?” Dijo con indiferencia. “Algo así”.
Un riesgo de dramatizar sus predicciones de IA de esta manera es que si no tiene cuidado, los escenarios medidos pueden desviarse a las fantasías apocalípticas. Otra es que, al tratar de contar una historia dramática que capta la atención de las personas, corre el riesgo de perder resultados más aburridos, como el escenario en el que la IA generalmente se comporta bien y no causa muchos problemas para nadie.
Aunque estoy de acuerdo con los autores de “AI 2027” de que los poderosos sistemas de IA llegarán pronto, no estoy convencido de que los codificadores de IA sobrehumanos recogerán automáticamente las otras habilidades necesarias para arrancar su camino hacia la inteligencia general. Y desconfía de las predicciones que suponen que el progreso de la IA será suave y exponencial, sin cuellos de botella importantes o obstáculos en el camino.
Pero creo que vale la pena hacer este tipo de pronóstico, incluso si no estoy de acuerdo con algunas de las predicciones específicas. Si la IA poderosa está realmente a la vuelta de la esquina, todos necesitaremos comenzar a imaginar un futuro muy extraño.