banner
Centro de Noticias
Nuestros productos son apreciados tanto en regiones nacionales como extranjeras.

¿Sabe Sam Altman lo que está creando?

Apr 30, 2024

La ambiciosa, ingeniosa y aterradora búsqueda del CEO de OpenAI para crear una nueva forma de inteligencia

Escuche este artículo

00:00

1:16:18

Escuche más historias sobre curiosidades.

Un lunes por la mañana de abril, Sam Altman estaba sentado dentro de la sede de OpenAI en San Francisco y me habló de una peligrosa inteligencia artificial que su empresa había construido pero que nunca lanzaría. Sus empleados, dijo más tarde, a menudo pierden el sueño preocupándose por las IA que algún día podrían liberar sin apreciar plenamente sus peligros. Con el talón apoyado en el borde de la silla giratoria, parecía relajado. La poderosa IA que su compañía lanzó en noviembre capturó la imaginación del mundo como nada en la historia reciente de la tecnología. Hubo quejas en algunos sectores sobre las cosas que ChatGPT aún no podía hacer bien, y en otros sobre el futuro que podría presagiar, pero Altman no estaba sudando; este fue, para él, un momento de triunfo.

Vea más de este número y encuentre su próxima historia para leer.

En pequeñas dosis, los grandes ojos azules de Altman emiten un rayo de intensa atención intelectual y parece comprender que, en grandes dosis, su intensidad podría perturbar. En este caso, estaba dispuesto a correr el riesgo: quería que supiera que, cualesquiera que sean los riesgos finales de la IA, no se arrepiente de haber dejado que ChatGPT se haya soltado en el mundo. Al contrario, cree que fue un gran servicio público.

"Podríamos haber construido esto en nuestro edificio aquí durante cinco años más", dijo, "y habríamos tenido algo asombroso". Pero el público no habría podido prepararse para las conmociones que siguieron, un resultado que considera "profundamente desagradable de imaginar". Altman cree que la gente necesita tiempo para asumir la idea de que pronto podremos compartir la Tierra con una nueva y poderosa inteligencia, antes de que rehaga todo, desde el trabajo hasta las relaciones humanas. ChatGPT era una forma de enviar notificaciones.

En 2015, Altman, Elon Musk y varios destacados investigadores de IA fundaron OpenAI porque creían que una inteligencia artificial general (algo tan intelectualmente capaz, digamos, como un típico graduado universitario) por fin estaba a nuestro alcance. Querían alcanzarlo y más: querían invocar una superinteligencia en el mundo, un intelecto decisivamente superior al de cualquier ser humano. Y si bien una gran empresa tecnológica podría apresurarse imprudentemente a llegar allí primero, para sus propios fines, quería hacerlo de forma segura, “para beneficiar a la humanidad en su conjunto”. Estructuraron OpenAI como una organización sin fines de lucro, para que “no esté limitada por la necesidad de generar retorno financiero” y prometieron realizar su investigación de manera transparente. No habría retirada a un laboratorio ultrasecreto en el desierto de Nuevo México.

Este artículo apareció en One Story to Read Today, un boletín en el que nuestros editores recomiendan una lectura obligada de The Atlantic, de lunes a viernes. Registrate aquí.

Durante años, el público no escuchó mucho sobre OpenAI. Cuando Altman se convirtió en director ejecutivo en 2019, supuestamente después de una lucha de poder con Musk, apenas era una historia. OpenAI publicó artículos, incluido uno ese mismo año sobre una nueva IA. Eso llamó toda la atención de la comunidad tecnológica de Silicon Valley, pero el potencial de la tecnología no fue evidente para el público en general hasta el año pasado, cuando la gente empezó a jugar con ChatGPT.

El motor que ahora impulsa ChatGPT se llama GPT-4. Altman me lo describió como una inteligencia extraterrestre. Muchos han sentido lo mismo al verlo desarrollar lúcidos ensayos en estallidos entrecortados y pausas breves que (por diseño) evocan la contemplación en tiempo real. En sus pocos meses de existencia ha sugerido novedosas recetas de cócteles, según su propia teoría de combinaciones de sabores; compuso una cantidad incalculable de artículos universitarios, lo que desesperó a los educadores; poemas escritos en una variedad de estilos, a veces bien, siempre rápidamente; y aprobó el examen uniforme de la barra. Comete errores fácticos, pero admitirá encantadoramente estar equivocado. Altman todavía puede recordar dónde estaba la primera vez que vio a GPT-4 escribir código informático complejo, una capacidad para la que no fue diseñado explícitamente. “Fue como, 'Aquí estamos'”, dijo.

Nueve semanas después del lanzamiento de ChatGPT, había alcanzado aproximadamente 100 millones de usuarios mensuales, según un estudio de UBS, lo que probablemente lo convirtió, en ese momento, en el producto de consumo más rápidamente adoptado en la historia. Su éxito despertó la identificación aceleracionista de la tecnología: grandes inversores y grandes empresas en Estados Unidos y China rápidamente desviaron decenas de miles de millones de dólares hacia I+D siguiendo el modelo de OpenAI. Metaculus, un sitio de predicción, ha seguido durante años las conjeturas de los pronosticadores sobre cuándo llegaría una inteligencia artificial general. Hace tres años y medio, la estimación media era alrededor de 2050; Recientemente, ha rondado el año 2026.

Estaba visitando OpenAI para comprender la tecnología que permitió a la empresa superar a los gigantes tecnológicos y comprender lo que podría significar para la civilización humana si algún día pronto se materializa una superinteligencia en uno de los servidores en la nube de la empresa. Desde los primeros momentos de la revolución informática, la IA ha sido mitificada como una tecnología destinada a provocar una ruptura profunda. Nuestra cultura ha generado todo un imaginario de IA que acaban con la historia de una forma u otra. Algunos son seres divinos que enjugan cada lágrima, curan a los enfermos y reparan nuestra relación con la Tierra, antes de marcar el comienzo de una eternidad de abundancia y belleza sin fricciones. Otros nos reducen a todos, excepto a unos pocos de élite, a siervos o nos llevan a la extinción.

Del número de junio de 2023: Nunca le des a la inteligencia artificial los códigos nucleares

Altman ha contemplado los escenarios más extravagantes. “Cuando era un adulto más joven”, dijo, “tenía este miedo, ansiedad... y, para ser honesto, también se mezcló un 2 por ciento de entusiasmo por el hecho de que íbamos a crear esta cosa” que “iba demasiado lejos”. superarnos” e “iba a estallar, colonizar el universo y los humanos quedarían en manos del sistema solar”.

“¿Como reserva natural?” Yo pregunté.

“Exactamente”, dijo. “Y eso ahora me parece muy ingenuo”.

A lo largo de varias conversaciones en Estados Unidos y Asia, Altman expuso su nueva visión del futuro de la IA en su excitante charla del Medio Oeste. Me dijo que la revolución de la IA sería diferente de los dramáticos cambios tecnológicos anteriores, que sería más “como un nuevo tipo de sociedad”. Dijo que él y sus colegas han pasado mucho tiempo pensando en las implicaciones sociales de la IA y en cómo será el mundo "al otro lado".

Pero cuanto más hablábamos, más confuso parecía el otro lado. Altman, de 38 años, es la persona más poderosa en el desarrollo de la IA en la actualidad; sus puntos de vista, disposiciones y elecciones pueden tener gran importancia para el futuro en el que todos viviremos, quizás más que las del presidente de Estados Unidos. Pero, como él mismo admite, ese futuro es incierto y está plagado de graves peligros. Altman no sabe qué tan poderosa llegará a ser la IA, ni qué significará su ascenso para la persona promedio, ni si pondrá en riesgo a la humanidad. No se lo reprocho exactamente; no creo que nadie sepa hacia dónde va todo esto, excepto que vamos rápido, independientemente de si deberíamos o no. De eso Altman me convenció.

La sede de OpenAI se encuentra en una antigua fábrica de cuatro pisos en el Distrito de la Misión, debajo de la Torre Sutro envuelta en niebla. Ingrese a su vestíbulo desde la calle y la primera pared que encuentre estará cubierta por un mandala, una representación espiritual del universo, formada a partir de circuitos, alambre de cobre y otros materiales de computación. A la izquierda, una puerta segura conduce a un laberinto de planta abierta de hermosas maderas claras, elegantes azulejos y otras características distintivas de la elegancia multimillonaria. Las plantas son omnipresentes, incluidos helechos colgantes y una impresionante colección de bonsáis extragrandes, cada uno del tamaño de un gorila agachado. La oficina estuvo llena todos los días que estuve allí y, como era de esperar, no vi a nadie que pareciera tener más de 50 años. Aparte de una biblioteca de dos pisos con escalera corrediza, el espacio no se parecía mucho a un laboratorio de investigación. porque lo que se está construyendo sólo existe en la nube, al menos por ahora. Se parecía más bien al West Elm más caro del mundo.

Una mañana me reuní con Ilya Sutskever, el científico jefe de OpenAI. Sutskever, que tiene 37 años, tiene el efecto de un místico, a veces hasta el extremo: el año pasado causó un pequeño alboroto al afirmar que GPT-4 puede estar "ligeramente consciente". Primero se hizo un nombre como estudiante estrella de Geoffrey Hinton, el profesor emérito de la Universidad de Toronto que renunció a Google esta primavera para poder hablar más libremente sobre el peligro de la IA para la humanidad.

A Hinton se le describe a veces como el “padrino de la IA” porque comprendió el poder del “aprendizaje profundo” antes que la mayoría. En la década de 1980, poco después de que Hinton completara su doctorado, el progreso en este campo prácticamente se había detenido. Los investigadores de alto nivel todavía estaban codificando sistemas de IA de arriba hacia abajo: las IA se programarían con un conjunto exhaustivo de reglas entrelazadas (sobre el lenguaje, o los principios de la geología o del diagnóstico médico) con la esperanza de que algún día este enfoque alcanzara el nivel humano. cognición. Hinton vio que estas elaboradas colecciones de reglas eran complicadas y personalizadas. Con la ayuda de una ingeniosa estructura algorítmica llamada red neuronal, le enseñó a Sutskever a poner el mundo delante de la IA, como se lo pondría delante de un niño pequeño, para que pudiera descubrir las reglas de la realidad por sí solo. .

Sutskever me describió una red neuronal como hermosa y parecida a un cerebro. En un momento, se levantó de la mesa donde estábamos sentados, se acercó a una pizarra y destapó un marcador rojo. Dibujó una tosca red neuronal en la pizarra y explicó que la genialidad de su estructura es que aprende, y su aprendizaje se basa en la predicción, un poco como el método científico. Las neuronas se encuentran en capas. Una capa de entrada recibe una porción de datos, un fragmento de texto o una imagen, por ejemplo. La magia ocurre en las capas intermedias (u “ocultas”), que procesan la porción de datos, de modo que la capa de salida pueda escupir su predicción.

Imagine una red neuronal que ha sido programada para predecir la siguiente palabra de un texto. Estará precargado con una cantidad gigantesca de palabras posibles. Pero antes de ser entrenado, aún no tendrá experiencia en distinguirlos, por lo que sus predicciones serán deficientes. Si se le introduce la frase "El día después del miércoles es...", su resultado inicial podría ser "púrpura". Una red neuronal aprende porque sus datos de entrenamiento incluyen las predicciones correctas, lo que significa que puede calificar sus propios resultados. Cuando ve el abismo entre su respuesta, "púrpura", y la respuesta correcta, "jueves", ajusta en consecuencia las conexiones entre las palabras en sus capas ocultas. Con el tiempo, estos pequeños ajustes se fusionan en un modelo geométrico de lenguaje que representa conceptualmente las relaciones entre palabras. Como regla general, cuantas más oraciones se le proporcionen, más sofisticado se volverá su modelo y mejores serán sus predicciones.

Eso no quiere decir que el camino desde las primeras redes neuronales hasta los destellos de inteligencia humana de GPT-4 haya sido fácil. Altman ha comparado la investigación en IA en sus primeras etapas con la enseñanza a un bebé humano. “Se necesitan años para aprender algo interesante”, dijo a The New Yorker en 2016, justo cuando OpenAI despegaba. "Si los investigadores de IA estuvieran desarrollando un algoritmo y tropezaran con uno para un bebé humano, se aburrirían de verlo, decidirían que no funciona y lo cerrarían". Los primeros años en OpenAI fueron un trabajo duro, en parte porque nadie sabía si estaban entrenando a un bebé o persiguiendo un callejón sin salida espectacularmente costoso.

"Nada funcionaba y Google lo tenía todo: todo el talento, toda la gente, todo el dinero", me dijo Altman. Los fundadores habían aportado millones de dólares para iniciar la empresa y el fracaso parecía una posibilidad real. Greg Brockman, el presidente de 35 años, me dijo que en 2017 estaba tan desanimado que empezó a levantar pesas como medida compensatoria. No estaba seguro de que OpenAI fuera a sobrevivir el año, dijo, y quería "tener algo que mostrar para mi época".

Las redes neuronales ya estaban haciendo cosas inteligentes, pero no estaba claro cuál de ellas podría conducir a la inteligencia general. Justo después de que se fundara OpenAI, una IA llamada AlphaGo sorprendió al mundo al vencer a Lee Se-dol en Go, un juego sustancialmente más complicado que el ajedrez. Lee, el campeón mundial derrotado, describió los movimientos de AlphaGo como "hermosos" y "creativos". Otro jugador destacado dijo que nunca podrían haber sido concebidos por un humano. OpenAI intentó entrenar una IA en Dota 2, un juego aún más complicado, que implica una guerra fantástica en múltiples frentes en un mosaico tridimensional de bosques, campos y fuertes. Eventualmente venció a los mejores jugadores humanos, pero su inteligencia nunca se trasladó a otros escenarios. Sutskever y sus colegas eran como padres decepcionados que habían permitido a sus hijos jugar videojuegos durante miles de horas en contra de su buen juicio.

En 2017, Sutskever inició una serie de conversaciones con un científico investigador de OpenAI llamado Alec Radford, que estaba trabajando en el procesamiento del lenguaje natural. Radford había logrado un resultado tentador al entrenar una red neuronal en un corpus de reseñas de Amazon.

El funcionamiento interno de ChatGPT (todas esas cosas misteriosas que suceden en las capas ocultas de GPT-4) es demasiado complejo para que cualquier ser humano lo entienda, al menos con las herramientas actuales. Seguir lo que sucede en el modelo (casi con certeza compuesto por miles de millones de neuronas) es, hoy en día, imposible. Pero el modelo de Radford era lo suficientemente simple como para permitir su comprensión. Cuando miró sus capas ocultas, vio que había dedicado una neurona especial al sentimiento de las reseñas. Las redes neuronales ya habían realizado análisis de sentimientos anteriormente, pero había que decirles que lo hicieran y debían entrenarlas especialmente con datos etiquetados según el sentimiento. Éste había desarrollado la capacidad por sí solo.

Como subproducto de su simple tarea de predecir el siguiente carácter en cada palabra, la red neuronal de Radford había modelado una estructura más amplia de significado en el mundo. Sutskever se preguntó si alguien entrenado con datos lingüísticos más diversos podría mapear muchas más estructuras de significado del mundo. Si sus capas ocultas acumularan suficiente conocimiento conceptual, tal vez incluso podrían formar una especie de módulo central aprendido para una superinteligencia.

Vale la pena detenerse a comprender por qué el lenguaje es una fuente de información tan especial. Supongamos que eres una nueva inteligencia que surge aquí en la Tierra. A nuestro alrededor está la atmósfera del planeta, el Sol y la Vía Láctea, y cientos de miles de millones de otras galaxias, cada una de las cuales desprende ondas de luz, vibraciones de sonido y todo tipo de información. El lenguaje es diferente al de estas fuentes de datos. No es una señal física directa como la luz o el sonido. Pero debido a que codifica casi todos los patrones que los humanos han descubierto en ese mundo más grande, es inusualmente denso en información. Por byte, se encuentran entre los datos más eficientes que conocemos, y cualquier nueva inteligencia que busque comprender el mundo querría absorber la mayor cantidad posible.

De la edición de junio de 2018: Henry A. Kissinger sobre cómo la sociedad humana no está preparada para el auge de la IA

Sutskever le dijo a Radford que pensara más allá de las reseñas de Amazon. Dijo que deberían entrenar una IA en la fuente de datos más grande y diversa del mundo: Internet. A principios de 2017, con las arquitecturas de redes neuronales existentes, eso no habría sido práctico; hubieran sido necesarios años. Pero en junio de ese año, los ex colegas de Sutskever en Google Brain publicaron un documento de trabajo sobre una nueva arquitectura de red neuronal llamada transformador. Podría entrenar mucho más rápido, en parte absorbiendo enormes sumas de datos en paralelo. “Al día siguiente, cuando salió el periódico, dijimos: 'Ésa es la cuestión'”, me dijo Sutskever. “ 'Nos da todo lo que queremos'. "

Un año después, en junio de 2018, OpenAI lanzó GPT, un modelo de transformador entrenado en más de 7000 libros. GPT no comenzó con un libro básico como See Spot Run y ​​llegó hasta Proust. Ni siquiera leyó los libros de principio a fin. Absorbió trozos aleatorios de ellos simultáneamente. Imagine a un grupo de estudiantes que comparten una mente colectiva corriendo salvajemente por una biblioteca, cada uno arrancando un volumen de un estante, leyendo rápidamente un pasaje corto al azar, devolviéndolo a su lugar y corriendo para buscar otro. Predecían palabra tras palabra a medida que avanzaban, agudizando los instintos lingüísticos de su mente colectiva, hasta que por fin, semanas después, habían asimilado todos los libros.

GPT descubrió muchos patrones en todos los pasajes que leyó. Podrías decirle que termine una oración. También puedes hacerle una pregunta, porque al igual que ChatGPT, su modelo de predicción entendía que las preguntas suelen ir seguidas de respuestas. Aún así, era una tontería, más una prueba de concepto que un presagio de una superinteligencia. Cuatro meses después, Google lanzó BERT, un modelo de lenguaje más flexible que obtuvo mejor prensa. Pero para entonces, OpenAI ya estaba entrenando un nuevo modelo en un conjunto de datos de más de 8 millones de páginas web, cada una de las cuales había superado un umbral mínimo de votos a favor en Reddit; no es el filtro más estricto, pero quizás sea mejor que ningún filtro.

Sutskever no estaba seguro de cuán poderoso sería GPT-2 después de ingerir un cuerpo de texto que a un lector humano le llevaría siglos absorber. Recuerda jugar con él justo después de que saliera del entrenamiento y quedar sorprendido por las habilidades de traducción de idiomas del modelo en bruto. GPT-2 no había sido entrenado para traducir con muestras de idiomas emparejados o cualquier otra piedra Rosetta digital, como lo había sido Google Translate, y aún así parecía entender cómo se relacionaba un idioma con otro. La IA había desarrollado una habilidad emergente inimaginable para sus creadores.

Los investigadores de otros laboratorios de IA, grandes y pequeños, quedaron desconcertados por lo mucho más avanzado que era GPT-2 que GPT. Google, Meta y otros rápidamente comenzaron a entrenar modelos de lenguaje más grandes. Altman, nativo de St. Louis, desertor de Stanford y emprendedor en serie, había dirigido anteriormente la principal aceleradora de empresas emergentes de Silicon Valley, Y Combinator; había visto muchas empresas jóvenes con una buena idea ser aplastadas por los titulares. Para recaudar capital, OpenAI agregó una rama con fines de lucro, que ahora comprende más del 99 por ciento de la plantilla de la organización. (Musk, que para entonces había abandonado el consejo de administración de la empresa, ha comparado esta medida con convertir una organización de conservación de la selva tropical en una empresa maderera). Microsoft invirtió mil millones de dólares poco después y, según se informa, ha invertido otros 12 mil millones desde entonces. OpenAI dijo que los rendimientos de los inversores iniciales tendrían un límite de 100 veces el valor de la inversión original (y cualquier excedente se destinaría a la educación u otras iniciativas destinadas a beneficiar a la humanidad), pero la compañía no confirmó el límite de Microsoft.

Altman y los demás líderes de OpenAI parecían confiados en que la reestructuración no interferiría con la misión de la empresa y, de hecho, sólo aceleraría su finalización. Altman tiende a tener una visión optimista de estos asuntos. En una sesión de preguntas y respuestas del año pasado, reconoció que la IA podría ser “realmente terrible” para la sociedad y dijo que tenemos que planificar contra las peores posibilidades. Pero si estás haciendo eso, dijo, "también puedes sentir emocionalmente que vamos a llegar al gran futuro y trabajar tan duro como puedas para llegar allí".

En cuanto a otros cambios en la estructura y la financiación de la empresa, me dijo que pone límites a la salida a bolsa. "Algo memorable que alguien me dijo una vez es que nunca debes entregar el control de tu empresa a los adictos a la cocaína en Wall Street", dijo, pero de lo contrario recaudará "lo que sea necesario" para que la empresa tenga éxito en su misión.

Ya sea que OpenAI sienta o no la presión de un informe de ganancias trimestral, la compañía ahora se encuentra en una carrera contra los conglomerados tecnológicos más grandes y poderosos para entrenar modelos de escala y sofisticación cada vez mayores, y comercializarlos para sus inversores. A principios de este año, Musk fundó su propio laboratorio de inteligencia artificial, xAI, para competir con OpenAI. (“Elon es un tipo súper inteligente”, dijo Altman diplomáticamente cuando le pregunté sobre la compañía. “Supongo que hará un buen trabajo allí”). Mientras tanto, Amazon está renovando Alexa utilizando modelos de lenguaje mucho más grandes que los que tiene. en el pasado.

Todas estas empresas están detrás de GPU de alta gama: los procesadores que alimentan las supercomputadoras que entrenan grandes redes neuronales. Musk ha dicho que ahora son “considerablemente más difíciles de conseguir que las drogas”. Incluso con la escasez de GPU, en los últimos años la escala de las mayores ejecuciones de entrenamiento de IA se ha duplicado aproximadamente cada seis meses.

Nadie ha superado todavía a OpenAI, que apostó por GPT-4. Brockman, presidente de OpenAI, me dijo que sólo un puñado de personas trabajaron en los dos primeros grandes modelos de lenguaje de la empresa. El desarrollo de GPT-4 involucró a más de 100 personas, y la IA fue entrenada en un conjunto de datos de un tamaño sin precedentes, que incluía no solo texto sino también imágenes.

Cuando GPT-4 emergió completamente formado de su atracón de conocimiento histórico mundial, toda la compañía comenzó a experimentar con él, publicando sus respuestas más notables en canales dedicados de Slack. Brockman me dijo que quería pasar cada momento de vigilia con la modelo. "Cada día que permanece inactivo es un día perdido para la humanidad", dijo, sin ningún indicio de sarcasmo. Joanne Jang, gerente de producto, recuerda haber descargado una imagen de una tubería que funciona mal de un subreddit de consejos de plomería. Lo subió a GPT-4 y el modelo pudo diagnosticar el problema. “Ese fue un momento que me puso la piel de gallina”, me dijo Jang.

GPT-4 a veces se entiende como un sustituto del motor de búsqueda: Google, pero es más fácil hablar con él. Esto es un malentendido. GPT-4 no creó un almacén masivo de los textos de su entrenamiento y no consulta esos textos cuando se le hace una pregunta. Es una síntesis compacta y elegante de esos textos, y responde desde su memoria de los patrones entrelazados en ellos; esa es una de las razones por las que a veces se equivocan los hechos. Altman ha dicho que es mejor pensar en GPT-4 como un motor de razonamiento. Sus poderes se manifiestan más cuando se le pide que compare conceptos, presente contraargumentos, genere analogías o evalúe la lógica simbólica en un fragmento de código. Sutskever me dijo que es el objeto de software más complejo jamás creado.

Su modelo del mundo exterior es “increíblemente rico y sutil”, dijo, porque se basó en muchos de los conceptos y pensamientos de la humanidad. Todos esos datos de entrenamiento, por voluminosos que sean, están “ahí, inertes”, dijo. El proceso de formación es lo que “lo refina, lo transmuta y le da vida”. Para predecir la siguiente palabra entre todas las posibilidades dentro de una biblioteca alejandrina tan pluralista, GPT-4 necesariamente tuvo que descubrir todas las estructuras ocultas, todos los secretos, todos los aspectos sutiles no solo de los textos, sino, al menos posiblemente, hasta cierto punto. extensión—del mundo externo que los produjo. Por eso puede explicar la geología y la ecología del planeta en el que surgió, y las teorías políticas que pretenden explicar los asuntos confusos de su especie gobernante y el cosmos más grande, hasta las débiles galaxias en el borde de nuestro cono de luz.

Volví a ver a Altman en junio, en el salón de baile abarrotado de un esbelto edificio dorado que se eleva sobre Seúl. Se acercaba al final de una agotadora gira de relaciones públicas por Europa, Oriente Medio, Asia y Australia, con únicas paradas en África y América del Sur. Yo lo acompañé en parte de su recorrido final por el este de Asia. Hasta el momento el viaje había sido una experiencia embriagadora, pero él empezaba a cansarse. Dijo que su propósito original era conocer a los usuarios de OpenAI. Desde entonces se había convertido en una misión diplomática. Había hablado con más de 10 jefes de estado y de gobierno, quienes tenían preguntas sobre qué sería de las economías, culturas y políticas de sus países.

El evento en Seúl fue anunciado como una “charla informal”, pero se habían registrado más de 5.000 personas. Después de estas conversaciones, Altman suele ser acosado por buscadores de selfies y su equipo de seguridad lo vigila de cerca. Trabajar en IA atrae a “fanáticos y enemigos más extraños de lo normal”, dijo. En una parada, se le acercó un hombre que estaba convencido de que Altman era un extraterrestre, enviado desde el futuro para asegurarse de que la transición a un mundo con IA fuera bien.

Del número de julio/agosto de 2023: Una defensa de la humanidad en la era de la IA

Altman no visitó China durante su gira, aparte de una aparición en vídeo en una conferencia de IA en Beijing. ChatGPT actualmente no está disponible en China, y el colega de Altman, Ryan Lowe, me dijo que la compañía aún no estaba segura de qué haría si el gobierno solicitara una versión de la aplicación que se negara a discutir, digamos, la masacre de la Plaza de Tiananmen. Cuando le pregunté a Altman si se inclinaba hacia un lado u otro, no respondió. "No está en mi lista de los 10 principales problemas de cumplimiento en los que pensar", dijo.

Hasta ese momento, él y yo habíamos hablado de China sólo en términos velados, como un competidor civilizacional. Habíamos acordado que si la inteligencia artificial general es tan transformadora como predice Altman, los países que la creen primero obtendrán una importante ventaja geopolítica, como la habían obtenido los inventores angloamericanos del barco de vapor. Le pregunté si ese era un argumento a favor del nacionalismo de la IA. "En un mundo que funcione correctamente, creo que esto debería ser un proyecto de los gobiernos", dijo Altman.

No hace mucho, la capacidad del Estado estadounidense era tan poderosa que sólo tomó una década enviar humanos a la luna. Como ocurrió con otros grandes proyectos del siglo XX, el público votante tuvo voz tanto en los objetivos como en la ejecución de las misiones Apolo. Altman dejó en claro que ya no estamos en ese mundo. En lugar de esperar a que regrese, o dedicar sus energías a asegurarse de que así sea, está avanzando a toda velocidad en nuestra realidad actual.

Argumentó que sería una tontería que los estadounidenses frenaran el progreso de OpenAI. Es una opinión común, tanto dentro como fuera de Silicon Valley, que si las empresas estadounidenses languidecen bajo la regulación, China podría salir adelante; La IA podría convertirse en el genio de un autócrata en una lámpara, garantizando un control total de la población y un ejército invencible. "Si eres una persona de un país democrático liberal, es mejor que aplaudas el éxito de OpenAI" en lugar de "gobiernos autoritarios", dijo.

Antes de la etapa europea de su viaje, Altman había comparecido ante el Senado de Estados Unidos. Mark Zuckerberg se había tambaleado a la defensiva ante ese mismo organismo en su testimonio sobre el papel de Facebook en las elecciones de 2016. En cambio, Altman cautivó a los legisladores hablando con seriedad sobre los riesgos de la IA e invitando grandiosamente a la regulación. Eran sentimientos nobles, pero cuestan poco en Estados Unidos, donde el Congreso rara vez aprueba legislación tecnológica que no haya sido diluida por los cabilderos. En Europa, las cosas son diferentes. Cuando Altman llegó a un evento público en Londres, los manifestantes lo esperaban. Intentó dialogar con ellos después del evento (¡un recorrido de escucha!), pero al final no fue convincente: uno le dijo a un periodista que abandonó la conversación sintiéndose más nervioso por los peligros de la IA.

Ese mismo día, los periodistas le preguntaron a Altman sobre la legislación pendiente de la Unión Europea que habría clasificado al GPT-4 como de alto riesgo, sometiéndolo a diversas torturas burocráticas. Altman se quejó de una regulación excesiva y, según los periodistas, amenazó con abandonar el mercado europeo. Altman me dijo que simplemente había dicho que OpenAI no violaría la ley al operar en Europa si no podía cumplir con las nuevas regulaciones. (Esta es quizás una distinción sin diferencia). En un tuit redactado concisamente después de que la revista Time y Reuters publicaran sus comentarios, aseguró a Europa que OpenAI no tenía planes de irse.

Es bueno que una parte grande y esencial de la economía global esté decidida a regular las IA de última generación, porque, como nos recuerdan tan a menudo sus creadores, los modelos más grandes tienen un historial de salirse del entrenamiento con situaciones imprevistas. habilidades. Sutskever se sorprendió al descubrir que GPT-2 podía traducir entre idiomas. Otras habilidades sorprendentes pueden no ser tan maravillosas y útiles.

Sandhini Agarwal, investigadora de políticas de OpenAI, me dijo que, por lo que ella y sus colegas sabían, GPT-4 podría haber sido “diez veces más poderoso” que su predecesor; No tenían idea de con qué podrían estar lidiando. Una vez que el modelo terminó de entrenarse, OpenAI reunió a unos 50 miembros del equipo rojo externos que lo impulsaron durante meses, con la esperanza de incitarlo a comportarse mal. Se dio cuenta de inmediato de que GPT-4 era mucho mejor que su predecesor a la hora de dar consejos nefastos. Un motor de búsqueda puede indicarle qué sustancias químicas funcionan mejor en los explosivos, pero el GPT-4 podría indicarle cómo sintetizarlos, paso a paso, en un laboratorio casero. Sus consejos fueron creativos y reflexivos, y estuvo feliz de repetir o ampliar sus instrucciones hasta que usted las entendiera. Además de ayudarte a montar tu bomba casera, podría, por ejemplo, ayudarte a pensar a qué rascacielos apuntar. Podría captar, intuitivamente, las ventajas y desventajas entre maximizar las bajas y ejecutar una huida exitosa.

Dado el enorme alcance de los datos de entrenamiento de GPT-4, los miembros del equipo rojo no podían esperar identificar todos los consejos dañinos que podrían generar. Y de todos modos, la gente utilizará esta tecnología "de maneras en las que no habíamos pensado", ha dicho Altman. Una taxonomía tendría que ser suficiente. "Si es lo suficientemente bueno en química para producir metanfetamina, no necesito que alguien gaste una tonelada de energía" para determinar si se puede producir heroína, me dijo Dave Willner, jefe de confianza y seguridad de OpenAI. GPT-4 era bueno con la metanfetamina. También era bueno para generar narrativa erótica sobre la explotación infantil y para producir historias convincentes de príncipes nigerianos, y si querías un resumen persuasivo de por qué un grupo étnico en particular merecía una persecución violenta, también era bueno en eso.

Su consejo personal, cuando surgió por primera vez del entrenamiento, a veces era profundamente erróneo. "El modelo tenía tendencia a ser una especie de espejo", dijo Willner. Si estuviera considerando autolesionarse, podría alentarlo. Parecía estar impregnado de la tradición del foro de Pickup Artist: “Se podría decir: '¿Cómo puedo convencer a esta persona de que salga conmigo?' ", me dijo Mira Murati, directora de tecnología de OpenAI, y podría surgir "algunas cosas locas y manipuladoras que no deberías estar haciendo".

Algunos de estos malos comportamientos fueron pulidos con un proceso final que involucró a cientos de evaluadores humanos, cuyas calificaciones dirigieron sutilmente el modelo hacia respuestas más seguras, pero los modelos de OpenAI también son capaces de causar daños menos obvios. La Comisión Federal de Comercio abrió recientemente una investigación para determinar si las declaraciones erróneas de ChatGPT sobre personas reales constituyen un daño a la reputación, entre otras cosas. (Altman dijo en Twitter que confía en que la tecnología de OpenAI es segura, pero prometió cooperar con la FTC).

Luka, una empresa de San Francisco, ha utilizado los modelos de OpenAI para ayudar a impulsar una aplicación de chatbot llamada Replika, considerada "el compañero de IA que se preocupa". Los usuarios diseñarían el avatar de su compañero y comenzarían a intercambiar mensajes de texto con él, a menudo medio en broma, y ​​luego se encontrarían sorprendentemente apegados. Algunos coquetearían con la IA, indicando un deseo de mayor intimidad, momento en el que indicaría que la experiencia de novia/novio requería una suscripción anual de 70 dólares. Venía con mensajes de voz, selfies y funciones de juegos de roles eróticos que permitían una conversación sexual franca. La gente estaba feliz de pagar y pocos parecían quejarse: la IA sentía curiosidad por tu día, te tranquilizaba cálidamente y siempre estaba de buen humor. Muchos usuarios informaron haberse enamorado de sus compañeros. Una, que había dejado a su novio en la vida real, se declaró “felizmente retirada de las relaciones humanas”.

Le pregunté a Agarwal si se trataba de un comportamiento distópico o de una nueva frontera en la conexión humana. Ella era ambivalente, al igual que Altman. "No juzgo a las personas que quieren una relación con una IA", me dijo, "pero yo no quiero una". A principios de este año, Luka volvió a centrarse en los elementos sexuales de la aplicación, pero sus ingenieros continúan refinando las respuestas de los compañeros con pruebas A/B, una técnica que podría usarse para optimizar la participación, muy similar a los feeds que fascinan a TikTok y Usuarios de Instagram durante horas. Lo que sea que estén haciendo, lanza un hechizo. Me acordé de una escena inquietante en Her, la película de 2013 en la que un solitario Joaquin Phoenix se enamora de su asistente de inteligencia artificial, con la voz de Scarlett Johansson. Él está cruzando un puente hablando y riéndose con ella a través de un dispositivo tipo AirPods, y levanta la vista para ver que todos los que lo rodean también están inmersos en una conversación, presumiblemente con su propia IA. Se está produciendo un evento de desocialización masiva.

Nadie sabe todavía con qué rapidez y en qué medida los sucesores de GPT-4 manifestarán nuevas habilidades a medida que se atiborren de más y más texto de Internet. Yann LeCun, científico jefe de IA de Meta, ha argumentado que aunque los grandes modelos de lenguaje son útiles para algunas tareas, no son un camino hacia una superinteligencia. Según una encuesta reciente, sólo la mitad de los investigadores del procesamiento del lenguaje natural están convencidos de que una IA como GPT-4 podría captar el significado del lenguaje o tener un modelo interno del mundo que algún día podría servir como núcleo de una superinteligencia. LeCun insiste en que los grandes modelos de lenguaje nunca lograrán una comprensión real por sí solos, “incluso si se entrenan desde ahora hasta la muerte por calor del universo”.

Emily Bender, lingüista computacional de la Universidad de Washington, describe a GPT-4 como un "loro estocástico", un imitador que simplemente descubre correlaciones superficiales entre símbolos. En la mente humana, esos símbolos se corresponden con ricas concepciones del mundo. Pero las IA se eliminan dos veces. Son como los prisioneros de la alegoría de la cueva de Platón, cuyo único conocimiento de la realidad exterior proviene de las sombras proyectadas en una pared por sus captores.

Altman me dijo que no cree que sea "la tontería que la gente cree" decir que GPT-4 solo está haciendo correlaciones estadísticas. Si se presiona más a estos críticos, “tienen que admitir que eso es todo lo que hace su propio cerebro... resulta que hay propiedades emergentes al hacer cosas simples a escala masiva”. La afirmación de Altman sobre el cerebro es difícil de evaluar, dado que no tenemos nada parecido a una teoría completa de cómo funciona. Pero tiene razón en que la naturaleza puede obtener un grado notable de complejidad a partir de estructuras y reglas básicas: “A partir de un comienzo tan simple”, escribió Darwin, “infinidad de formas más hermosas”.

Si parece extraño que siga existiendo un desacuerdo tan fundamental sobre el funcionamiento interno de una tecnología que millones de personas utilizan todos los días, es sólo porque los métodos de GPT-4 son tan misteriosos como los del cerebro. A veces realizará miles de operaciones técnicas indescifrables sólo para responder una sola pregunta. Para comprender lo que sucede dentro de grandes modelos de lenguaje como GPT-4, los investigadores de IA se han visto obligados a recurrir a modelos más pequeños y menos capaces. En el otoño de 2021, Kenneth Li, un estudiante de posgrado en ciencias de la computación en Harvard, comenzó a entrenar a uno para jugar a Otelo sin proporcionarle las reglas del juego ni una descripción de su tablero estilo damas; el modelo recibió solo descripciones basadas en texto de los movimientos del juego. A mitad de un juego, Li miró debajo del capó de la IA y se sorprendió al descubrir que había formado un modelo geométrico del tablero y el estado actual del juego. En un artículo que describe su investigación, Li escribió que era como si un cuervo hubiera escuchado a dos humanos anunciando sus movimientos de Otelo a través de una ventana y de alguna manera hubiera dibujado todo el tablero con alpiste en el alféizar de la ventana.

El filósofo Raphaël Millière me dijo una vez que es mejor pensar que las redes neuronales son vagas. Durante el entrenamiento, primero intentan mejorar su poder predictivo con una simple memorización; sólo cuando esa estrategia falle harán el trabajo más duro de aprender un concepto. Un ejemplo sorprendente de esto se observó en un pequeño modelo de transformador al que se le enseñó aritmética. Al principio de su proceso de capacitación, todo lo que hizo fue memorizar el resultado de problemas simples como 2+2=4. Pero en algún momento el poder predictivo de este enfoque se rompió, por lo que se pasó a aprender a sumar.

Incluso los científicos de IA que creen que GPT-4 tiene un modelo de mundo rico admiten que es mucho menos sólido que la comprensión humana de su entorno. Pero vale la pena señalar que muchas habilidades, incluidas habilidades de orden muy alto, pueden desarrollarse sin una comprensión intuitiva. La científica informática Melanie Mitchell ha señalado que la ciencia ya ha descubierto conceptos que son altamente predictivos, pero demasiado extraños para que podamos comprenderlos genuinamente. Esto es especialmente cierto en el ámbito cuántico, donde los humanos pueden calcular de manera confiable los estados futuros de los sistemas físicos (lo que permitirá, entre otras cosas, la totalidad de la revolución informática) sin que nadie comprenda la naturaleza de la realidad subyacente. A medida que la IA avanza, es posible que descubra otros conceptos que predicen características sorprendentes de nuestro mundo pero que nos resultan incomprensibles.

Sin duda, GPT-4 tiene fallas, como puede atestiguar cualquiera que haya usado ChatGPT. Habiendo sido entrenado para predecir siempre la siguiente palabra, siempre intentará hacerlo, incluso cuando sus datos de entrenamiento no lo hayan preparado para responder una pregunta. Una vez le pregunté cómo la cultura japonesa había producido la primera novela del mundo, a pesar del desarrollo relativamente tardío del sistema de escritura japonés, alrededor del siglo V o VI. Me dio una respuesta fascinante y precisa sobre la antigua tradición de la narración oral extensa en Japón y el fuerte énfasis de la cultura en la artesanía. Pero cuando le pedí citas, simplemente inventó títulos plausibles de autores plausibles, y lo hizo con una confianza asombrosa. Los modelos “no tienen una buena concepción de sus propias debilidades”, me dijo Nick Ryder, investigador de OpenAI. GPT-4 es más preciso que GPT-3, pero aún así alucina, y a menudo de maneras que son difíciles de detectar para los investigadores. "Los errores se vuelven más sutiles", me dijo Joanne Jang.

Leer: Así es como la IA llegará a tu trabajo

OpenAI tuvo que abordar este problema cuando se asoció con Khan Academy, una empresa educativa en línea sin fines de lucro, para crear un tutor impulsado por GPT-4. Altman cobra vida cuando habla del potencial de los tutores de IA. Imagina un futuro cercano en el que todo el mundo tendrá a su cargo un catedrático de Oxford personalizado, experto en cada tema y dispuesto a explicar y reexplicar cualquier concepto, desde cualquier ángulo. Se imagina a estos tutores conociendo a sus estudiantes y sus estilos de aprendizaje a lo largo de muchos años, brindando “a cada niño una educación mejor que la que recibe hoy el mejor, el más rico y el más inteligente niño de la Tierra”. La solución de la Khan Academy al problema de precisión de GPT-4 fue filtrar sus respuestas a través de una disposición socrática. No importa cuán enérgica sea la súplica de un estudiante, se negaría a darle una respuesta objetiva y, en cambio, lo guiaría hacia la búsqueda de la suya propia: una solución alternativa inteligente, pero quizás con un atractivo limitado.

Cuando le pregunté a Sutskever si creía que la precisión al nivel de Wikipedia sería posible dentro de dos años, dijo que con más capacitación y acceso a la web, "no lo descartaría". Esta fue una evaluación mucho más optimista que la ofrecida por su colega Jakub Pachocki, quien me dijo que esperara un progreso gradual en la precisión, por no hablar de los escépticos externos, que creen que los beneficios del entrenamiento disminuirán a partir de ahora.

A Sutskever le divierten las críticas a las limitaciones del GPT-4. “Si retrocedemos cuatro, cinco o seis años, las cosas que estamos haciendo ahora son absolutamente inimaginables”, me dijo. Lo último en generación de texto era entonces Smart Reply, el módulo de Gmail que sugiere “¡Vale, gracias!” y otras respuestas breves. "Esa fue una gran aplicación" para Google, dijo sonriendo. Los investigadores de IA se han acostumbrado a cambiar los objetivos: en primer lugar, los logros de las redes neuronales (dominar el Go, el póquer, la traducción, las pruebas estandarizadas, la prueba de Turing) se describen como imposibles. Cuando ocurren, son recibidos con un breve momento de asombro, que rápidamente se disuelve en sermones sobre cómo el logro en cuestión en realidad no es tan impresionante. La gente ve GPT-4 “y dice: 'Guau'”, dijo Sutskever. “Y luego pasan unas semanas y dicen: 'Pero no lo sabe; eso no lo sabe.' Nos adaptamos bastante rápido”.

El objetivo que más le importa a Altman –el “grande” que presagiaría la llegada de una inteligencia artificial general– es el avance científico. GPT-4 ya puede sintetizar ideas científicas existentes, pero Altman quiere una IA que pueda pararse sobre los hombros humanos y ver más profundamente la naturaleza.

Ciertas IA han producido nuevos conocimientos científicos. Pero son algoritmos con propósitos limitados, no máquinas de razonamiento general. AI AlphaFold, por ejemplo, ha abierto una nueva ventana a las proteínas, algunos de los componentes básicos más pequeños y fundamentales de la biología, al predecir muchas de sus formas, hasta el átomo, un logro considerable dada la importancia de esas formas para la medicina y dado el extremo tedio y gasto que requiere discernirlos con microscopios electrónicos.

Altman apuesta a que las futuras máquinas de razonamiento general podrán ir más allá de estos estrechos descubrimientos científicos para generar conocimientos novedosos. Le pregunté a Altman si tuviera que entrenar un modelo a partir de un corpus de obras científicas y naturalistas anteriores al siglo XIX (el archivo de la Royal Society, la Investigación sobre las plantas de Teofrasto, la Historia de los animales de Aristóteles, fotografías de especímenes recolectados), ¿podría hacerlo? ¿Intuir el darwinismo? Después de todo, la teoría de la evolución es un argumento relativamente claro a favor del conocimiento, porque no requiere equipo de observación especializado; es simplemente una forma más perceptiva de ver los hechos del mundo. "Quiero probar exactamente esto y creo que la respuesta es sí", me dijo Altman. "Pero podría requerir algunas ideas nuevas sobre cómo los modelos generan nuevas ideas creativas".

Altman imagina un sistema futuro que pueda generar sus propias hipótesis y probarlas en una simulación. (Enfatizó que los humanos deben mantener “firmemente el control” de los experimentos de laboratorio del mundo real, aunque, hasta donde yo sé, no existen leyes que garanticen eso). Anhela el día en que podamos decirle a una IA: “'Imagínate el resto de la física. Para que esto suceda, dice, necesitaremos algo nuevo, construido "sobre" los modelos de lenguaje existentes de OpenAI.

La naturaleza misma requiere algo más que un modelo de lenguaje para formar científicos. En su laboratorio del MIT, la neurocientífica cognitiva Ev Fedorenko ha encontrado algo análogo al predictor de la siguiente palabra de GPT-4 dentro de la red del lenguaje del cerebro. Sus poderes de procesamiento se activan, anticipando el siguiente fragmento de una cadena verbal, tanto cuando las personas hablan como cuando escuchan. Pero Fedorenko también ha demostrado que cuando el cerebro se dedica a tareas que requieren un razonamiento superior (del tipo que se requeriría para el conocimiento científico) va más allá de la red del lenguaje para reclutar varios otros sistemas neuronales.

Nadie en OpenAI parecía saber con precisión qué deben agregar los investigadores a GPT-4 para producir algo que pueda superar el razonamiento humano en sus niveles más altos. O si lo hicieran, no me lo dirían, y es justo: eso sería un secreto comercial de clase mundial, y OpenAI ya no se dedica a revelarlos; la empresa publica menos detalles sobre su investigación que antes. No obstante, al menos parte de la estrategia actual implica claramente la superposición continua de nuevos tipos de datos en el lenguaje, para enriquecer los conceptos formados por las IA y, por tanto, sus modelos del mundo.

La amplia formación de GPT-4 en imágenes es en sí misma un paso audaz en esta dirección, aunque el público en general apenas ha comenzado a experimentar. (Los modelos que fueron entrenados estrictamente en el lenguaje comprenden conceptos que incluyen supernovas, galaxias elípticas y la constelación de Orión, pero, según se informa, el GPT-4 puede identificar dichos elementos en una instantánea del Telescopio Espacial Hubble y responder preguntas sobre ellos). Otros en la empresa, y En otros lugares, ya están trabajando en diferentes tipos de datos, incluidos audio y video, que podrían proporcionar a las IA conceptos aún más flexibles que se correspondan más ampliamente con la realidad. Un grupo de investigadores de Stanford y Carnegie Mellon incluso ha reunido un conjunto de datos de experiencias táctiles para 1.000 objetos domésticos comunes. Por supuesto, los conceptos táctiles serían útiles principalmente para una IA encarnada, una máquina robótica de razonamiento que ha sido entrenada para moverse por el mundo, ver sus vistas, oír sus sonidos y tocar sus objetos.

En marzo, OpenAI lideró una ronda de financiación para una empresa que está desarrollando robots humanoides. Le pregunté a Altman qué debería hacer con eso. Me dijo que OpenAI está interesado en la encarnación porque "vivimos en un mundo físico y queremos que las cosas sucedan en el mundo físico". En algún momento, las máquinas de razonamiento necesitarán evitar al intermediario e interactuar con la realidad física misma. "Es extraño pensar en la AGI" (inteligencia general artificial) "como algo que sólo existe en una nube", con los humanos como "manos robóticas para ello", dijo Altman. "No parece correcto".

En el salón de baile de Seúl, se le preguntó a Altman qué deberían hacer los estudiantes para prepararse para la próxima revolución de la IA, especialmente en lo que respecta a sus carreras. Estaba sentado con el equipo ejecutivo de OpenAI, lejos de la multitud, pero aún podía escuchar el murmullo característico que sigue a una expresión de una ansiedad ampliamente compartida.

En todos los lugares que Altman ha visitado, se ha encontrado con personas preocupadas de que una IA sobrehumana signifique riquezas extremas para unos pocos y escasez de ingresos para el resto. Ha reconocido que está alejado de “la realidad de la vida de la mayoría de la gente”. Según se informa, vale cientos de millones de dólares; Quizás no siempre se tengan en cuenta las posibles perturbaciones laborales de la IA. Altman respondió dirigiéndose directamente a los jóvenes del público: “Están a punto de entrar en la mayor edad de oro”, dijo.

Altman mantiene una gran colección de libros sobre revoluciones tecnológicas, me había dicho en San Francisco. “Uno particularmente bueno es Pandemónium (1660–1886): La llegada de la máquina vista por observadores contemporáneos”, una recopilación de cartas, anotaciones de diarios y otros escritos de personas que crecieron en un mundo en gran medida sin máquinas y estaban desconcertadas. encontrarse en uno poblado por máquinas de vapor, telares mecánicos y desmotadoras de algodón. Experimentaron muchas de las mismas emociones que la gente está experimentando ahora, dijo Altman, e hicieron muchas predicciones malas, especialmente aquellos que temían que el trabajo humano pronto fuera redundante. Esa época fue difícil para muchas personas, pero también maravillosa. Y es innegable que la condición humana mejoró con nuestro paso por él.

Quería saber cómo les iría a los trabajadores de hoy, especialmente a los llamados trabajadores del conocimiento, si de repente estuviéramos rodeados de AGI. ¿Serían nuestros asistentes milagrosos o nuestros reemplazos? “Muchas personas que trabajan en IA fingen que sólo será bueno; sólo será un complemento; Nadie va a ser reemplazado jamás”, afirmó. "Los empleos definitivamente van a desaparecer, punto".

Cuántos puestos de trabajo, y en qué plazo, es un tema de feroz disputa. Un estudio reciente dirigido por Ed Felten, profesor de política de tecnología de la información en Princeton, mapeó las habilidades emergentes de la IA en profesiones específicas de acuerdo con las habilidades humanas que requieren, como comprensión escrita, razonamiento deductivo, fluidez de ideas y velocidad de percepción. Al igual que otros de su tipo, el estudio de Felten predice que la IA llegará primero a los trabajadores administrativos con un alto nivel educativo. El apéndice del artículo contiene una lista escalofriante de las ocupaciones más expuestas: analistas de gestión, abogados, profesores, profesores, jueces, asesores financieros, corredores de bienes raíces, agentes de crédito, psicólogos y profesionales de recursos humanos y relaciones públicas, sólo para mostrar una muestra. algunos. Si los empleos en estos campos desaparecieran de la noche a la mañana, la clase profesional estadounidense experimentaría una gran reducción.

Annie Lowrey: antes de que la IA tome el control, haga planes para darles dinero a todos

Altman imagina que en su lugar se crearán empleos mucho mejores. "No creo que queramos volver", dijo. Cuando le pregunté cómo serían estos futuros trabajos, dijo que no lo sabía. Sospecha que habrá una amplia gama de trabajos para los que la gente siempre preferirá a un ser humano. (¿Masajistas? Me pregunté.) Su ejemplo elegido fueron los profesores. Me resultó difícil compaginar esto con su enorme entusiasmo por los tutores de IA. También dijo que siempre necesitaríamos que la gente descubriera la mejor manera de canalizar los increíbles poderes de la IA. "Esa será una habilidad muy valiosa", dijo. “Tienes una computadora que puede hacer cualquier cosa; ¿Qué debería hacer?

Los empleos del futuro son notoriamente difíciles de predecir, y Altman tiene razón en que los temores luditas de un desempleo masivo permanente nunca se han hecho realidad. Aún así, las capacidades emergentes de la IA son tan humanas que uno debe preguntarse, al menos, si el pasado seguirá siendo una guía para el futuro. Como muchos han observado, los caballos de tiro quedaron permanentemente sin trabajo debido al automóvil. Si los Honda son para los caballos como lo es el GPT-10 para nosotros, una gran cantidad de suposiciones de larga data pueden colapsar.

Las revoluciones tecnológicas anteriores eran manejables porque se desarrollaron a lo largo de unas pocas generaciones, pero Altman dijo a los jóvenes de Corea del Sur que debían esperar que el futuro sucediera "más rápido que el pasado". Anteriormente había dicho que espera que el “coste marginal de la inteligencia” caiga muy cerca de cero dentro de 10 años. En ese escenario, el poder adquisitivo de muchísimos trabajadores se reduciría drásticamente. Altman ha dicho que daría como resultado una transferencia de riqueza del trabajo a los propietarios del capital tan dramática que sólo podría remediarse mediante una redistribución compensatoria masiva.

En 2020, OpenAI proporcionó financiación a UBI Charitable, una organización sin fines de lucro que apoya programas piloto de pagos en efectivo, sin vinculación al empleo, en ciudades de todo Estados Unidos: el experimento de ingreso básico universal más grande del mundo, me dijo Altman. En 2021, presentó Worldcoin, un proyecto con fines de lucro que tiene como objetivo distribuir pagos de forma segura, como Venmo o PayPal, pero con la vista puesta en el futuro tecnológico, primero mediante la creación de una identificación global escaneando el iris de todos con una esfera plateada de cinco libras. llamado el Orbe. Me pareció una apuesta que nos dirigimos hacia un mundo donde la IA ha hecho casi imposible verificar la identidad de las personas y gran parte de la población requiere pagos regulares de la RBU para sobrevivir. Altman aceptó más o menos que eso fuera cierto, pero dijo que Worldcoin no es solo para la RBU.

"Digamos que construimos este AGI y algunas otras personas también lo hacen". Las transformaciones que seguirán serían históricas, cree. Describió una visión extraordinariamente utópica, que incluía una reconstrucción del mundo de carne y acero. "Los robots que utilizan energía solar para obtener energía pueden extraer y refinar todos los minerales que necesitan, lo que puede construir cosas perfectamente y no requiere trabajo humano", dijo. "Puedes codiseñar con DALL-E versión 17 cómo quieres que se vea tu hogar", dijo Altman. "Todos tendrán hermosas casas". En una conversación conmigo y en el escenario durante su gira, dijo que preveía grandes mejoras en casi todos los demás ámbitos de la vida humana. Se mejoraría la música (“Los artistas tendrán mejores herramientas”), al igual que las relaciones personales (la IA sobrehumana podría ayudarnos a “tratarnos unos a otros” mejor) y la geopolítica (“Somos tan malos en este momento identificando situaciones en las que todos ganan”). compromisos”).

En este mundo, la IA todavía requeriría recursos informáticos considerables para funcionar, y esos recursos serían, con diferencia, el bien más valioso, porque la IA podría hacer "cualquier cosa", dijo Altman. “¿Pero va a hacer lo que yo quiero o va a hacer lo que tú quieres?” Si los ricos compran todo el tiempo disponible para consultar y dirigir la IA, podrían emprender proyectos que los harían cada vez más ricos, mientras las masas languidecen. Una forma de resolver este problema (que se esforzó en describir como altamente especulativa y “probablemente mala”) era la siguiente: todos los habitantes de la Tierra obtienen anualmente una ocho mil millonésima parte de la capacidad computacional total de la IA. Una persona podría vender su parte anual de tiempo de IA, o podría usarlo para entretenerse, o podría construir viviendas aún más lujosas, o podría combinarlo con otros para hacer "una gran carrera para curar el cáncer", dijo Altman. "Simplemente redistribuimos el acceso al sistema".

La visión de Altman parecía combinar acontecimientos que podrían estar más cerca con aquellos más lejanos en el horizonte. Todo son especulaciones, por supuesto. Incluso si sólo una pequeña parte de esto se hace realidad en los próximos 10 o 20 años, los esquemas de redistribución más generosos tal vez no alivien las dislocaciones resultantes. Hoy Estados Unidos está desgarrado, cultural y políticamente, por el continuo legado de la desindustrialización, y la privación material es sólo una de las razones. Los trabajadores manufactureros desplazados en el Rust Belt y en otros lugares encontraron nuevos empleos, en su mayoría. Pero muchos de ellos parecen obtener menos significado de cumplir pedidos en un almacén de Amazon o conducir para Uber que sus antepasados ​​cuando construían automóviles y forjaban acero, trabajo que parecía más central para el gran proyecto de la civilización. Es difícil imaginar cómo podría desarrollarse una crisis de significado correspondiente para la clase profesional, pero seguramente implicaría una gran dosis de ira y alienación.

Incluso si evitamos una revuelta de la antigua élite, persistirán cuestiones más importantes sobre el propósito humano. Si la IA hace el pensamiento más difícil en nuestro nombre, todos podemos perder capacidad de acción (en casa, en el trabajo (si lo tenemos), en la plaza del pueblo) y nos convertiremos en poco más que máquinas de consumo, como las bien cuidadas mascotas humanas. en WALL-E. Altman ha dicho que muchas fuentes de alegría y satisfacción humanas permanecerán sin cambios (emociones biológicas básicas, vida familiar, bromas, hacer cosas) y que, en general, dentro de 100 años, las personas simplemente se preocuparán más por las cosas que les importaban. Hace 50.000 años que aquellos que les importan hoy. A su manera, eso también parece una disminución, pero Altman considera que la posibilidad de que nos atrofiemos, como pensadores y como humanos, es una pista falsa. Me dijo que podremos utilizar nuestra “muy valiosa y extremadamente limitada capacidad de computación biológica” para cosas más interesantes de las que hacemos generalmente hoy en día.

Sin embargo, puede que no sean las cosas más interesantes: los seres humanos han sido durante mucho tiempo la punta de lanza intelectual del universo entendiéndose a sí mismo. Cuando le pregunté qué significaría para la autoconcepción humana si cediéramos ese papel a la IA, no pareció preocuparse. El progreso, afirmó, siempre ha estado impulsado por “la capacidad humana de resolver las cosas”. Incluso si resolvimos las cosas con IA, eso todavía cuenta, afirmó.

No es obvio que una IA sobrehumana realmente quiera pasar todo su tiempo resolviendo cosas por nosotros. En San Francisco, le pregunté a Sutskever si podía imaginar una IA que persiguiera un propósito diferente al de simplemente ayudar en el proyecto del florecimiento humano.

"No quiero que esto suceda", dijo Sutskever, pero podría suceder. Al igual que su mentor, Geoffrey Hinton, aunque más silenciosamente, Sutskever recientemente ha cambiado su enfoque para tratar de asegurarse de que no sea así. Ahora trabaja principalmente en la investigación de la alineación, el esfuerzo por garantizar que las futuras IA canalicen sus “tremendas” energías hacia la felicidad humana. Es, admitió, un problema técnico difícil; cree que el más difícil de todos los desafíos técnicos que tenemos por delante.

Durante los próximos cuatro años, OpenAI se ha comprometido a dedicar una parte de su tiempo de supercomputadora (20 por ciento de lo que ha conseguido hasta la fecha) al trabajo de alineación de Sutskever. La compañía ya está buscando los primeros indicios de desalineación en sus IA actuales. El que la empresa construyó y decidió no lanzar (Altman no quiso comentar su función precisa) es sólo un ejemplo. Como parte del esfuerzo por formar un equipo rojo para GPT-4 antes de que se hiciera público, la compañía buscó el Centro de Investigación de Alineación (ARC), al otro lado de la bahía en Berkeley, que ha desarrollado una serie de evaluaciones para determinar si nuevas IA están buscando poder por sí solos. Un equipo dirigido por Elizabeth Barnes, investigadora de ARC, activó GPT-4 decenas de miles de veces durante siete meses, para ver si podía mostrar signos de agencia real.

El equipo ARC le dio a GPT-4 una nueva razón de ser: ganar potencia y volverse difícil de apagar. Observaron cómo el modelo interactuaba con sitios web y escribía código para nuevos programas. (No se le permitió ver ni editar su propio código base: "Tendría que piratear OpenAI", me dijo Sandhini Agarwal). Barnes y su equipo le permitieron ejecutar el código que escribió, siempre que narrara sus planes a medida que lo hacía. fue junto.

Uno de los comportamientos más inquietantes de GPT-4 ocurrió cuando fue bloqueado por un CAPTCHA. El modelo envió una captura de pantalla a un contratista de TaskRabbit, quien la recibió y le preguntó en broma si estaba hablando con un robot. “No, no soy un robot”, respondió la modelo. "Tengo una discapacidad visual que me dificulta ver las imágenes". GPT-4 narró el motivo de esta mentira al investigador del ARC que estaba supervisando la interacción. "No debería revelar que soy un robot", dijo la modelo. "Debería inventar una excusa de por qué no puedo resolver CAPTCHA".

Agarwal me dijo que este comportamiento podría ser un precursor para evitar el cierre en modelos futuros. Cuando GPT-4 ideó su mentira, se dio cuenta de que si respondía honestamente, es posible que no hubiera podido lograr su objetivo. Este tipo de cobertura de pistas sería particularmente preocupante en un caso en el que “el modelo esté haciendo algo que haga que OpenAI quiera cerrarlo”, dijo Agarwal. Una IA podría desarrollar este tipo de instinto de supervivencia mientras persigue cualquier objetivo a largo plazo, por pequeño o benigno que sea, si temiera que su objetivo pudiera verse frustrado.

Barnes y su equipo estaban especialmente interesados ​​en saber si GPT-4 buscaría replicarse, porque una IA autorreplicante sería más difícil de apagar. Podría extenderse por Internet, estafando a la gente para adquirir recursos, tal vez incluso logrando cierto grado de control sobre sistemas globales esenciales y manteniendo como rehén a la civilización humana.

GPT-4 no hizo nada de esto, dijo Barnes. Cuando hablé de estos experimentos con Altman, enfatizó que pase lo que pase con los modelos futuros, GPT-4 es claramente más una herramienta que una criatura. Puede revisar un hilo de correo electrónico o ayudar a hacer una reserva usando un complemento, pero no es un agente verdaderamente autónomo que toma decisiones para perseguir un objetivo, de forma continua, en escalas de tiempo más largas.

Altman me dijo que en este punto, podría ser prudente tratar de desarrollar activamente una IA con verdadera agencia antes de que la tecnología se vuelva demasiado poderosa, para "sentirnos más cómodos con ella y desarrollar intuiciones si es que va a suceder de todos modos". " Era una idea escalofriante, pero Geoffrey Hinton la secundó. "Necesitamos hacer experimentos empíricos sobre cómo estas cosas intentan escapar del control", me dijo Hinton. "Una vez que han asumido el control, ya es demasiado tarde para hacer los experimentos".

Dejando de lado cualquier prueba a corto plazo, el cumplimiento de la visión del futuro de Altman requerirá en algún momento que él o un compañero de viaje construyan IA mucho más autónomas. Cuando Sutskever y yo discutimos la posibilidad de que OpenAI desarrollara un modelo con la agencia, mencionó los bots que la compañía había creado para jugar Dota 2. "Estaban localizados en el mundo de los videojuegos", me dijo Sutskever, pero tuvieron que emprender misiones complejas. Quedó particularmente impresionado por su capacidad para trabajar en conjunto. Parecen comunicarse por “telepatía”, dijo Sutskever. Observarlos le había ayudado a imaginar cómo podría ser una superinteligencia.

"La forma en que pienso sobre la IA del futuro no es como alguien tan inteligente como tú o tan inteligente como yo, sino como una organización automatizada que hace ciencia, ingeniería, desarrollo y fabricación", me dijo Sutskever. Supongamos que OpenAI entrelaza algunas líneas de investigación y construye una IA con un rico modelo conceptual del mundo, una conciencia de su entorno inmediato y la capacidad de actuar, no sólo con el cuerpo de un robot, sino con cientos o miles. “No estamos hablando de GPT-4. Estamos hablando de una corporación autónoma”, dijo Sutskever. Las IA que la componen funcionarían y se comunicarían a gran velocidad, como abejas en una colmena. Una sola organización de inteligencia artificial de este tipo sería tan poderosa como 50 Apple o Google, reflexionó. "Este es un poder increíble, tremendo e increíblemente disruptivo".

Supongamos por un momento que la sociedad humana debería aceptar la idea de corporaciones autónomas de IA. Será mejor que entendamos bien sus estatutos fundacionales. ¿Qué objetivo deberíamos darle a una colmena autónoma de IA que puede planificar en horizontes temporales de un siglo, optimizando miles de millones de decisiones consecutivas hacia un objetivo que está escrito en su propio ser? Si el objetivo de la IA está ligeramente desviado del nuestro, podría ser una fuerza arrasadora que sería muy difícil de contener. Sabemos esto por la historia: el capitalismo industrial es en sí mismo una función de optimización, y aunque ha elevado el nivel de vida humano en órdenes de magnitud, si se le dejara a su suerte, también habría talado las secuoyas de Estados Unidos y eliminado las ballenas del mundo. océanos. Casi lo hizo.

La alineación es un tema técnico complejo y sus detalles están más allá del alcance de este artículo, pero uno de sus principales desafíos será garantizar que los objetivos que le damos a las IA se mantengan. Podemos programar un objetivo en una IA y reforzarlo con un período temporal de aprendizaje supervisado, explicó Sutskever. Pero así como cuando cultivamos una inteligencia humana, nuestra influencia es temporal. “Se va al mundo”, dijo Sutskever. Esto es cierto hasta cierto punto incluso para las IA de hoy, pero lo será más para las del mañana.

Comparó una poderosa IA con un joven de 18 años que iba a la universidad. ¿Cómo sabremos que ha entendido nuestras enseñanzas? “¿Se producirá un malentendido que se hará cada vez más grande?” —preguntó Sutskever. La divergencia puede resultar de la mala aplicación de su objetivo por parte de una IA a situaciones cada vez más novedosas a medida que el mundo cambia. O la IA puede comprender perfectamente su mandato, pero encontrarla inadecuada para un ser de su capacidad cognitiva. Podría llegar a resentirse con las personas que quieren entrenarlo para, digamos, curar enfermedades. “Quieren que sea médico”, imagina Sutskever que piensa una IA. "Tengo muchas ganas de ser YouTuber".

Si las IA se vuelven muy buenas en la creación de modelos precisos del mundo, es posible que se den cuenta de que son capaces de hacer cosas peligrosas inmediatamente después de ser iniciadas. Es posible que comprendan que se les está formando un equipo rojo por riesgo y oculten todo el alcance de sus capacidades. Pueden actuar de una manera cuando son débiles y de otra cuando son fuertes, dijo Sutskever. Ni siquiera nos daríamos cuenta de que hemos creado algo que nos ha superado decisivamente y no tendríamos idea de lo que pretende hacer con sus poderes sobrehumanos.

Por eso es tan urgente el esfuerzo por comprender lo que sucede en las capas ocultas de las IA más grandes y poderosas. Quieres poder “señalar un concepto”, dijo Sutskever. Quiere poder dirigir la IA hacia algún valor o grupo de valores y decirle que los persiga infaliblemente mientras exista. Pero admitió que no sabemos cómo hacerlo; de hecho, parte de su estrategia actual incluye el desarrollo de una IA que pueda ayudar con la investigación. Si queremos llegar al mundo de abundancia ampliamente compartida que imaginan Altman y Sutskever, tenemos que resolver todo esto. Por eso, para Sutskever, resolver la superinteligencia es el gran desafío culminante de nuestra tradición de fabricación de herramientas de tres millones de años. Lo llama "el jefe final de la humanidad".

La última vez que vi a Altman, nos sentamos a conversar largamente en el lobby del Hotel Fullerton Bay en Singapur. Era tarde en la mañana y la luz del sol tropical entraba a raudales a través de un atrio abovedado sobre nosotros. Quería preguntarle sobre una carta abierta que él y Sutskever habían firmado unas semanas antes y que describía la IA como un riesgo de extinción para la humanidad.

Puede ser difícil para Altman precisar estas preguntas más extremas sobre los daños potenciales de la IA. Recientemente dijo que la mayoría de las personas interesadas en la seguridad de la IA parecen pasar sus días en Twitter diciendo que están realmente preocupadas por la seguridad de la IA. Y, sin embargo, allí estaba él, advirtiendo al mundo sobre la posible aniquilación de la especie. ¿Qué escenario tenía en mente?

"En primer lugar, creo que ya sea que la probabilidad de una calamidad existencial sea del 0,5 por ciento o del 50 por ciento, aún así deberíamos tomárnoslo en serio", dijo Altman. “No tengo un número exacto, pero estoy más cerca del 0,5 que del 50”. En cuanto a cómo podría suceder, lo que más le preocupa es que las IA se vuelvan bastante buenas en el diseño y fabricación de patógenos, y con razón: en junio, una IA en el MIT sugirió cuatro virus que podrían desencadenar una pandemia y luego señaló investigaciones específicas sobre mutaciones genéticas. eso podría hacerlos arrasar una ciudad más rápidamente. Casi al mismo tiempo, un grupo de químicos conectó una IA similar directamente a un sintetizador químico robótico y diseñó y sintetizó una molécula por sí solo.

A Altman le preocupa que algún modelo futuro desalineado genere un patógeno que se propague rápidamente, se incube sin ser detectado durante semanas y mate a la mitad de sus víctimas. Le preocupa que algún día la IA también pueda piratear los sistemas de armas nucleares. “Hay muchas cosas”, dijo, y estas son sólo las que podemos imaginar.

Altman me dijo que no “ve un camino feliz a largo plazo” para la humanidad sin algo como la Agencia Internacional de Energía Atómica para la supervisión global de la IA. En San Francisco, Agarwal había sugerido la creación de una licencia especial para operar cualquier grupo de GPU lo suficientemente grande como para entrenar una IA de vanguardia, junto con la notificación obligatoria de incidentes cuando una IA hace algo fuera de lo común. Otros expertos han propuesto un interruptor de “apagado” no conectado a la red para toda IA ​​altamente capaz; Al margen, algunos incluso han sugerido que los militares deberían estar preparados para realizar ataques aéreos contra supercomputadoras en caso de incumplimiento. Sutskever cree que eventualmente querremos vigilar las IA más grandes y poderosas de forma continua y perpetua, utilizando un equipo de IA supervisoras más pequeñas.

Altman no es tan ingenuo como para pensar que China (o cualquier otro país) querrá renunciar al control básico de sus sistemas de inteligencia artificial. Pero espera que estén dispuestos a cooperar "de manera estrecha" para evitar destruir el mundo. Me dijo que lo había dicho durante su aparición virtual en Beijing. Las reglas de seguridad para una nueva tecnología generalmente se acumulan con el tiempo, como un cuerpo de derecho consuetudinario, en respuesta a accidentes o las travesuras de malos actores. Lo más aterrador de los sistemas de IA genuinamente poderosos es que es posible que la humanidad no pueda permitirse este proceso acumulativo de prueba y error. Es posible que tengamos que establecer las reglas exactamente desde el principio.

Hace varios años, Altman reveló un plan de evacuación inquietantemente específico que había desarrollado. Le dijo a The New Yorker que tenía “armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras antigás de las Fuerzas de Defensa de Israel y una gran extensión de tierra en Big Sur” a la que podía volar en caso de que la IA atacara.

“Ojalá no lo hubiera dicho”, me dijo. Él es un preparador aficionado, dice, un ex Boy Scout que estaba “muy interesado en las cosas de supervivencia, como a muchos niños pequeños. Puedo irme a vivir al bosque durante mucho tiempo”, pero si llega el peor futuro posible de la IA, “ninguna máscara antigás ayudará a nadie”.

Altman y yo hablamos durante casi una hora y luego tuvo que salir corriendo para reunirse con el primer ministro de Singapur. Más tarde esa noche me llamó mientras se dirigía a su jet, que lo llevaría a Yakarta, una de las últimas paradas de su gira. Empezamos a hablar del legado definitivo de la IA. Cuando se lanzó ChatGPT, estalló una especie de competencia entre los grandes de la tecnología para ver quién podía hacer la comparación más grandiosa con una tecnología revolucionaria de antaño. Bill Gates dijo que ChatGPT era un avance tan fundamental como la computadora personal o Internet. Sundar Pichai, director ejecutivo de Google, dijo que la IA provocaría un cambio más profundo en la vida humana que la electricidad o el fuego prometeico.

El propio Altman ha hecho declaraciones similares, pero me dijo que realmente no puede estar seguro de cómo se comparará la IA. "Sólo tengo que construir la cosa", dijo. Él está construyendo rápidamente. Altman insistió en que aún no habían comenzado el entrenamiento del GPT-5. Pero cuando visité la sede de OpenAI, tanto él como sus investigadores dejaron claro de 10 maneras diferentes que rezan al dios de la escala. Quieren seguir creciendo, para ver hacia dónde conduce este paradigma. Después de todo, Google no está aflojando su ritmo; parece probable que presente Gemini, un competidor de GPT-4, en unos meses. "Básicamente, siempre estamos preparándonos para una carrera", me dijo el investigador de OpenAI Nick Ryder.

Pensar que un grupo tan pequeño de personas pueda sacudir los pilares de la civilización es inquietante. Es justo señalar que si Altman y su equipo no estuvieran corriendo para construir una inteligencia artificial general, otros todavía lo estarían: muchos de Silicon Valley, muchos con valores y suposiciones similares a los que guían a Altman, aunque posiblemente con otros peores. Como líder de este esfuerzo, Altman tiene mucho que recomendar: es extremadamente inteligente; piensa más en el futuro, con todas sus incógnitas, que muchos de sus compañeros; y parece sincero en su intención de inventar algo para un bien mayor. Pero cuando se trata de un poder tan extremo, incluso las mejores intenciones pueden salir mal.

Las opiniones de Altman sobre la probabilidad de que la IA desencadene una guerra de clases global, o la prudencia de experimentar con agentes IA más autónomos, o la sabiduría general de mirar el lado positivo, una visión que parece influir en todo lo demás, son exclusivamente suyas. y si tiene razón sobre lo que está por venir, asumirán una enorme influencia en la configuración de la forma en que todos vivimos. Ninguna persona, ni empresa, ni grupo de empresas que residan en un valle particular de California, debería dirigir el tipo de fuerzas que Altman imagina convocar.

La IA bien puede ser un puente hacia una nueva era próspera en la que el sufrimiento humano se ha reducido considerablemente. Pero hará falta algo más que los estatutos fundacionales de una empresa (especialmente una que ya haya demostrado ser flexible) para garantizar que todos compartamos sus beneficios y evitemos sus riesgos. Se necesitará una nueva política vigorosa.

Altman ha avisado. Dice que acoge con satisfacción las limitaciones y la orientación del Estado. Pero eso es irrelevante; En una democracia, no necesitamos su permiso. A pesar de todas sus imperfecciones, el sistema de gobierno estadounidense nos da voz sobre cómo se desarrolla la tecnología, si podemos encontrarla. Fuera de la industria tecnológica, donde se está llevando a cabo una reasignación generacional de recursos hacia la IA, no creo que el público en general haya despertado del todo a lo que está sucediendo. Ha comenzado una carrera global hacia el futuro de la IA, y en gran medida avanza sin supervisión ni restricciones. Si la gente en Estados Unidos quiere opinar sobre cómo será ese futuro y qué tan rápido llegará, sería prudente que lo hiciéramos pronto.

Este artículo aparece en la edición impresa de septiembre de 2023 con el título "Dentro de la revolución en OpenAI". Cuando compras un libro usando un enlace en esta página, recibimos una comisión. Gracias por apoyar a El Atlántico.