Ilya Sutskever, director científico de OpenAI: “Va a ser monumental, sacudirá la Tierra.

Habrá un antes y un después” El científico jefe de OpenAI habla de sus esperanzas y temores sobre el futuro de la IA.

Me reúno con Sutskever, cofundador y director científico de OpenAI, en las oficinas de su empresa en una anodina calle del Mission District de San Francisco (California, EE UU). El objetivo es que comparta sus previsiones sobre el futuro de una tecnología mundialmente conocida, y en cuyo desarrollo ha tenido mucho que ver. También quiero saber qué cree que será lo próximo en llega y, en particular, por qué la construcción de la próxima generación de los modelos generativos insignia de OpenAI ya no es el centro de su trabajo.

En lugar de construir el próximo GPT o el creador de imágenes DALL-E, Sutskever cuenta que su nueva prioridad es averiguar cómo impedir que una superinteligencia artificial, una hipotética tecnología futura que ve llegar con la previsión de un verdadero creyente, se rebele.

Sutskever también se expresa sobre diferentes temas. Cree que ChatGPT podría ser consciente (mirándolo de lado).  También considera que el mundo tiene que darse cuenta del verdadero poder de la tecnología que tanto su empresa como otras están creando a toda velocidad. Y opina que algún día un grupo de humanos optará por fusionarse con las máquinas.

Mucho de lo que dice Sutskever es descabellado, pero no tanto como hubiera parecido hace uno o dos años. Como él mismo dice, ChatGPT ya ha reescrito las expectativas de mucha gente sobre el porvenir, al convertir el “nunca ocurrirá” en “ocurrirá más rápido de lo que crees”.

“Es importante hablar de hacia dónde se dirige todo esto”, afirma Sutskever antes de predecir el desarrollo de la inteligencia artificial generalizada, con la que se refiere a máquinas tan inteligentes como los humanos, como si fuera una apuesta tan segura como otro iPhone. “En algún momento, tendremos una inteligencia artificial general (IAG) real. Quizá OpenAI la construya. Quizá alguna otra empresa lo haga”.

Desde el lanzamiento de ChatGPT, su repentino éxito sorpresa del pasado noviembre, la expectación en torno a OpenAI ha sido asombrosa, incluso en un sector conocido por la exageración. Nadie se cansa de hablar de esta startup de 80.000 millones de dólares (75.400 millones de euros). Los líderes mundiales buscan, y consiguen, audiencias privadas. Los nombres de sus productos aparecen en conversaciones informales.

Sam Altman, CEO de OpenAI, pasó varias semanas estivales en una gira de divulgación por todo el mundo, saludando a políticos y hablando ante auditorios llenos. Pero Sutskever es una figura menos pública, y no concede muchas entrevistas.

El científico habla de forma sosegada y metódica. Hace largas pausas para pensar lo que quiere decir y cómo decirlo, dando vueltas a las preguntas como si fueran rompecabezas que debe resolver. No parece interesado en hablar de sí mismo. “Llevo una vida muy sencilla”, explica. “Voy a trabajar y luego vuelvo a casa. No hago más. Hay muchas actividades sociales a las que uno podría dedicarse, muchos eventos a los que podría ir. Y no lo hago”.

No obstante, cuando hablamos de la IA, los riesgos y recompensas que ve en el futuro, se abren nuevas perspectivas. “Va a ser algo monumental, que sacudirá la Tierra. Habrá un antes y un después”.

“Cada vez mejor”

En un mundo sin OpenAI, Sutskever entraría en los anales de la historia de la inteligencia artificial. Es israelí-canadiense, nació en la URSS pero se crio en Jerusalén desde los cinco años. De hecho, aún habla ruso y hebreo, además de inglés. Después se trasladó a Canadá para estudiar en la Universidad de Toronto con Geoffrey Hinton, el pionero de la IA que hizo públicos sus temores sobre la tecnología que ayudó a inventar  a principios de 2023. Sutskever no quiso hacer comentarios sobre las declaraciones de Hinton, pero su nuevo enfoque sobre la superinteligencia malvada sugiere que están en la misma página.

Más tarde, Hinton compartiría el Premio Turing con Yann LeCun y Yoshua Bengio por su trabajo en redes neuronales. Pero, cuando Sutskever se unió a él a principios de la década de 2000, la mayoría de los investigadores de IA creían que las redes neuronales eran un callejón sin salida. Hinton era una excepción. Ya estaba entrenando modelos diminutos que podían producir cadenas cortas de texto de un carácter tras otro, Sutskever afirma: “Era el principio de la IA generativa. Era genial, pero no muy buena“.

A Sutskever le fascinaban los cerebros: cómo aprendían y cómo ese proceso podía recrearse, o al menos imitarse, en las máquinas. Igual que Hinton, vio el potencial de las redes neuronales y la técnica de ensayo y error que Hinton utilizaba para entrenarlas, denominada aprendizaje profundo. “Cada vez era mejor”, recuerda Sutskever.

En 2012, Sutskever, Hinton y Alex Krizhevsky, otro estudiante de posgrado de Hinton, construyeron una red neuronal llamada AlexNet, entrenada para identificar objetos en imágenes y mejor que cualquier otro software existente en aquel momento. Fue el Big Bang del aprendizaje profundo.

Tras muchos años de intentos fallidos, habían demostrado que, después de todo, las redes neuronales eran eficaces en el reconocimiento de patrones. Solo se necesitaban una potencia de cálculo desorbitada y más datos de los nunca vistos por la mayoría de investigadores. En este caso, un millón de imágenes del conjunto de datos ImageNet que Fei-Fei Li, investigador de la Universidad de Princeton (Nueva Jersey, EE UU), llevaba construyendo desde 2006.

El cambio en la computación vino de la mano de la unidad de procesamiento gráfico (GPU), un nuevo tipo de chip fabricado por Nvidia. Las GPU se diseñaron para transmitir a la pantalla imágenes de videojuegos a la velocidad del rayo. Pero las tareas para los que las GPU son eficientes, como multiplicar cuadrículas masivas de números, se parecían mucho a las tareas para entrenar redes neuronales.

Ahora, Nvidia es una empresa billonaria. En aquel momento, la compañía estaba desesperada por encontrar aplicaciones para su nuevo hardware. “Cuando inventas una nueva tecnología, tienes que ser receptivo a ideas locas“, afirma Jensen Huang, CEO de Nvidia. “Mi ánimo siempre fue buscar algo estrafalario, y la idea de que las redes neuronales transformarían la informática era escandalosamente estrafalaria“.

Huang afirma que Nvidia envió al equipo de Toronto un par de GPU para que las probaran al trabajar en AlexNet. Pero querían la versión más reciente, un chip llamado GTX 580 que se estaba agotando rápidamente en las tiendas. Según Huang, Sutskever cruzó la frontera de Toronto a Nueva York para comprar algunos. “La gente hacía cola a la vuelta de la esquina”, cuenta Huang. “No sé cómo lo hizo, pues estoy seguro de que solo se permitía comprar una a cada uno. Teníamos una política muy estricta de una GPU por persona, pero al parecer llenó un maletero con ellas”. Ese baúl lleno de GTX 580 cambió el mundo.

Es una gran historia, pero podría no ser cierta. Sutskever insiste en que compró las primeras GPU por internet. Pero este tipo de mitos son habituales en este negocio. El propio Sutskever es más humilde: “Pensé que, si conseguía un mínimo de progreso real, lo consideraría un éxito”, reconoce. “El impacto en el mundo real parecía muy lejano porque los ordenadores eran muy pequeños por aquel entonces”.

Tras el éxito de AlexNet, Google llamó a la puerta, adquirió DNNresearch, la spin-off de Hinton, y contrató a Sutskever. En Google, Sutskever demostró que los poderes de reconocimiento de patrones por parte del aprendizaje profundo podían aplicarse a secuencias de datos, como palabras y frases, así como a imágenes. “Ilya siempre ha estado interesado en el lenguaje”, asegura Jeff Dean, ex compañero de Sutskever y actual jefe científico de Google. “Hemos tenido grandes discusiones a lo largo de los años. Ilya tiene un gran sentido intuitivo de hacia dónde pueden ir las cosas”.

Sin embargo, Sutskever no permaneció en Google mucho tiempo. En 2014, fue contratado para convertirse en cofundador de OpenAI. Con el respaldo de mil millones de dólares de Altman, Elon Musk, Peter Thiel, Microsoft, Y Combinator y otros inversores, así como una gran dosis de fanfarronería de Silicon Valley, la nueva empresa se propuso desde el inicio desarrollar la inteligencia artificial. Una perspectiva que pocos se tomaron en serio en aquel momento.

Con Sutskever, el cerebro detrás de los dólares, la fanfarronería era comprensible. Hasta entonces, había estado en racha, sacando cada vez más partido a las redes neuronales. Su reputación le precedía, lo que le convertía en un buen partido, explicó Dalton Caldwell, director gerente de Inversiones de Y Combinator.

“Recuerdo que Sam [Altman] se refirió a Ilya como uno de los investigadores más respetados del mundo”, rememora Caldwell. “Pensaba que Ilya sería capaz de atraer a muchos de los mejores talentos en IA. Incluso mencionó que Yoshua Bengio, uno de los mejores expertos en IA del mundo, creía que era poco probable encontrar un candidato mejor que Ilya para ser el científico principal de OpenAI”.

Sin embargo, al principio la empresa se tambaleó. “Hubo un periodo de tiempo, al empezar OpenAI, donde no estaba muy seguro de cómo iba a continuar el progreso”, reconoce Sutskever. “Pero tenía una creencia clara: no se apuesta contra el aprendizaje profundo. De alguna manera, cada vez que te topas con un obstáculo, los investigadores encuentran la forma de sortearlo en seis meses o un año”.

La fe de Sutskever dio sus frutos. El primer GPT, los grandes modelos lingüísticos de OpenAI y cuyo nombre significa “transformador generativo preentrenado“, apareció en 2016. Después, llegaron GPT-2 y GPT-3. Luego DALL-E, el sorprendente modelo de texto a imagen. Nadie construía nada tan bueno. Con cada versión, OpenAI subía el listón de lo que se creía posible.

Gestión de las expectativas

En noviembre de 2022, OpenAI lanzó un chatbot de uso gratuito que reempaquetaba parte de su tecnología existente. Esto cambió la agenda de toda la industria.

Entonces, OpenAI no tenía ni idea de lo que estaba haciendo. Las expectativas dentro de la empresa no podían ser más bajas, recuerda Sutskever: “Voy a admitir, para mi vergüenza -no sé si debería, pero qué demonios, es la verdad- que cuando creamos ChatGPT no sabía si era bueno. Cuando le hacías una pregunta objetiva, te daba una respuesta equivocada. Pensé que iba a ser tan poco impresionante que la gente diría: ‘¿Por qué haces esto? Es muy aburrido’“.

La atracción fue la comodidad, asegura Sutskever. El gran modelo de lenguaje que se esconde bajo el capó de ChatGPT ya existía desde hacía meses. Pero envolverlo en una interfaz accesible y ofrecerlo gratis hizo que miles de millones de personas conocieran por primera vez lo que OpenAI y otras empresas estaban construyendo.

“Esa primera experiencia es lo que engancha a los usuarios”, admite Sutskever. “Usarlo por primera vez es casi una experiencia espiritual. Dices: «Dios mío, parece que este ordenador comprende»”.

OpenAI acumuló 100 millones de usuarios en menos de dos meses, muchos de ellos deslumbrados por este nuevo y asombroso juguete. Aaron Levie, CEO de la empresa de gestión en la nube Box, resumió el ambiente una semana después del lanzamiento al tuitear: “ChatGPT es uno de esos momentos raros en la tecnología donde ves un atisbo de cómo todo va a ser diferente en el futuro”.

Esa maravilla se derrumba en cuanto ChatGPT escribe alguna estupidez, pero para entonces ya no importa. “Ese atisbo de lo que era posible es suficiente”, señala Sutskever. ChatGPT cambió los horizontes del público.

“IAG dejó de ser una mala palabra en el campo del aprendizaje automático”, afirma Sutskever. “Eso supuso un gran cambio. Históricamente, la gente ha adoptado una actitud de que la IA no funciona, cada paso es muy difícil, hay que luchar por cada gramo de progreso. Y cuando la gente venía con grandes proclamas sobre IAG, los investigadores decían: «¿De qué estás hablando? Esto no funciona, aquello no funciona. Tiene demasiados problemas». Pero con ChatGPT empezó a cambiar”.

¿Ese cambio empezó a producirse solo hace un año? “Sucedió gracias a ChatGPT”, declara el científico. “ChatGPT ha permitido soñar a los investigadores de aprendizaje automático”.

Los científicos de OpenAI, evangelistas desde el principio, han alimentado esos sueños con publicaciones en blogs y giras de conferencias. Y funciona. “Ahora, hay gente que habla de lo lejos que llegará la IA, también hablan de IAG o superinteligencia”. Y no se trata solo de investigadores. “Los gobiernos hablan de ello”, dice Sutskever. “Es una locura”.

Cosas increíbles

Sutskever insiste en que toda esta charla sobre una tecnología que aún no existe, y puede que nunca exista, es algo bueno. Pues hace que más personas sean conscientes de un futuro que él ya da por sentado.

“Pueden hacerse tantas cosas asombrosas con IAG, cosas increíbles: automatizar la atención sanitaria, hacerla mil veces más barata y mil veces mejor, curar tantas enfermedades, resolver el calentamiento global”, ejemplifica Sutskever. “Pero hay muchas personas preocupadas: «Dios mío, ¿las empresas de IA lograrán gestionar esta tremenda tecnología?»”.

Presentada de este modo, la IAG suena más como un genio que concede deseos que como una perspectiva del mundo real. Pocos dirían que no a salvar vidas y solucionar el cambio climático. Pero el problema de una tecnología que no existe es que se puede decir lo que se quiera de ella.

¿De qué habla realmente Sutskever cuando habla de IAG? “IAG no pretende ser un término científico sino un umbral útil, un punto de referencia“.

“La idea es…”, empieza, pero se detiene. “Es el punto en el que la IA es tan inteligente que, si una persona puede hacer alguna tarea, entonces la IA también puede. En ese punto se puede decir que tienes IAG”.

Puede que la población hable de ello, pero la IA sigue siendo una de las ideas más controvertidas en este campo. Pocas personas dan por hecho su desarrollo. Muchos investigadores creen que se necesitan grandes avances conceptuales antes de que veamos algo parecido a lo que Sutskever tiene en mente, y algunos creen que nunca lo veremos.

Sin embargo, es una visión que le ha impulsado desde el principio. “Siempre me ha inspirado y motivado la idea”, reconoce Sutskever. “Por aquel entonces no se llamaba IAG, es como conseguir que una red neuronal lo haga todo. No siempre creí que fuera posible, pero era la montaña que tocaba escalar”.

También establece un paralelismo entre el funcionamiento de las redes neuronales y los cerebros. Ambas toman datos, agregan señales a partir de ellos y, basándose en un proceso sencillo (matemáticas en las redes neuronales, sustancias químicas y bioelectricidad en los cerebros), las propagan o no. Es una gran simplificación, pero el principio se mantiene.

“Si lo crees, si te permites creerlo, hay muchas implicaciones interesantes”, admite Sutskever. “La principal es que una gran red neuronal artificial puede hacer muchas cosas. En concreto, si el cerebro humano puede hacer algo, entonces una gran red neuronal artificial también podría hacer algo parecido”.

“Todo fluye si te tomas esta afirmación en serio” , cuenta el experto. “Una gran parte de mi trabajo se explica por eso”.

Ya que hablamos de cerebros, pregunto sobre una de las publicaciones de Sutskever en X, antes conocido como Twitter. El feed de Sutskever parece un rollo de aforismos. “Si valoras la inteligencia por encima de cualquier otra cualidad humana, lo vas a pasar mal”; “La empatía en la vida y en los negocios está infravalorada“; “Lo perfecto ha destruido muchas cosas que estarían perfectamente bien”.

En febrero de 2022, Sutskever publicó “puede que las grandes redes neuronales sean ligeramente conscientes en la actualidad”. A lo que Murray Shanahan, científico principal de Google DeepMind, profesor del Imperial College de Londres (Reino Unido) y asesor científico de la película Ex Machina (2015), respondió: “… en el mismo sentido en que un gran campo de trigo puede parecerse ligeramente a la pasta”.

Sutskever se ríe cuando saco el tema. ¿Estaba troleando? No. “¿Conoces el concepto de cerebro de Boltzmann?”, pregunta.

Se refiere a un experimento mental (irónico) de la mecánica cuántica que lleva el nombre de Ludwig Boltzmann, físico del siglo XIX. En él se imagina que las fluctuaciones termodinámicas aleatorias del universo hacen que los cerebros aparezcan y desaparezcan.

“Creo que, ahora mismo, estos modelos lingüísticos son como un cerebro de Boltzmann”, explica Sutskever. “Empiezas a hablarle, lo haces durante un rato, terminas de hablar y el cerebro…”. Hace un movimiento de desaparición con las manos. Puf. Adiós, cerebro.

¿Estás diciendo que, mientras la red neuronal está activa, hay algo ahí? Le pregunto.

“Podría ser”, responde. “No lo sé con seguridad, pero es una posibilidad muy difícil de rebatir. Quién sabe lo que está pasando, ¿verdad?”.

IA, pero no como la conocemos

Mientras otros se debaten ante la idea de máquinas que puedan igualar la inteligencia humana, Sutskever se prepara para máquinas que nos superen. Lo llama superinteligencia artificial. “Verán las cosas con más profundidad. Verán cosas que nosotros no vemos”.

De nuevo, me cuesta entender lo que esto significa en realidad. La inteligencia humana es nuestra referencia de lo que es la inteligencia. ¿Qué quiere decir Sutskever con una inteligencia más inteligente que la humana?

“Hemos visto un ejemplo de una superinteligencia muy afinada en AlphaGo“, afirma. En 2016, la IA de DeepMind que compite a juegos de mesa venció a Lee Sedol, uno de los mejores jugadores de Go del mundo, por 4-1 tras cinco partidas. “Descubrió cómo jugar a Go de formas diferentes a las desarrolladas colectivamente por la humanidad durante miles de años”, afirma Sutskever. “Se le ocurrieron nuevas ideas“.

Sutskever señala el infame movimiento 37 de AlphaGo. En su segunda partida contra Sedol, la IA realizó un movimiento que dejó perplejos a los comentaristas, pensaron que AlphaGo había metido la pata. En realidad, había realizado una jugada ganadora que nadie había visto antes en la historia del juego. “Imagina ese nivel de perspicacia, pero para todo”, cuenta Sutskever.

Esta línea de pensamiento ha llevado a Sutskever a dar el mayor giro de su carrera. Junto con Jan Leike, otro científico de OpenAI, ha creado un equipo que se centrará en lo que denominan superalineación. Se habla de alineación cuando los modelos de IA hacen lo que una persona quiere y nada más. Superalineación es el término de OpenAI para la alineación aplicada a la superinteligencia.

El objetivo es idear un conjunto de procedimientos a prueba de fallos para construir y controlar esta tecnología del futuro. OpenAI afirma que destinará una quinta parte de sus vastos recursos informáticos al problema y lo resolverá en cuatro años.

“Los métodos de alineación existentes no funcionarán con modelos más inteligentes que los humanos porque suponen que los humanos pueden evaluar de forma fiable lo que hacen los sistemas de IA”, afirma Leike. “A medida que los sistemas de IA sean más capaces, asumirán tareas más difíciles”. Y eso, sigue la idea, hará más difícil que los humanos los evalúen. “Al formar el equipo de superalineación con Ilya, nos hemos propuesto resolver estos futuros retos de alineación”.

“Es importante centrarse no solo en las oportunidades potenciales de los grandes modelos lingüísticos, sino también en sus riesgos y desventajas”, afirma Dean, científico jefe de Google.

La empresa anunció el proyecto en julio con la típica fanfarria, pero para algunos fue una fantasía más. La publicación de OpenAI en Twitter suscitó el desprecio de destacados críticos de la gran tecnología, como Abeba Birhane, que trabaja en la responsabilidad de la IA en Mozilla (“Tantas palabras grandilocuentes pero vacías en un blog”); Timnit Gebru, cofundador del Distributed Artificial Intelligence Research Institute (“Imagina ChatGPT aún más ‘superalineado’ con los techbros de OpenAI”); y Margaret Mitchell, jefa de Ética de Hugging Face, la empresa de IA (“Mi alineación es mayor que la tuya”). Es cierto que se trata de voces disidentes conocidas. Pero son un claro recordatorio de que, mientras algunos ven a OpenAI liderando desde el frente, otros la ven inclinándose desde los márgenes.

Para Sutskever, la superalineación es el siguiente paso inevitable. “Es un problema sin resolver”. En su opinión, también es un problema en el que no trabajan suficientes investigadores de aprendizaje automático como él. “Lo hago por mi propio interés”, reconoce Sutskever. “Es importante que cualquier superinteligencia que se construya no se vuelva rebelde. Obvio”.

Los trabajos sobre superalineación no han hecho más que empezar, y requerirán amplios cambios en todas las instituciones de investigación, según Sutskever. Aunque tiene un ejemplo en mente para las salvaguardias que quiere diseñar: una máquina que mire a las personas como los padres a sus hijos. “En mi opinión, es la regla de oro. Es una afirmación cierta, por lo general, pues la gente se preocupa de verdad por los niños”. (¿Tiene hijos? “No, pero quiero tenerlos”, aventura).

Mi tiempo con Sutskever está a punto de terminar y creo que ya hemos acabado. Pero él está en racha y tiene una idea más que compartir, una que no veo venir.

“Una vez superado el reto de la IA maliciosa, ¿entonces qué? ¿Hay sitio para los seres humanos en un mundo con IA más inteligentes?”, cuestiona.

“Una posibilidad, algo que puede ser una locura para los estándares actuales, pero no para los estándares futuros, es que mucha gente elija convertirse en parte de la IA”. Sutskever asegura que esta sería la forma de que los humanos intenten seguir el ritmo. “Al principio, solo las personas más atrevidas y aventureras intentarán hacerlo. Puede que otros les sigan, o no”.

Espera, ¿qué? Se está levantando para irse. Le pregunto si lo haría. ¿Sería uno de los primeros? “¿El primero? No lo sé”, responde. “Pero es algo en lo que pienso. La verdadera respuesta es: tal vez”.

Con ese sucinto final sobre cerebros galácticos, se levanta y sale de la habitación. “Me alegro mucho de volver a verte”, concluye mientras se aleja.

MIT TR