OpenAI aunció la conformación de un nuevo comité que se encargará de definir los lineamientos de seguridad para los puntos críticos relacionados con el desarrollo de sus proyectos de Inteligencia Artificial (IA). Además, también se refirieron a la llegada, aún sin fecha, de su próximo modelo.

En lo que respecta a GPT-5, el modelo de lenguaje más avanzado de la compañía, revelaron que ya comenzaron a entrenarlo. "OpenAI ha comenzado recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general", comunicaron.

Al hablar de modelo de frontera, se hace referencia a un modelo de aprendizaje automático a gran escala que supera las capacidades de los modelos más avanzados que existen en la actualidad y que pueden realizar una variedad de tareas muy amplia.

Sam Altman, director de OpenAI, sostuvo que GPT-4 –el modelo sobre el que corre la actual versión de ChatGPT– pasará a ser considerado como "tonto" cuando la próxima versión esté disponible.

"Creo que lo más importante de GPT-5, o como lo llamemos, es que será más inteligente. Creo que uno de los hechos más notables de la historia humana es que podamos hacer algo y decir ahora mismo, con un alto grado de certeza científica, que GPT-5 será mucho más inteligente que GPT-4. Y GPT-6 será mucho más inteligente que GPT-5, y no estamos ni siquiera cerca de la cima de esta curva", expresó Altman.

Sam Altman, director de OpenAI, sostuvo que su próximo modelo de IA hará parecer "tonto" al que tienen disponible actualmente.

El proceso de entrenamiento y optimización representa una de las últimas etapas antes del lanzamiento de un modelo de lenguaje como GPT, aunque todavía no hay una fecha concreta para el despliegue de esta nueva versión. Resta todavía que los desarrolladores lleven a cabo el trabajo de red teaming, que consiste en una serie de pruebas para medir la confiabilidad y seguridad del modelo de IA.

El anuncio de OpenAI se produjo días después de que Jan Leike, líder del equipo interno que estaba a cargo de atender los riesgos a largo plazo de la IA, se fuera de la compañía. A través de un hilo en X, Leike justificó su renuncia cuestionando la dirección que tomaron los directivos al mando de Altman.

"En los últimos años, la cultura y los procesos de seguridad han quedado en segundo plano frente a los productos brillantes", aseveró quien se desempeñó como uno de los investigadores líderes en el departamento de seguridad de OpenAI y decidió irse a Anthropic, una empresa rival.

Sam Altman y Greg Brockman emitieron un comunicado conjunto aludiendo a dicho reclamo, y el comité de seguridad ahora anunciado buscará llevar tranquilidad dentro y fuera de la startup. Este grupo estará conformado por miembros de la junta de OpenAI (Sam Altman, Adam D’Angelo, Nicole Seligman y Bret Taylor) y expertos en áreas técnicas y de política como Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki y Lilian Weng. El comité también consultará con los expertos en ciberseguridad John Carlin y Rob Joyce.