OpenAI forma un comité de seguridad y avanza en el entrenamiento de un nuevo modelo de IA

OpenAI creó un equipo dedicado a garantizar la seguridad de su tecnología, mientras avanza en el desarrollo de GPT-5.

La empresa anunció la creación de un comité de seguridad, encargado de establecer directrices para los aspectos críticos en el desarrollo de sus proyectos de Inteligencia Artificial (IA). Asimismo, se mencionó que ya están en proceso de entrenar su próximo modelo, aunque no definieron una fecha de lanzamiento.

Respecto a GPT-5, el modelo de lenguaje más avanzado de OpenAI, se confirmó que su entrenamiento ha comenzado. “Recientemente hemos iniciado el entrenamiento de nuestro nuevo modelo de frontera y esperamos que estos sistemas nos lleven a nuevas capacidades en nuestro camino hacia la inteligencia artificial general“, afirmaron. Vale aclarar que un “modelo de frontera” se refiere a un modelo de aprendizaje automático a gran escala; supera las capacidades de los modelos actuales y puede realizar una amplia gama de tareas.

El director de OpenAI Sam Altman declaró que GPT-4, el modelo actual que sustenta ChatGPT, será considerado obsoleto en comparación con la próxima versión. “Lo más importante de GPT-5, o como lo llamemos, es que será más inteligente. Es notable que podamos afirmar con certeza científica que será mucho más avanzado que GPT-4, y GPT-6 lo será aún más que GPT-5. Estamos lejos de alcanzar el tope de esta curva de desarrollo“, comentó Altman.

El entrenamiento y la optimización representan una de las últimas etapas antes del lanzamiento de un nuevo modelo de lenguaje como GPT, aunque aún no hay una fecha específica para su lanzamiento. Los desarrolladores deben realizar el “red teaming”, una serie de pruebas para evaluar la confiabilidad y seguridad del modelo de IA.

Sobre la salida de Jan Leike

Este anuncio llega pocos días después de la salida de Jan Leike, quien lideraba el equipo encargado de gestionar los riesgos a largo plazo de la IA en OpenAI. A través de una serie de publicaciones en X, Leike justificó su renuncia criticando la dirección de los ejecutivos bajo el mando de Altman. “En los últimos años, la cultura y los procesos de seguridad han sido relegados en favor de productos brillantes”, afirmó quien se unió a Anthropic, una empresa rival.

En respuesta a estas críticas, Sam Altman y Greg Brockman emitieron un comunicado conjunto, y el recién formado comité de seguridad buscará proporcionar tranquilidad tanto dentro como fuera de la empresa. Este grupo incluirá a miembros de la junta de OpenAI (Sam Altman, Adam D’Angelo, Nicole Seligman y Bret Taylor) y expertos en áreas técnicas y de política como Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki y Lilian Weng. Además, contará con el asesoramiento de expertos en ciberseguridad John Carlin y Rob Joyce.

Leer más
RLC Noticias de Rosario la ciudad

Comentarios