OpenAI dice que ha comenzado a entrenar un nuevo modelo emblemático de IA

OpenAI dijo el martes que ha comenzado a entrenar un nuevo modelo emblemático de inteligencia artificial que sucederá a la tecnología GPT-4 que impulsa su popular chatbot en línea, ChatGPT.

La nueva empresa de San Francisco, una de las principales empresas de inteligencia artificial del mundo, dijo en una publicación de blog que espera que el nuevo modelo aporte «el siguiente nivel de capacidad» mientras se esfuerza por construir «inteligencia general artificial», o AGI. , una máquina que puede hacer todo lo que puede hacer el cerebro humano. El nuevo modelo sería un motor para productos de inteligencia artificial, incluidos chatbots, asistentes digitales similares a Siri de Apple, motores de búsqueda y generadores de imágenes.

OpenAI también dijo que está creando un nuevo comité de seguridad para explorar cómo gestionar los riesgos planteados por el nuevo modelo y las tecnologías futuras.

«Si bien estamos orgullosos de construir y lanzar modelos líderes en la industria tanto en capacidad como en seguridad, damos la bienvenida a un debate sólido en este momento importante», dijo la compañía.

OpenAI tiene como objetivo hacer avanzar la tecnología de inteligencia artificial más rápido que sus rivales, al mismo tiempo que apacigua a los críticos que dicen que la tecnología se está volviendo cada vez más peligrosa, ayudando a difundir información errónea, reemplazar empleos e incluso amenazar a la humanidad. Los expertos no están de acuerdo sobre cuándo las empresas de tecnología alcanzarán la inteligencia artificial general, pero empresas como OpenAI, Google, Meta y Microsoft han aumentado constantemente el poder de las tecnologías de IA durante más de una década, demostrando un salto notable aproximadamente cada dos o tres años.

GPT-4 de OpenAI, lanzado en marzo de 2023, permite a los chatbots y otras aplicaciones de software responder preguntas, escribir correos electrónicos, generar trabajos finales y analizar datos. Una versión actualizada de la tecnología, que se dio a conocer este mes y aún no está ampliamente disponible, también puede generar imágenes y responder a preguntas y comandos con una voz muy conversacional.

Días después de que OpenAI mostrara la versión actualizada, llamada GPT-4o, la actriz Scarlett Johansson dijo que usaba una voz que sonaba «inquietantemente similar a la mía». Dijo que rechazó los esfuerzos del director ejecutivo de OpenAI, Sam Altman, de licenciar su voz para el producto y que había contratado a un abogado y le había pedido a OpenAI que dejara de usar la voz. La compañía dijo que la voz no era la de Johansson.

Tecnologías como GPT-4o aprenden sus capacidades analizando grandes cantidades de datos digitales, incluidos sonidos, fotografías, vídeos, artículos de Wikipedia, libros y noticias. El New York Times demandó a OpenAI y Microsoft en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial.

“Entrenar” digitalmente modelos de IA puede llevar meses o incluso años. Una vez completada la formación, las empresas de IA suelen pasar varios meses probando la tecnología y perfeccionándola para uso público.

Eso podría significar que el próximo modelo de OpenAI no llegará hasta dentro de nueve meses, un año o más.

Mientras OpenAI entrena su nuevo modelo, su nuevo comité de seguridad trabajará para perfeccionar las políticas y procesos para salvaguardar la tecnología, dijo la compañía. El comité incluye al Sr. Altman, así como a los miembros de la junta directiva de OpenAI, Bret Taylor, Adam D’Angelo y Nicole Seligman. La compañía dijo que las nuevas políticas podrían implementarse a fines del verano o en el otoño.

A principios de este mes, OpenAI dijo que Ilya Sutskever, cofundador y uno de los líderes de sus esfuerzos de seguridad, dejaría la empresa. Esto generó preocupación de que OpenAI no estuviera abordando suficientemente los peligros que plantea la inteligencia artificial.

El Dr. Sutskever se había unido a otros tres miembros de la junta en noviembre para destituir al Sr. Altman de OpenAI, diciendo que ya no se podía confiar en el Sr. Altman con respecto al plan de la compañía para crear inteligencia artificial general para el bien de la humanidad. Después de una campaña de lobby por parte de los aliados de Altman, fue reintegrado cinco días después y desde entonces ha reafirmado el control de la empresa.

El Dr. Sutskever dirigió lo que OpenAI llamó su equipo de Superalineación, que exploró formas de garantizar que los futuros modelos de IA no causaran daños. Al igual que otros en el campo, le preocupaba cada vez más que la inteligencia artificial representara una amenaza para la humanidad.

Jan Leike, que dirigía el equipo de Superalignment con el Dr. Sutskever, dimitió de la empresa este mes, dejando en duda el futuro del equipo.

OpenAI ha centrado su investigación de seguridad a largo plazo en sus esfuerzos más amplios para garantizar que sus tecnologías sean seguras. Este trabajo estará dirigido por John Schulman, otro cofundador, que anteriormente dirigió el equipo que creó ChatGPT. La nueva junta de seguridad supervisará la investigación del Dr. Schulman y brindará orientación sobre cómo la empresa abordará los riesgos tecnológicos.