@AlphaAvenue

Nuevo enfoque de la superinteligencia segura

Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, ha anunciado la creación de una nueva empresa de IA llamada Safe Superintelligence Inc (SSI). Esta empresa tiene el ambicioso objetivo de desarrollar una superinteligencia segura y alineada con los valores humanos.

Antecedentes y motivación

SSI se fundó junto con Daniel Gross, antiguo responsable de IA en Apple, y Daniel Levy, jefe del equipo de optimización de OpenAI. Los fundadores subrayan que el desarrollo de una superinteligencia segura es el reto técnico más importante de nuestro tiempo. Planean centrarse exclusivamente en este objetivo y crear una superinteligencia que pueda operar con seguridad dentro de la sociedad humana.

Objetivos y métodos

La empresa empleará a un pequeño grupo de investigadores e ingenieros altamente cualificados para afrontar este reto mediante una innovación revolucionaria. Sutskever describe el planteamiento como un «camino directo» hacia la superinteligencia segura, con un enfoque, un objetivo y un producto. Este enfoque concentrado se logrará mediante avances revolucionarios.

Comparación con la iniciativa de superalineación de OpenAI

Paralelamente, OpenAI ha lanzado su propia iniciativa de alineación de superinteligencias. El grupo Superalignment de OpenAI pretende resolver los retos técnicos de la alineación de superinteligencias en un plazo de cuatro años. Esto incluye el desarrollo de métodos de entrenamiento escalables, la validación de los modelos y la realización de pruebas de estrés para entrenar modelos intencionadamente desalineados con el fin de detectar y corregir los peores tipos de desalineación.

Colaboración y comunidad

La decisión de Sutskever de abandonar OpenAI y fundar SSI subraya la creciente importancia del desarrollo y la implantación seguros de sistemas de IA de alto rendimiento dentro de la comunidad investigadora. SSI tiene previsto colaborar estrechamente con otros expertos e instituciones para garantizar que sus soluciones técnicas también aborden problemas humanos y sociales más amplios.

Para obtener información más detallada, puede visitar el sitio web oficial del SSI.

Conclusión

La fundación de Safe Superintelligence Inc. por Ilya Sutskever supone un paso importante hacia el desarrollo seguro y responsable de la IA. Centrándose en la dirección de la superinteligencia y colaborando con destacados expertos, SSI pretende maximizar los beneficios de la tecnología de IA minimizando sus riesgos.

Fuentes:

https://www.theverge.com/2024/6/19/24181870/openai-former-chief-scientist-ilya-sutskever-ssi-safe-superintelligence
https://www.enterpriseai.news/2023/07/06/openai-launches-alignment-initiative-aimed-at-mitigating-superintelligent-ai
https://techcrunch.com/2024/06/19/ilya-sutskever-openais-former-chief-scientist-launches-new-ai-company/

Imagen de Justus Becker

Justus Becker

I have a passion for storytelling. AI enthusiast and addicted to midjourney.
Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *