Sam Altman, cofundador y director ejecutivo de OpenAI, cube que la compañía sabe cómo construir inteligencia synthetic normal, anticipa que los agentes de IA ingresarán a la fuerza laboral en 2025 y ahora se está enfocando en cómo lograr la superinteligencia synthetic.
Altman compartió sus pensamientos sobre el progreso de la compañía en una publicación de weblog, reflexionando sobre eventos que desafiaron el modelo de gobernanza de OpenAI y requirieron cambios estructurales. Entró en nuevos detalles sobre el período en el que fue retirado brevemente de la organización, calificándolo de una falla de supervisión que puso a prueba los principios fundamentales del liderazgo. También reconoció a las personas que trabajaron detrás de escena para estabilizar las operaciones, enfatizando cómo estos desarrollos reafirmaron la necesidad de un marco adecuado a la evolución de la tecnología y las demandas de alto capital.
Escepticismo de la industria sobre AGI en 2025
La afirmación de OpenAI de que sabe cómo lograr AGI, definido tradicionalmente, ha generado críticas y elogios. Algunos expertos señalan que las encuestas indican que solo hay un 50% de posibilidades de que exista inteligencia synthetic de alto nivel hacia la década de 2050, como informó InformationWeek. Otros se preguntan si los avances en el aprendizaje autónomo y el razonamiento totalmente transparente podrán materializarse tan pronto. El cronograma de Altman para que los agentes de IA se unan a la fuerza laboral ha suscitado debate, aunque Salesforce ya está impulsando el concepto con su producto Agentforce. Sostiene que los lanzamientos iterativos y los comentarios directos de los usuarios mejorarán la seguridad y al mismo tiempo impulsarán la funcionalidad.
Según Altman, las ambiciones de OpenAI se extienden más allá de AGI hacia la superinteligencia, un paso que algunos observadores ven inevitable para los sistemas avanzados de IA. Altman escribió que la perspectiva de herramientas superinteligentes podría desencadenar descubrimientos de gran alcance en ciencia e ingeniería. Él cree que una investigación cautelosa sobre el despliegue y la alineación puede abordar consideraciones éticas. Muchos se preguntan con qué rapidez estas tecnologías influirán en las industrias globales, incluidos los mercados criptográficos, donde la automatización y el análisis impulsados por la IA ya están causando sensación con la tecnología precise.
Por lo tanto, persiste el escepticismo en torno a las afirmaciones sobre el AGI a corto plazo. Los críticos destacan los desafíos para permitir una comprensión genuina, un razonamiento entre dominios y una conciencia del contexto. Altman sostiene que cada actualización del modelo, combinada con las interacciones del usuario, ayuda a perfeccionar los resultados y guía los mecanismos de seguridad. Personalmente predije que el AGI no se alcanzaría en 2025 en medio de otras predicciones de Año Nuevo, ya que el abismo entre los modelos actuales y el AGI parece demasiado amplio para cubrirlo en 12 meses.
Altman también abordó el cambio de OpenAI de la investigación pura a un enfoque orientado al producto. Señaló que period necesario revisar los supuestos originales sobre los requisitos de capital y los objetivos teóricos una vez que se acelerara la adopción por parte de los usuarios. Cube que la iteración refleja el compromiso de OpenAI de permitir que la sociedad se adapte a las herramientas emergentes sin detener el desarrollo.
Altman concluyó que la misión de OpenAI sigue siendo consistente a pesar de los recientes disturbios. Él cree que la superinteligencia eventualmente aumentará el potencial humano y abordará desafíos complejos. Añadió que una amplia adopción y los comentarios de la comunidad ayudarán a dar forma a salvaguardas prácticas, y muchos en el sector de la IA seguirán de cerca el progreso de OpenAI.
Mencionado en este artículo.