Meta ha presentado las últimas versiones de su modelo de inteligencia synthetic (IA) Llama de código abierto, que está causando conmoción en la comunidad de IA.
A medida que la carrera armamentista de la IA continúa calentándose, los expertos de la industria están examinando de cerca las capacidades del modelo Llama 3 de Meta, comparándolo con ofertas rivales de gigantes tecnológicos como Google, OpenAI y Anthropic. Con su promesa de mayor rendimiento y accesibilidad, el modelo Llama 3 tiene el potencial de remodelar el panorama competitivo y democratizar el acceso a la IA.
“El lanzamiento de Llama 3 por parte de Meta, con sus capacidades avanzadas, está preparado para establecer un nuevo punto de referencia en el mercado de IA generativa de código abierto”. Moses Guttmannel director ejecutivo de la empresa de inteligencia synthetic BorrarML, dijo a PYMNTS. “Al superar los límites de lo que pueden lograr los modelos de código abierto, Llama 3 desafía a otros contribuyentes a elevar sus propias ofertas, acelerando la innovación en todos los ámbitos. Estos últimos avances reafirman nuestra creencia en el potencial de la IA de código abierto para rivalizar con las alternativas de código cerrado”.
¿Actualización del chatbot?
Mark Zuckerberg, director ejecutivo de Meta anunciado en Hilos el lanzamiento del nuevo modelo Llama 3 AI, que impulsa Meta AI y ahora se está integrando en varios productos Meta, como Messenger e Instagram, y un sitio internet dedicado.
“Estamos actualizando Meta AI con nuestro nuevo modelo de IA Llama 3 de última generación, que somos de código abierto”, escribió Zuckerberg. “Con este nuevo modelo, creemos que Meta AI es ahora el asistente de IA más inteligente que puedes usar libremente”.
Zuckerberg anunció que las dos variantes más pequeñas del modelo Llama 3, con 8 mil millones y 70 mil millones de parámetros, respectivamente, han tenido un buen desempeño en comparación con otros modelos gratuitos basados en puntos de referencia de rendimiento estándar utilizados para evaluar la calidad del modelo. También señaló que todavía se está preparando la versión más grande de Llama 3, que contiene 400 mil millones de parámetros.
Llama 3 ha sido entrenado en un conjunto de datos siete veces más grande que su predecesor, Llama 2. En la práctica, las empresas priorizan tanto la calidad como la diversidad del conjunto de datos, no solo su tamaño, para recibir resultados satisfactorios. Sin embargo, cuanto mayor sea el conjunto de parámetros con los que se entrena un modelo, mayor comprensión contextual entre palabras podrá lograr.
Cloris ChenDirector de Cogito Finanzas, discutió con PYMNTS los puntos de referencia que Meta destacó en su anuncio, y señaló que incluía métricas estándar de la industria como MMLU y las pruebas de evaluación patentadas de Meta. Según se informa, el modelo Llama 3 70B Instruct superó a competidores como GPT-3.5 y Claude Sonnet en estas pruebas. Chen señaló que esto ha provocado cierto debate sobre la objetividad de estas pruebas, aunque Meta ya ha respondido a estas preocupaciones.
Una de las principales ventajas de Llama 3 es que viene en dos tamaños: modelos pequeño y grande, austin vananceel CEO de la firma de transformación digital Laboratorios enfocados, dijo a PYMTS. Dijo que el modelo pequeño supera a la versión accesible de GPT 3.5 Turbo de OpenAI, con tiempos de inferencia más rápidos y el beneficio adicional de ser de código abierto.
“Esto permite a las empresas implementar el modelo en su propia infraestructura utilizando recursos relativamente asequibles. {hardware}, dándoles management sobre su entorno de seguridad, datos y flujos de trabajo de desarrollo sin incurrir en costos significativos asociados con OpenAI”, agregó.
Vance dijo que el modelo Llama 3 más grande también es impresionante, superando a todos los modelos de código abierto hasta la fecha en términos de recuperación de información, capacidades matemáticas y estilo conversacional. Dijo que la capacidad de recordar es particularmente notable y que el flujo pure de la conversación es un testimonio de la sofisticación del modelo.
“Con Llama3, Meta se ha consolidado como un contrapeso a Google y Microsoft en el espacio de la IA de código abierto, cumpliendo el papel que Elon Musk había imaginado para OpenAI”, añadió.
Mike Finleyel cofundador de RespuestaRocket, dijo a PYMNTS que el nuevo modelo Llama tiene el equivalente a unos 8 mil millones de neuronas, del orden del cerebro del loro más grande. Dijo que el modelo parece haber sido entrenado durante mucho más tiempo que sus pares de código abierto.
“En la práctica, esto significa que estamos más cerca de tener modelos que puedan vivir dispositivos de borde (primero teléfonos y tabletas, luego POS [point of sale] dispositivos y automóviles, luego tarjetas con chip y marcapasos)”, añadió.
Creciente movimiento de IA de código abierto
Guttman enfatizó que el nuevo modelo de IA de Meta es una prueba convincente de que el software program de código abierto puede rivalizar con los modelos propietarios o “cerrados” en rendimiento e innovación. Destacó cómo el enfoque de Meta para hacer accesibles sus tecnologías de IA podría desafiar el dominio de los sistemas cerrados.
“Además, a medida que estos modelos se vuelven más capaces, fomentan más proyectos de colaboración y asociaciones dentro de la comunidad de código abierto, fomentando un ecosistema más vibrante”, añadió.
Meta se encuentra entre varias empresas que defienden iniciativas de software program de inteligencia synthetic de código abierto. De manera related, xAI de Elon Musk está causando sensación al abrir el código abierto de su chatbot de IA, Grok, que muchos ven como un paso que podría democratizar la tecnología de IA y estimular la innovación en su uso comercial.
El modelo Grok se puso a disposición de los suscriptores de X Premium+ a través de plataformas como GitHub y BitTorrent. Este comunicado se alinea con la crítica más amplia de Musk a la falta de transparencia de OpenAI, subrayada por sus enfrentamientos legales con la organización en relación con sus modelos de IA.
“Llama 3 es un desarrollo muy significativo en la comunidad de código abierto, entre las principales razones está el tamaño único del conjunto de datos (como en el caso de la versión 70B)”, dijo Chen. “Aunque es bastante interesante, el modelo 70B Instruct está casi a la par con el Gemini de Google cuando analiza resultados individuales en puntos de referencia estándar”.