fbpx
Inicio » Meta y Microsoft presentan la segunda generación de LLaMA

Meta y Microsoft presentan la segunda generación de LLaMA

de RevuTJ
517 views

La evolución de la Inteligencia Artificial

En algún momento, la “burbuja” de la IA explotará por algún lado, y es difícil imaginar que todas las herramientas y tecnologías relacionadas con la Inteligencia Artificial puedan coexistir indefinidamente. A pesar de esto, seguimos viendo nuevas incorporaciones en este campo. La última novedad es la presentación de la segunda generación de LLaMA por parte de Meta y Microsoft.

La colaboración entre Meta, Microsoft y Qualcomm para expandir LLaMA

LLaMA significa Large Language Model Meta AI, y según han explicado en una publicación de blog, este competidor de OpenAI ahora será de código abierto. La razón detrás de esta decisión es permitir que más personas “miren debajo del capó de LLaMA”, lo cual es un paso importante para aumentar la seguridad de la IA. Al abrir su código, una nueva generación de desarrolladores e investigadores puede probarla y contribuir a su mejora.

En la actualidad, LLaMA 2 está disponible de forma gratuita para la investigación y el uso comercial. Además, Meta destaca que LLaMA 2 se entrenó con un 40 % más de datos que el modelo anterior y cuenta con la colaboración preferente de Microsoft. La IA de LLaMA 2 está disponible en la plataforma de computación en la nube de Microsoft, Azure.

La apertura a la innovación y la colaboración se consideran enfoques adecuados para el desarrollo de tecnologías emergentes, como la Inteligencia Artificial. Meta destaca que brindar acceso a herramientas poderosas respaldadas por una potencia informática a la cual los usuarios no podrían acceder por sí mismos puede abrir un mundo de oportunidades sociales y económicas.

Qualcomm también se ha unido a esta colaboración y reveló en un comunicado que está trabajando con Meta para llevar LLaMA a más dispositivos, como teléfonos inteligentes, computadoras portátiles, vehículos y dispositivos de Internet de las cosas. Esto demuestra la necesidad de ejecutar la IA generativa tanto en la nube como en dispositivos periféricos para escalar de manera efectiva.

DEJANOS UN COMENTARIO

Síguenos en nuestras redes sociales:

FacebookInstagram - Pinterest - Tumblr

Publicaciones Relacionadas