InicioMeta y Microsoft presentan la segunda generaci贸n de LLaMA

Meta y Microsoft presentan la segunda generaci贸n de LLaMA

de RevuTJ
319 views

La evoluci贸n de la Inteligencia Artificial

En alg煤n momento, la “burbuja” de la IA explotar谩 por alg煤n lado, y es dif铆cil imaginar que todas las herramientas y tecnolog铆as relacionadas con la Inteligencia Artificial puedan coexistir indefinidamente. A pesar de esto, seguimos viendo nuevas incorporaciones en este campo. La 煤ltima novedad es la presentaci贸n de la segunda generaci贸n de LLaMA por parte de Meta y Microsoft.

La colaboraci贸n entre Meta, Microsoft y Qualcomm para expandir LLaMA

LLaMA significa Large Language Model Meta AI, y seg煤n han explicado en una publicaci贸n de blog, este competidor de OpenAI ahora ser谩 de c贸digo abierto. La raz贸n detr谩s de esta decisi贸n es permitir que m谩s personas “miren debajo del cap贸 de LLaMA”, lo cual es un paso importante para aumentar la seguridad de la IA. Al abrir su c贸digo, una nueva generaci贸n de desarrolladores e investigadores puede probarla y contribuir a su mejora.

En la actualidad, LLaMA 2 est谩 disponible de forma gratuita para la investigaci贸n y el uso comercial. Adem谩s, Meta destaca que LLaMA 2 se entren贸 con un 40 % m谩s de datos que el modelo anterior y cuenta con la colaboraci贸n preferente de Microsoft. La IA de LLaMA 2 est谩 disponible en la plataforma de computaci贸n en la nube de Microsoft, Azure.

La apertura a la innovaci贸n y la colaboraci贸n se consideran enfoques adecuados para el desarrollo de tecnolog铆as emergentes, como la Inteligencia Artificial. Meta destaca que brindar acceso a herramientas poderosas respaldadas por una potencia inform谩tica a la cual los usuarios no podr铆an acceder por s铆 mismos puede abrir un mundo de oportunidades sociales y econ贸micas.

Qualcomm tambi茅n se ha unido a esta colaboraci贸n y revel贸 en un comunicado que est谩 trabajando con Meta para llevar LLaMA a m谩s dispositivos, como tel茅fonos inteligentes, computadoras port谩tiles, veh铆culos y dispositivos de Internet de las cosas. Esto demuestra la necesidad de ejecutar la IA generativa tanto en la nube como en dispositivos perif茅ricos para escalar de manera efectiva.

DEJANOS UN COMENTARIO

Publicaciones Relacionadas