Meta lance LLaMA, un concurrent de ChatGPT ?

Présentation de LLaMA : un modèle de langage fondamental de 65 milliards de paramètres

C’est au tour de Meta de lancer une intelligence artificielle générative capable de créer du texte à partir de quelques instructions, comme ChatGPT. son nom ? LLaMA

Contrairement à ChatGPT, qui a ouvert ses portes au public en novembre, LLaMA ne sera initialement accessible qu’au grand public ou aux chercheurs de la société civile. En d’autres termes, Meta ne lance pas LLaMA à ce stade, et nous sommes heureux de le tester.

Positionnement nécessaire pour la méta

En s’associant à OpenAi, les créateurs de ChatGPT, Microsoft a réussi à dépasser ses concurrents. L’entreprise a déjà commencé à intégrer cette technologie dans son moteur de recherche Bing, son navigateur Edge ou encore la suite Office 365 (Word, Excel, Powerpoint, etc.). Mais la contre-attaque est organisée.
Google a annoncé la prise en charge de ChatGPT. Il s’agit d’un outil appelé Bard, actuellement réservé à un nombre limité de testeurs. Les géants chinois Baidu et Alibaba ont également annoncé des cartes.

Meta devait donc se positionner sur le sujet, d’autant plus que son directeur scientifique Yann Le Cun a exprimé son mécontentement face à la hype autour de ChatGPT. Pour lui, Meta et au moins une dizaine d’entreprises pourraient créer un outil similaire. Appel:
Les sociétés mères de Facebook et Instagram doivent conserver leur image d’experts en IA auprès des investisseurs après leur transition ratée vers le métaverse.

Meta prétend surpasser ses concurrents

Les modèles de langage existent depuis des années, mais ils ont gagné en puissance en augmentant le nombre de paramètres qu’ils incluent (et donc le nombre de variables qu’ils analysent) et la quantité de données sur lesquelles ils s’entraînent. LLaMA a 65 milliards de paramètres, mais selon Meta, le modèle de Google a beaucoup plus de paramètres, ce qui le rend compétitif en termes de résultats. La société publie également une version de l’outil avec moins de paramètres pour améliorer la vitesse de calcul et réduire la consommation de ressources. Mais elle affirme que la version à 13 milliards de paramètres de LLaMA surpasse toujours GPT-3 (le modèle derrière ChatGPT).

En attendant, une démonstration de ces déclarations attend. Tout d’abord, il n’existe actuellement aucune norme pour juger de la puissance et de l’efficacité de l’IA générative. Deuxièmement, LLaMA n’est pas encore prêt pour un déploiement général. “Des recherches supplémentaires sont nécessaires pour traiter les risques de biais, de commentaires toxiques et d’hallucinations”, déclare Mehta.

En ouvrant un large accès au modèle aux chercheurs publics, l’entreprise pourra utiliser les commentaires d’experts pour combler les lacunes de LLaMA sans encourir de risque commercial ou de réputation. Google a récemment perdu plus de 5% en bourse après une démonstration ratée de Bard. Plusieurs fois, Microsoft a dû apporter des modifications à Bing Chat après que les utilisateurs ont trompé Bing Chat pour qu’il mente et fasse des remarques offensantes. Dans sa méthode, Meta prend des précautions supplémentaires au prix d’un petit décalage sur le marché.

Djaz

https://www.linkedin.com/in/djaziri/

Digital Marketer - Community Manager - 2D/3D Designer - Video Editor

Exit mobile version