• FreeA
  • Posts
  • Comment installer Mistral AI en 10 minutes sur votre ordinateur

Comment installer Mistral AI en 10 minutes sur votre ordinateur

Tutoriel complet étape par étape

Hello !

Au programme du jour :

- Mon feedback du World AI Cannes Festival

- Comment installer Mistral AI sur votre ordinateur

- Les news dans le monde de l'IA

- Le sujet de la semaine prochaine

La meilleure manière de soutenir mon travail et la newsletter, c'est de la faire découvrir à plus de monde : 

Vous travaillez / voulez travailler dans l'IA ? Remplissez ce formulaire pour que je vous recontacte si j'ai la mission parfaite pour vous : https://forms.gle/wASvDZSUUCSNk3Yc9

Mon feedback du World AI Cannes Festival

Jeudi, j'étais à Cannes pour assister au premier salon entièrement dédié à l'intelligence artificielle.

Et j'ai beau réessayer à chaque fois, les salons c'est pas pour moi 😅

Je suis reparti jeudi soir, et j'avais moins d'infos intéressantes que prévu à partager.

Donc le salon représente seulement une partie de la newsletter, et pas son sujet principal comme prévu.

Et je vais parler exclusivement de la conférence de Yann LeCun, c'était la partie la plus intéressante de la journée.

Déjà, son intervention (et toutes celles qu'il peut effectuer) sont des variations de sa publication trouvable ici : https://openreview.net/forum?id=BZ5a1r-kVsf

Aussi, je ne vais pas rentrer dans les détails techniques de ses explications, mais plutôt vous faire un résumé de ses croyances et affirmations globales sur l'IA.

La différence entre un cerveau humain (ou de n'importe quel animal) et celui d'une IA telle qu'on les conçoit aujourd'hui, c'est que le cerveau est un modèle prédictif "monde", qui imagine les évolutions et possibilités en prenant en compte un environnement beaucoup plus large que l'IA, forcément limitée par l'environnement de ses données d'entraînement.

De plus, ce qu'on est aujourd'hui capable de faire et qui fait la différence, c'est la prévision et prédiction hiérarchique.

Pour faire simple, c'est la capacité de mettre en relation et en rapport plusieurs prédictions simultanées faites à partir des données existantes pour déterminer la meilleure.

Ex : choisir entre prendre le taxi ou les transports pour arriver à l'aéroport dans 1h max, en prenant en compte les bouchons, l'incertitude des transports, la marge d'erreur, etc.

Alors qu'est ce qui fait la différence entre les IA et nous ? Notre intelligence serait supérieure ?

Ou alors, on aurait simplement plus de données d'entraînement.

Un enfant de 4 ans a vu 50 fois plus de données d'entraînement qu'un LLM moderne grâce à ses 2 millions de fibres optiques nerveuses.

Et c'est en prenant en compte seulement la vue, et pas toutes les autres fibres nerveuses.

Sauf que le problème, c'est qu'on ne peut pas tant augmenter le nombre de données des LLMs ; on arrive à un plafond de verre où plus de puissance de calcul / données d'entraînement n'améliorera pas les résultats du modèle.

Alors quelle est la solution ?

Bon, il n'y a pas une solution magique.

Yann LeCun propose une architecture potentielle que je ne vulgariserai pas car je ne l'ai pas encore parfaitement comprise 😅

Mais une prochaine fois.

Par contre, il a plusieurs recommandations, qu'on peut regrouper dans une reco majeure :

Abandonner les anciennes méthodes.

Privilégier les nouvelles plus adaptées.

Plus de détails pour ceux que ça intéresse dans cette photo :

Comment installer Mistral AI sur votre ordinateur : tutoriel complet étape par étape

Sommaire :

  • Quel intérêt d'installer un LLM sur son ordinateur ?

  • Introduction : Qu'est ce que Mistral AI ?

  • Pourquoi choisir M8x7B ?

  • 1ère étape : Installer LM Studio

  • 2ème étape : Mistral ou Mixtral ? Déterminer son modèle et l'installer

  • 3ème étape : Configurer son modèle

  • Bonus : Version non censurée avec Dolphin Mixtral

  • Conclusion

Quel intérêt d'installer un LLM sur son ordinateur ?

La première chose, c'est de comprendre l'intérêt d'avoir son IA en local.

C'est vrai, pourquoi s'embêter alors qu'on a ChatGPT qui fonctionne si bien ?

Plusieurs raisons :

1- Eviter d'envoyer ses données à une entreprise privée.

Si votre IA tourne sur votre ordinateur, aucun risque que les discussions que vous pouvez avoir avec, ou que les données que vous lui envoyez soient transmises à une entreprise qui pourrait en avoir une utilisation malveillante.

2- Pouvoir utiliser un modèle même sans connexion internet

Sans internet, pas d'accès à ChatGPT, Bard ou n'importe quelle autre IA.

Ca devient rare aujourd'hui, mais dans le cas où ça arriverait c'est pratique d'avoir quand même accès à cet outil.

3- Configurer votre modèle de la manière que vous le souhaitez

Ca s'adresse plus aux personnes qui peuvent faire joujou avec la tech, mais on peut partir de ces modèles pour manipuler les données d'entraînement à notre guise et les finetuner de la manière qu'on le souhaite.

Au final, c'est comme voler le travail fait à 99% par une entreprise et apporter uniquement la dernière pierre, puis se l'approprier. Sauf que Mistral est d'accord pour se faire voler.

Je reste court, je veux revenir là-dessus dans une édition dédiée à l'opensource.

Mais justement, c'est quoi "Mistral", et pourquoi est-ce qu'ils font ça ?

Introduction : Qu'est ce que Mistral AI ?

Mistral, c'est une boite française d'intelligence artificielle aujourd'hui valorisée à 2 milliards.

Alors qu'elle ne vend pas des abonnements comme ChatGPT, et n'est pas au niveau d'Anthropic.

Alors pourquoi ?

Parce que c'est les leaders du marché OpenSource, devançant Meta et Alibaba avec leurs bijoux, Mistral et plus récemment Mixtral (on en reparlera).

Je ne vais pas m'étendre le pourquoi de développer des modèles open-source, une édition y sera dédiée. Retenez qu'ils y trouvent leur compte.

Et qu'aujourd'hui, c'est les meilleurs.

Mais à quel point ?

Pourquoi choisir M8x7B ?

Bon.

Je vous ai dit qu'ils étaient devant Meta. Et en fait, Mixtral, ou M8x7B de son petit nom, est même au niveau de GPT 3.5.

Ca vous paraît peut-être nul ?

GPT 3.5 utilise plusieurs centaines de milliards de paramètres à chaque génération.

Et je ne vous parle même pas de GPT 4.

Mixtral, seulement 13.

Comment est possible le tour de passe passe ?

Grâce à une petite technique à l'origine de son nom.

L'architecture éparpillée.

Pour citer Mistral, "Mixtral est un réseau clairsemé d'experts".

Ils ont entraîné 8 "experts" dans des domaines complètements différents, avec seulement 7 milliards de paramètres chacun. Mais comme les données d'entraînements sont très spécifiques, ces 8 experts sont très bons.

Ensuite, à chaque mot généré, les 2 experts les plus adaptés sont choisis pour générés le mot. Et on recommence jusqu'à avoir généré la réponse complète.

On se retrouve avec un modèle aussi rapide et coûteux qu'un modèle de 12,9 milliards de paramètres, alors qu'il a les connaissances et capacités d'un modèle de 46,7 milliards.

(Bon, en fait, il est même bien meilleur que des modèles de 70 milliards de paramètres, comme Llama 2. Mais bref)

Et même si ce nombre de paramètres vous paraît énorme... Mixtral ne fait "que" 50 Go, avec des versions descendant à 15.

Alors concrètement, voici ses capacités :

  • Un contexte de 32k tokens.

  • Parle l'anglais, le français, l'italien, l'allemand et l'espagnol.

  • Très performant en génération de code.

Plus d'infos sur : https://mistral.ai/news/mixtral-of-experts/

C'est bon, je vous ai convaincu ?

Allez, voici les étapes pour l'installer :

1ère étape : Installer LM Studio

Déjà, on commence par installer LM Studio.

C'est un logiciel permettant d'utiliser n'importe quel modèle open-source sur votre ordinateur.

Vous pourrez vous amuser à comparer différents modèles avec Mixtral si ça vous chante.

Voici sa page officielle pour le télécharger : https://lmstudio.ai/

Pas grand chose de plus à dire, si ce n'est de choisir la bonne version pour l'installer.

2ème étape : Mistral ou Mixtral ? Déterminer son modèle et l'installer

Bon.

Je sais que 50 Go, ça peut faire beaucoup pour certains ordis.

Ca tombe bien, il existe une version de Mistral beaucoup plus petite, seulement quelques Go.

2, pour sa plus petite alternative.

Malheureusement, vous aurez peut-être vu la différence, c'est Mistral et pas Mixtral.

Plus de groupe d'experts, un unique modèle.

Les performances seront moins bonnes, mais ça restera une bonne option.

Par contre, si vous en avez les moyens, privilégiez Mixtral.

Pour l'installer, il vous suffit de vous rendre sur la page d'accueil de LM Studio, cherchez Mixtral (ou Mistral), et de cliquer sur Mixtral-8x7B-v0.1-GGUF (Ou dolphin, mais on en reparle après)

Ensuite, choisissez le modèle dont la taille vous convient le mieux, et installez le.

3ème étape : Configurer son modèle

Maintenant que vous avez installer votre modèle, rendez-vous dans la partie chat (troisième icone à gauche en partant du haut).

Il vous suffit de lancer une nouvelle discussion, choisir le modèle à charger, le lancer, et discuter !

Ca y est, vous pouvez utiliser votre LLM sur votre ordinateur.

Mais... c'est quoi cette page à droite de l'écran ?

Ces "Settings" ?

C'est là que vous allez pouvoir configurer votre modèle.

Que ce soit :

- Les données de finetuning (cliquez sur preset)

- Le Prompt Système, ce qui déterminera la manière dont l'IA interagira avec vous

- La taille de la fenêtre de contexte, à savoir la longueur de la discussion dont vous voulez que votre modèle se souvienne

- Des paramètres plus avancées

Si vous ne savez pas trop comment utilisez ces paramètres, laissez-les par défaut.

Augmentez juste la taille de votre fenêtre de contexte au maximum si vous prévoyez d'avoir de longues discussion avec votre modèle, ce sera plus pratique.

Ca y est, votre modèle est prêt, vous pouvez faire joujou.

Mais attendez, je vous avais parlé d'une version non censurée !

Bonus : Version non censurée avec Dolphin Mixtral

Oui, car moins de 24 heures après la sortie de Mixtral, des petits malins ont joué avec le modèle pour en faire une version non censurée.

Alors, à quoi ça sert ?

1ère point, ça augmente la qualité du modèle. C'est pas forcément le plus intuitif, mais la censure bride énormément les LLMs et réduit leurs performances. C'est l'une des raisons qui explique la détérioration des capacités de ChatGPT depuis quelques mois.

2ème point, ça permet de sentir des sentiers battus, et d'ouvrir plus de possibilités dans la réflexion. Même celles pas toujours avouables...

Mais clairement, ça augmente la liberté d'action avec le modèle et ses capacités.

C'est tout.

Et pour l'installer, c'est tout aussi simple que Mixtral.

En fait, recherchez aussi "Mixtral" dans la barre de recherche de LM Studio.

C'est le troisième résultat, dolphin-2.5-mixtral-8x7b-GGUF

Pareil, il suffit de l'installer et de le configurer.

Mais ça valait le coup de le savoir !

Conclusion

Ca y est, ce tutoriel étape par étape est déjà terminé.

Il était plus court que les fois précédentes, où les process d'installation et de configuration étaient plus complexes !

Ce genre de format est plus rare, alors je suis curieux de votre retour :

Et si vous connaissez quelqu'un à qui ça peut servir d'installer un LLM sur son ordinateur, pensez à lui partager cette newsletter :

Les news dans le monde de l'IA

Quelques news importantes cette semaine :

  • Gemini Ultra, la version censée détruire GPT-4 est là, et elle est… décevante ? Même si on s’y attendait, puisqu’on s’est rendu compte que la démo est fake, voir que Gemini Ultra est au même niveau que GPT-4 alors qu’elle a plusieurs mois de retard laisse un goût d’amertume dans la bouche. Après, il y a 2 mois d’essai gratuit (avant un abonnement à $20 / mois), donc libre à vous d’essayer et de vous faire votre propre avis : https://gemini.google.com/

  • Copilot a eu pas mal de mises à jour, et Microsoft a annoncé une grosse publicité pendant le Super Bowl pour montrer au monde la puissance de leur IA. Il faudra qu’on revienne dessus, mais je veux me laisser une newsletter pour ça.

  • Si vous avez généré plus de 1000 images avec Midjourney, vous avez désormais accès à l’alpha de leur site vous permettant de générer des images directement sur internet, sans devoir passer par discord ! Voici le lien : https://alpha.midjourney.com

  • Et d’ailleurs, ils ont également une nouvelle feature permettant de générer une image dans le style d’une autre image générée précédemment.

  • Apple a sorti un papier montrant leur nouvel outil d’IA, et qui est capable de modifier des images en décrivant la modification souhaitée (comme rendre la pizza plus healthy, ajouter de la lumière, etc). On y a pas encore accès, mais je n’ai aucun doute qu’il sera bientôt sur nos Iphones.

  • OpenAI a sorti un label C2PA présent dans les métadonnées de toutes leurs images générées pour permettre aux médias et aux plateformes comme Meta d’indiquer que ces images ont été générées par de l’IA, et ainsi éviter de tromper les utilisateurs.

  • La priorité numéro 1 de Youtube annoncée par leur CEO est d’utiliser l’IA pour augmenter la créativité humaine. J’ai hâte de voir en quoi ça va consister plus concrètement :)

  • Hugging Face a lancé ses assistants personnalisés, extrêmement proche des GPTs. Sauf que ça utilise des modèles opensource comme Mixtral (tiens ?), et ça ouvre de plus en plus de possibilités.

  • Je vous avais parlé de l’histoire des parchemins brûlés depuis 2000 ans qu’on commençait à déchiffrer grâce à l’IA (pour mieux comprendre l’antiquité), et ça y est : on a réussi à lire ces parchemins. Oui, l’IA est en train de révolutionner l’archéologie. Qui y aurait cru il y a quelques années ?

  • Moins cool comme news, plusieurs personnes ont réussi à générer des cartes d’identités et des permis de conduire qui passaient les vérifications grâce à l’IA.

  • Brilliant Labs a annoncé ses lunettes de réalité augmentée, mais également accompagnée de nombreuses fonctionnalités IA. Le projet a l’air très sérieux et vraiment intéressant, et les précommandes sont ouvertes à “seulement” $350. Je vais attendre de voir ce que ça va donner, mais je crois bien plus en ce projet que dans le AI pin ou le rabbit phone. Si ça vous intéresse, voici le lien pour en savoir plus : https://brilliant.xyz/ (non sponso, juste un projet que je trouve intéressant)

Pour la semaine prochaine :

Comment fonctionne le nouveau modèle de Mistral, et pourquoi est-ce qu’il peut complètement modifier la manière de construire des LLMs ? Parce que je vous ai expliqué comment l’installer, mais pas pourquoi il est vraiment intéressant du point de vue technique.

Dans 2 semaines : Challenge : je crée une IA capable de rédiger à 90% les newsletters à ma place, et je décortique la méthode.

Dans 3 semaines : Comprendre les méthodes d’entraînement de l’IA en une newsletter (machine learning, deep learning, réseaux de neurones, neurone formel, etc)

Dans 4 semaines :

1- Quel est l’intérêt de créer un modèle opensource pour une entreprise comme Meta ou Mistral ?

2- Deep Dive dans Copilot

3- Challenge : Je crée un jeu vidéo complet avec l’IA et un ami développeur

4- Challenge : J’écris un livre de fiction en un week-end avec l’IA

5- Et si on se replongeait dans Midjourney, ses nouvelles possibilités, des idées d’inspiration, les meilleures techniques de prompting, etc

Si cette édition t'as plu, et que tu connais quelqu'un à qui elle peut servir, tu peux la partager juste ici :

Et si ce n'est pas encore fait, tu peux t'abonner :

Reply

or to participate.