- FreeA
- Posts
- Comment prompter comme un expert
Comment prompter comme un expert
partie 1
Hello !
Au programme du jour :
- Prompter comme un expert : 1 an après, toutes les méthodes de prompting
- Les news dans le monde de l'IA
Prompter dans un expert : 1 an après, toutes les méthodes de prompting
Promis, ça va bien se passer.
Sommaire
Un bref résumé de ce qu'il s'est passé en 1 an…
Le 30 novembre 2022, Sam Altman largue une bombe sur Twitter.
ChatGPT.
Un site conversationnel qui se base sur un LLM, Large Langage Model, GPT-3, pour discuter et répondre à n'importe quelle demande de manière intelligente.
Le 5 novembre, ChatGPT atteint 1 million d'utilisateurs.
En janvier 2023, ChatGPT dépasse les 100 millions d'utilisateurs mensuels.
OpenAI est valorisé à 29 milliards de dollars.
Le 1er février, OpenAI lance GPT+, leur abonnement payant qui donne accès aux nouvelles features bien avant.
Le 10 février, OpenAI lâche une deuxième bombe : GPT-4, censé être multimodal dès sa sortie.
Un modèle multimodal est capable d'interagir avec n'importe quel type de contenu : texte, mais aussi audio, vidéo, visuel, 3D, etc.
En mars, les plugins apparaissent : une manière de relier ChatGPT à d'autres applications.
Annoncée comme une révolution, la feature reste nichée à cause de sa complexité d'exploitation et de ses limites (longue validation pour publier un plugin, 3 plugins simultanés au maximum, etc)
Le Code interpreter, plugin capable d'utiliser du python, les customs instructions, permettant de donner une certaine mémoire à ChatGPT, ainsi que l'application mobile ChatGPT sont tous sortis en juillet 2022.
Le 25 septembre, ChatGPT vision est sorti, accompagné de la compréhension de voix sur mobile. 1 mois après, on commence à se rendre compte de ce que ça permet vraiment de faire.
(Si vous voulez un bref résumé, allez voir cette vidéo très bien faite d'un ami :
Dall-E 3 et la recherche internet sont ajoutés à ChatGPT mi-octobre.
Sauf qu'Octobre, c'est le mois qu'ont choisi beaucoup d'entreprises pour lancer de nombreuses news. Alors la hype sur l'IA remonte fort.
Elon Musk sort son IA, Grok, le 4 novembre. Il a mal choisi son timing.
Parce que le 6 novembre, OpenAI tient son dev day.
Et... comment expliquer.
Avant ce jour, le monde de l'IA était un champ de bataille.
Google, Anthropic, Meta, tous se battaient à coup de petites annonces.
Des frappes tactiques, des petites invasions, etc.
OpenAI est arrivé, et a largué 6 bombes atomiques pour DÉTRUIRE le marché.
1- GPT-4 turbo
2- Copyright shield
3- ChatGPT Multimodal
4- Evolution du playground
5- GPTs
6- OpenAI store
Littéralement chacune de ces features aurait suffi, seule, à mettre OpenAI loin devant la concurrence.
Ils en ont sorti 6.
Alors non, on ne va pas parler de ces majs dans cette newsletter.
Déjà, parce que c'était pas prévu, et surtout, pour me laisser 1 mois de tests et recherches sur le sujet.
Aujourd'hui, on va revenir sur l'intégralité des méthodes de prompting sorties depuis 1 an, pour que vous soyez capable de réellement exploiter la puissance de ChatGPT.
(Oui, parce que même si ça me fait mal de le dire car j'ai une petite préférence pour Claude... il n'y a même plus de débat possible)
La newsletter va être longue.
Je sais.
Je vais tout faire pour qu'elle soit le plus digeste possible.
Promis.
Les méthodes basiques
Dans cette première partie, on va revenir sur les bases.
Les clés d'un bon prompt, comment formater ses réponses et quelques techniques simples.
Vous aurez probablement déjà vu ces infos, mais un bref rappel ne fait pas de mal.
Les bases à connaître
Repartons aux bases.
ChatGPT s'appuis sur GPT-4 turbo, un LLM (ou GPT-3.5 si vous n'avez pas pris l'abonnement GPT+. Qu'est-ce que vous attendez ??)
Ce LLM a uniquement pour but de répondre la réponse **la plus probable**, et **pas la réponse juste**. Souvent, le plus probable est le juste, mais pas toujours.
Ex : La majorité de la population se trompe sur un problème de maths simple. Sans instruction supplémentaire, ChatGPT se trompera.
Partant de ce constat, l'objectif du prompt (l'instruction donnée à ChatGPT) est de modifier les possibilités de réponse et les variables de probabilités pour que la réponse la plus probable tende vers la perfection.
En français : on empêche ChatGPT de répondre n'importe quoi et on cherche à ce que le résultat soit le meilleur possible.
Pour influer sur ces probabilités, on a de nombreuses techniques (c'est tout l'objet de la newsletter). Mais pour les "basiques", voici les règles à appliquer à quasiment tous ses prompts :
- Donner un rôle à ChatGPT. (Ex : Prof de maths si on veut lui faire expliquer des maths)
- Donner des instructions précises sur le résultat attendu : format, critères de réussite, etc (tips : mettre les instructions à la fin permettra une meilleure précision)
- Donner des exemples de succès, et encore mieux : expliquer pourquoi ces exemples sont bons
- Donner du contexte, des informations supplémentaires, tout ce qui peut aider l'IA à être plus précise
A la fin de chaque partie, je vous donnerai un ou plusieurs liens pour aller plus loin.
Ici, regardez ces sites pour approfondir si les bases ne sont pas claires :
Abonnez-vous à FreeA Premium pour lire la suite !
Ce guide mensuel sur l'utilisation pratique de l'IA est réservé à nos abonnés Premium.
Déjà un(e) abonné(e) payant(e) ? Se connecter.
L'abonnement inclut:
- • Les outils d’IA qui correspondent à tes besoins,
- • Des tutoriels pour les utiliser et les implémenter,
- • Des cas pratiques et des tests des dernières innovations.
Reply