• FreeA
  • Posts
  • Comment prompter comme un expert

Comment prompter comme un expert

Hello !

Au programme du jour :

- Votez pour ma prochaine vidéo youtube

- Prompter comme un expert : 1 an après, toutes les méthodes de prompting

- Les news dans le monde de l'IA

- Le sujet de la semaine prochaine

La meilleure manière de soutenir mon travail et la newsletter, c'est de la faire découvrir à plus de monde : 

Inscrivez-vous à ma prochaine masterclass gratuite pour développer son business grâce à l'IA : https://www.freea.fr/inscription-masterclass

Pour aller plus loin et vous former sur l'IA, recevoir des news journalières ou encore tester Midjourney gratuitement, rejoignez FreeA, la plus grande communauté francophone sur l'IA : https://discord.gg/freea

Votez pour ma prochaine vidéo youtube !

Ok. Il se peut que j'ai (encore) une semaine de retard sur la première vidéo, à cause d'un problème de calcul du timing.

Mais ! J'ai le lien de la chaine youtube :)

Alors abonnez-vous et allez mettre la cloche pour ne pas rater la première vidéo, ce jeudi à 18 heures :)

(La bannière et la photo de profil sont temporaires. Ca aussi, je m’y suis pris à la dernière seconde xD)

Et en plus, votez pour le sujet de la prochaine vidéo !

Sondage :

1- Dans 10 ans, vous ne pourrez plus mourir.

2- Le problème de ChatGPT.

3- Parasiter le cerveau d'une génération

Prompter dans un expert : 1 an après, toutes les méthodes de prompting

Sommaire :

Promis, ça va bien se passer.

  • Un bref résumé de ce qu'il s'est passé en 1 an

  • Les méthodes basiques

    • Les bases à connaître

    • L'importance du format

    • Zero-shot Prompting

    • Few-shot Prompting

  • Les méthodes moyennes

    • Chain-of-thought

    • Self-Consistency

    • Generate Knowledge Prompting

    • Tree of thoughts

    • Revenons sur les rôles

  • Les méthodes avancées

    • Retrieval Augmented Generation

    • Automatic Reasoning and Tool-use

    • Prompt engineer automatique

    • Prompt Actif

    • Stimulation de Prompt dirigée

    • React

    • Multimodal Chain-of-thoughts

  • Usages avancés

    • PAL (Program-Aided Language Models)

    • Générer de la data

    • Générer de la data "synthétique" pour la méthode de Retrieval Augmented Generation

    • Générer du code

    • Etude de cas d'une classification de jobs

  • Quelques bonus

    • Augmenter la fiabilité des réponses

    • Les méthodes de prompt hacking et comment les éviter

  • Pour aller plus loin

Un bref résumé de ce qu'il s'est passé en 1 an :

Le 30 novembre 2022, Sam Altman largue une bombe sur Twitter.

ChatGPT.

Un site conversationnel qui se base sur un LLM, Large Langage Model, GPT-3, pour discuter et répondre à n'importe quelle demande de manière intelligente.

Le 5 novembre, ChatGPT atteint 1 million d'utilisateurs.

En janvier 2023, ChatGPT dépasse les 100 millions d'utilisateurs mensuels.

OpenAI est valorisé à 29 milliards de dollars.

Le 1er février, OpenAI lance GPT+, leur abonnement payant qui donne accès aux nouvelles features bien avant.

Le 10 février, OpenAI lâche une deuxième bombe : GPT-4, censé être multimodal dès sa sortie.

Un modèle multimodal est capable d'interagir avec n'importe quel type de contenu : texte, mais aussi audio, vidéo, visuel, 3D, etc.

En mars, les plugins apparaissent : une manière de relier ChatGPT à d'autres applications.

Annoncée comme une révolution, la feature reste nichée à cause de sa complexité d'exploitation et de ses limites (longue validation pour publier un plugin, 3 plugins simultanés au maximum, etc)

Le Code interpreter, plugin capable d'utiliser du python, les customs instructions, permettant de donner une certaine mémoire à ChatGPT, ainsi que l'application mobile ChatGPT sont tous sortis en juillet 2022.

Le 25 septembre, ChatGPT vision est sorti, accompagné de la compréhension de voix sur mobile. 1 mois après, on commence à se rendre compte de ce que ça permet vraiment de faire.

(Si vous voulez un bref résumé, allez voir cette vidéo très bien faite d'un ami :

Dall-E 3 et la recherche internet sont ajoutés à ChatGPT mi-octobre.

Sauf qu'Octobre, c'est le mois qu'ont choisi beaucoup d'entreprises pour lancer de nombreuses news. Alors la hype sur l'IA remonte fort.

Elon Musk sort son IA, Grok, le 4 novembre. Il a mal choisi son timing.

Parce que le 6 novembre, OpenAI tient son dev day.

Et... comment expliquer.

Avant ce jour, le monde de l'IA était un champ de bataille.

Google, Anthropic, Meta, tous se battaient à coup de petites annonces.

Des frappes tactiques, des petites invasions, etc.

OpenAI est arrivé, et a largué 6 bombes atomiques pour DÉTRUIRE le marché.

1- GPT-4 turbo

2- Copyright shield

3- ChatGPT Multimodal

4- Evolution du playground

5- GPTs

6- OpenAI store

Littéralement chacune de ces features aurait suffi, seule, à mettre OpenAI loin devant la concurrence.

Ils en ont sorti 6.

Alors non, on ne va pas parler de ces majs dans cette newsletter.

Déjà, parce que c'était pas prévu, et surtout, pour me laisser 1 mois de tests et recherches sur le sujet.

Aujourd'hui, on va revenir sur l'intégralité des méthodes de prompting sorties depuis 1 an, pour que vous soyez capable de réellement exploiter la puissance de ChatGPT.

(Oui, parce que même si ça me fait mal de le dire car j'ai une petite préférence pour Claude... il n'y a même plus de débat possible)

La newsletter va être longue.

Je sais.

Je vais tout faire pour qu'elle soit le plus digeste possible.

Promis.

Les méthodes basiques

Dans cette première partie, on va revenir sur les bases.

Les clés d'un bon prompt, comment formater ses réponses et quelques techniques simples.

Vous aurez probablement déjà vu ces infos, mais un bref rappel ne fait pas de mal.

Les bases à connaître

Repartons aux bases.

ChatGPT s'appuis sur GPT-4 turbo, un LLM (ou GPT-3.5 si vous n'avez pas pris l'abonnement GPT+. Qu'est-ce que vous attendez ??)

Ce LLM a uniquement pour but de répondre la réponse **la plus probable**, et **pas la réponse juste**. Souvent, le plus probable est le juste, mais pas toujours.

Ex : La majorité de la population se trompe sur un problème de maths simple. Sans instruction supplémentaire, ChatGPT se trompera.

Partant de ce constat, l'objectif du prompt (l'instruction donnée à ChatGPT) est de modifier les possibilités de réponse et les variables de probabilités pour que la réponse la plus probable tende vers la perfection.

En français : on empêche ChatGPT de répondre n'importe quoi et on cherche à ce que le résultat soit le meilleur possible.

Pour influer sur ces probabilités, on a de nombreuses techniques (c'est tout l'objet de la newsletter xD). Mais pour les "basiques", voici les règles à appliquer à quasiment tous ses prompts :

- Donner un rôle à ChatGPT. (Ex : Prof de maths si on veut lui faire expliquer des maths)

- Donner des instructions précises sur le résultat attendu : format, critères de réussite, etc (tips : mettre les instructions à la fin permettra une meilleure précision)

- Donner des exemples de succès, et encore mieux : expliquer pourquoi ces exemples sont bons

- Donner du contexte, des informations supplémentaires, tout ce qui peut aider l'IA à être plus précise

A la fin de chaque partie, je vous donnerai un ou plusieurs liens pour aller plus loin.

Ici, regardez ces sites pour approfondir si les bases ne sont pas claires :

https://www.promptingguide.ai/introduction

https://learnprompting.org/docs/category/-basics

https://learnprompting.org/docs/category/-basic-applications

L'importance du format

Le format des exemples dans un prompt est crucial. Il indique au LLM comment structurer sa réponse. Par exemple, si les exemples utilisent des mots entièrement en majuscules pour les réponses, le LLM fera de même, même si les réponses fournies sont incorrectes.

Par exemple :

Utilisateur : 

2+2 ?

CINQUANTE

20+5 ?

TRENTE-SEPT

12+9 ?

ChatGPT :

VINGT-ET-UN

Malgré les réponses incorrectes, le LLM formate correctement sa réponse en lettres majuscules.

Les faits dans les exemples ne sont pas aussi importants qu'on pourrait le penser. Les recherches montrent que donner des résultats aléatoires dans les exemples (comme vu dans l'exemple ci-dessus) a peu d'impact sur la performance. Le LLM peut toujours générer une réponse correcte même si les exemples contiennent des informations incorrectes.

Par contre, la liste des possibilités et manière de répondre est importante. Par exemple, dans une tâche de classification, les possibilités pourraient inclure "positif" et "négatif". Donner plusieurs exemples en utilisant uniquement ces "labels de réponse", même avec des résultats aléatoires, permettra de meilleures réponses.

Autre chose, il est important que la répartition des possibilités soit la même dans les exemples et dans les données sur lesquelles doit travailler l'IA. Par exemple, si vous avez un ensemble de données d'avis de restaurants et que 60 % d'entre eux sont positifs, votre prompt doit contenir un ratio de 3:2 d'exemples positives/négatives.

Pour aller plus loin : https://learnprompting.org/docs/intermediate/whats_in_a_prompt

Zero-shot Prompting

Première technique concrète qu'on aborde.

C'est le basique.

Ce que vous faites déjà probablement.

Le Zero-shot prompting, c'est simplement balancer les instructions avec 0 contexte, car sur des tâches simples, l'entraînement de l'IA lui suffit.

Ex :

Prompt:

Classify the text into neutral, negative or positive. Text: I think the vacation is okay.Sentiment:

Output:

Neutral

A partir de ses données d'entraînement, l'IA "comprend" ce qu'est un sentiment, et comment elle est censée classer la phrase.

En cas de réponse incorrecte ou imprécise, on ajoute du contexte et des exemples.

Dans ce cas, on fait du Few-shot Prompting.

On en parle juste après.

Plus aller plus loin : https://www.promptingguide.ai/techniques/zeroshot

Few-shot Prompting

Parfois, sans contexte, avec le zero-shot prompting, ChatGPT ne fournira pas le résultat attendu, que ce soit sur le contexte, sur la précision ou la qualité de la réponse.

Dans ce cas, on va utiliser la méthode du few-shot prompting.

Quand on parle de "shot", on parle d'exemples qui vont servir d'entraînements.

Ex :

Prompt:

A "whatpu" is a small, furry animal native to Tanzania. An example of a sentence that usesthe word whatpu is:We were traveling in Africa and we saw these very cute whatpus.To do a "farduddle" means to jump up and down really fast. An example of a sentence that usesthe word farduddle is:

Ce prompt est un 1-shot prompt, car il y a 1 exemple avant la demande.

Pour des tâches plus complexes, on pourrait utiliser un 3-shot, 5-shot, etc.

L'important est de donner des exemples au niveau du format.

Cette méthode permet de résoudre des problèmes de logique légèrement plus complexe, mais présente vite ses limites.

Par exemple, elle a beaucoup de mal dès qu'on incorpore des chiffres au raisonnement.

(ChatGPT n'est pas un modèle déterministe (A+B = C, et uniquement C), mais un modèle probabiliste (A+B = 95% de chance C, mais 5% de chance D). C'est le problème qu'essaie de résoudre OpenAI avec le Data Analysis qui utilise du Python).

Dans ces cas-là, on va devoir utiliser des méthodes plus avancées, comme la chaine de pensées, notre prochaine étape :)

Pour aller plus loin : https://www.promptingguide.ai/techniques/fewshot

Les méthodes moyennes

Là, on va passer une étape.

Vous n'avez probablement jamais vu les 2/3 des techniques de cette partie, alors je vais plus les détailler pour vous aider à mieux les appréhender.

En cas de besoin, vous pouvez toujours relire la newsletter, regarder les liens "pour aller plus loin", ou même poser vos questions dans la communauté FreeA.

Chain-of-thought

Là, on va parler d'une phrase que vous avez probablement déjà vu.

"Let's think step by step" (Allons-y étape par étape)

Mais je vais trop vite en besogne.

Le Chain-of-thought, ou chaine de pensées, c'est quoi ?

Le principe, c'est de demander au LLM d'écrire étape par étape les étapes du raisonnement pour que la prédiction finale ne puisse être que la bonne réponse.

C'est comme si au lieu de demander à quelqu'un "Calcule 78 x 34", vous lui disiez : "Calcule 70 x 30. Puis 70 x 4. Puis 8 x 30. Puis 8 x 4. Maintenant, additionne les résultats." S'il a de quoi noter les résultats de chaque étape, la deuxième méthode aura de bien meilleurs résultats.

Là, on va faire la même chose avec ChatGPT.

Plutôt que de juste dire :

"Je suis allé au marché et j'ai acheté 10 pommes. J'ai donné 2 pommes au voisin et 2 au réparateur. Puis, je suis retourné acheter 5 pommes de plus et j'en ai mangé 1. Combien de pommes me restait-il ?"

On va ajouter "Réfléchissons étape par étape." à la fin du prompt.

Bonus : Vous pouvez même ajoutez la phrase favorite de mon ami Ruben Hassid, "Take a deep breath" (ou "prend une grande respiration")

Et le mieux, c'est de combiner la chaine de pensées avec le few-shot prompting.

Si vous donnez des exemples de raisonnement détaillés, vous pouvez être quasiment sur que ChatGPT obtiendra le bon résultat en détaillant son raisonnement :)

Bon. Il faut que je vous avoue quelque chose.

Cette technique était absolument indispensable il y a quelques mois.

Enfin, il y a quelques semaines.

Mais sur GPT-4 Turbo, j'ai l'impression qu'ils ont configuré le LLM pour qu'il adopte cette approche par défaut.

Voilà un exemple :

Prompt : 

I went to the market and bought 10 apples. I gave 2 apples to the neighbor and 2 to the repairman. I then went and bought 5 more apples and ate 1. How many apples did I remain with?

Answer : 

Let's break down the apple transactions step by step:

1. You initially bought 10 apples.

2. You gave 2 apples to the neighbor, leaving you with 10−2=810−2=8 apples.

3. You gave 2 apples to the repairman, leaving you with 8−2=68−2=6 apples.

4. You then bought 5 more apples, increasing your total to 6+5=116+5=11 apples.

5. Finally, you ate 1 apple, leaving you with 11−1=1011−1=10 apples.

So, you ended up with 10 apples.

Donc la méthode de chaine de pensées se fait désormais naturellement.

Mais je trouvais ça quand même important d'en parler, au moins pour que vous compreniez comment fonctionne l'outil et pourquoi certains exemples fonctionnent mieux qu'avant.

(D'ailleurs, chaque fois que j'évoquerai la chaine de pensées plus tard, j'utiliserai l'acronyme CoT (pour chain-of-thought))

Pour aller plus loin :

https://www.promptingguide.ai/techniques/cot

https://learnprompting.org/docs/intermediate/chain_of_thought

https://learnprompting.org/docs/intermediate/zero_shot_cot

Self-Consistency

Pour une fois, on va se servir du modèle probabiliste de ChatGPT à notre avantage.

(Je dis pour une fois, mais en vrai c'est génial pour plein d'autres trucs. Bref.)

On va générer le même prompt plusieurs fois et prendre le résultat le plus probable.

Bonus : combiner le self-consistency avec le CoT est encore mieux.

Par exemple, pour un problème complexe, ChatGPT ne va pas toujours obtenir le bon résultat. Mais le résultat qui apparaît le plus est le bon.

Ex :

Prompt:

When I was 6 my sister was half my age. NowI’m 70 how old is my sister?

Output 1:

When I was 6 my sister was half my age, so she was 3. Now I am 70, so she is 70 - 3 = 67. The answer is 67.

Output 2:

When the narrator was 6, his sister was half his age, which is 3. Now that the narrator is 70, his sister would be 70 - 3 = 67 years old. The answer is 67.

Output 3:

When I was 6 my sister was half my age, so she was 3. Now I am 70, so she is 70/2 = 35. The answer is 35.

ChatGPT s'est trompé une fois, mais a eu raison deux fois. On prend le résultat qui apparaît le plus de fois, et ça augmente les chances d'avoir un bon résultat.

Cette méthode s'applique surtout à des problèmes / questions où il n'y a qu'une seule réponse possible. Comme des maths, de la compta, de la finance, etc.

Pour une question ouverte, ça n'aurait aucun sens.

*Tips : Plutôt que de relancer une nouvelle conversation avec ChatGPT à chaque fois, il vous suffit d'appuyer sur le petit bouton de reroll, "🔄"*

Pour aller plus loin :

https://www.promptingguide.ai/techniques/consistency

https://learnprompting.org/docs/intermediate/self_consistency

Generate Knowledge Prompting

L'idée derrière cette technique est de demander au LLM de générer des informations potentiellement utiles avant de générer une réponse finale.

Par exemple, disons que vous voulez écrire un petit article de blog sur un animal, comme les ours. Avant de demander au LLM d'écrire l'article de blog, vous pouvez lui demander de générer quelques faits sur les ours. Cela aidera le LLM à écrire un article de blog plus pertinent.

Bonus : combinez cette méthode avec le few-shot prompting pour obtenir des faits de meilleure qualité.

Ex :

Prompt:

Input: A common effect of smoking lots of cigarettes in one’s lifetime is a higher than normal chance of getting lung cancer.Knowledge: Those who consistently averaged less than one cigarette per day over their lifetime had nine times the risk of dying from lung cancer than never smokers. Among people who smoked between one and 10 cigarettes per day, the risk of dying from lung cancer was nearly 12 times higher than that of never smokers.Input: A rock is the same size as a pebble.Knowledge: A pebble is a clast of rock with a particle size of 4 to 64 millimetres based on the Udden-Wentworth scale of sedimentology. Pebbles are generally considered larger than granules (2 to 4 millimetres diameter) and smaller than cobbles (64 to 256 millimetres diameter).Input: Part of golf is trying to get a higher point total than others.Knowledge:

Knowledge (or answer):

The objective of golf is to play a set of holes in the least number of strokes. A round of golf typically consists of 18 holes. Each hole is played once in the round on a standard golf course. Each stroke is counted as one point, and the total number of strokes is used to determine the winner of the game.

L'étape d'après est d'intégrer les connaissances au prompt =>

Prompt:

Question: Part of golf is trying to get a higher point total than others. Yes or No?Knowledge: The objective of golf is to play a set of holes in the least number of strokes. A round of golf typically consists of 18 holes. Each hole is played once in the round on a standard golf course. Each stroke is counted as one point, and the total number of strokes is used to determine the winner of the game.Explain and Answer:

Answer :

No, the objective of golf is not to get a higher point total than others. Rather, the objective is to play a set of holes in the least number of strokes. The total number of strokes is used to determine the winner of the game, not the total number of points.

Pour comprendre pourquoi ChatGPT peut se tromper alors qu'il a les bonnes connaissances, il faut comprendre comment un LLM fonctionne.

Pour schématiser, ChatGPT est décomposé en deux parties :

1- Le LLM, GPT-4

2- La base de données vectorielles, qui regroupe toutes les informations qu'il doit connaître

Une base de donnée vectorielle, c'est la méthode qu'on a trouvé pour relier ensemble un paquet d'informations.

Je vous en parlerai plus en détails plus tard, dans la première méthode "avancée", le RAG.

Mais pour l'instant, retenez juste que ChatGPT possède plein d'informations, mais qu'à chaque requête, il choisit quelles informations il va chercher avant de répondre.

Un peu comme notre cerveau, quand vous allez parler de tarte, vous pensez à votre grand-mère, alors qu'en parlant de croissant, vous pensez à la boulangerie.

Le cerveau choisit quelles informations il va chercher, et les autres ne sont pas prises en compte (car ça demande des ressources d'aller chercher les informations).

Et cette technique de génération de connaissances oblige ChatGPT à aller chercher des informations sur le sujet, ce qu'il n'aurait pas forcément fait naturellement.

("Pas forcément", ce n'est pas une règle)

Pour aller plus loin :

https://www.promptingguide.ai/techniques/knowledge

https://learnprompting.org/docs/intermediate/generated_knowledge#single-prompt-approach

Tree of thoughts

Maintenant, on va combiner la chaine de pensée et le self-consistency.

On va créer l'arbre de pensées. (ToT)

Même si le CoT est pas mal, et permet de meilleurs résultats, parfois le résultat n'est pas bon. Le ToT va permettre d'améliorer le CoT grâce au self-consistency.

Par contre, c'est un process un peu plus laborieux qui prend plus de temps.

Rappelez-vous : dans le CoT, on décompose l'instruction en plusieurs étapes (ou on demande au LLM de le faire).

Ici, à chaque étape, on va ajouter une "vérification" avec le self-consistency.

Par exemple, en partant de l'étape 1, on va générer 5 possibles étapes 2. On choisit la réponse la plus utilisée, et on va générer 5 possibles étapes 3. Etc.

(Vous pouvez générer autant de possibilités que vous voulez à chaque étape, et choisir plus d'une étape suivante (d'où "l'arbre")).

Tips : Vous pouvez vous servir du ToT dans un process créatif pour avoir plus d'idées originales car vous multipliez les possibilités

Petit schéma pour mieux comprendre :

TOT

Source : https://arxiv.org/abs/2305.10601

Pour aller plus loin :

https://www.promptingguide.ai/techniques/tot

Revenons sur les rôles

Plusieurs petites notes / anecdotes sur les rôles :

1- Les rôles étaient primordiaux pour une amélioration significative des résultats avec GPT-3. Mais les dernières études tendent à montrer que sur GPT-4 (et encore plus particulièrement GPT-4 Turbo), l'impact du rôle est minime : les modèles sont déjà suffisamment perfectionnés et entraînés pour s'adapter aux situations.

2- Vous pouvez demander à l'IA de créer un rôle à votre place, avec une histoire et des détails bien plus développés pour une meilleure identification de l'IA à qui vous allez donner ce rôle. Ex : Write a background role/bio about a fiction writer.

3- Le top, c'est d'utiliser plusieurs LLMs configurés chacun pour avoir différents rôles. Récemment, on a vu l'expérience d'une ville où chaque habitant a une personnalité différente incarnée par un LLM, ou une boite de développement de jeu vidéo où chaque employé possédait sa propre personnalité.

Si ces expériences de simulation vous intéresse : https://kliu.io/post/llms-can-simulate-everything/

Pour aller plus loin :

https://learnprompting.org/docs/intermediate/revisiting_roles

Suite la semaine prochaine

Pour aller plus loin

Quelques sources dont j'ai pu m'inspirer qui vous permettront d'aller plus loin :

https://www.promptingguide.ai/

https://learnprompting.org/

https://learn.deeplearning.ai/chatgpt-prompt-eng/

https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/

Malheureusement, comme vous avez pu le voir, je n'ai pas eu le temps de terminer ce plan (un peu long) sur cette édition.

Au moment où j'écris ces mots, j'en suis à 24k caractères, et j'avais d'autres choses de prévues pour mon dimanche que de manger de la documentation et des expériences sur ChatGPT (même si je kiffe).

Donc suite la semaine prochaine :)

(Ca tombe bien, j’arrive proche de la limite de longueur de Substack)

En attendant, si cette édition vous a plu et vous a servi, pensez à partager la newsletter, c'est ce qui soutient le plus mon travail :)

Cette newsletter, c'est beaucoup de travail sans ROI direct, mais que j'adore faire car j'ai vraiment l'impression de transmettre et d'aider d'autres personnes. (Je viens de me rendre compte que c'est le cas de la majorité de mes projets. 😅)

Honnêtement, c'est lourd à gérer, et c'est l'une des choses qui me prend le plus de temps et d'énergie de ma semaine. Sauf que ce n'est pas vraiment vivable avec mes projets actuels, et tous ceux que je veux lancer dont je ne parle pas encore.

Du coup, il y a deux choses sur lesquelles je m'interroge récemment.

1- Est-ce que la présence de sponsors vous dérangerait ? (des outils choisis et testés par mes soins, pas des liens bizarres)

2- Est-ce que certains parmi-vous voudraient participer à la construction de cette newsletter ?

(Recherches, écriture de billets, partages d'expériences, mise en forme, etc)

Si c'est le cas, envoyez moi un mail à [email protected] qu'on en discute :)

Merci pour votre lecture, et d'être toujours plus nombreux ici !

Pour les 10k, vous êtes chauds d'organiser un évènement physique pour discuter d'IA... en vrai ? (Vérifier qu'on est pas des robots)

Les news dans le monde de l'IA

Quelques news importantes cette semaine :

  • Elon Musk a annoncé Grok, sa nouvelle IA "cynique" et avoir (beaucoup) moins de barrières sur ce qu'il raconte. Bon, le truc, c'est que...

  • OpenAI a tenu son devday et annoncé des évolutions qui vont détruire le marché. J'en ai un peu parlé au début du deep dive, mais j'en ai fait un post récapitulatif complet : https://www.linkedin.com/posts/th%C3%A9o-leblanc_lemecde17ans-novembre-openai-activity-7127579720371576832-qqy3?utm_source=share&utm_medium=member_desktop

  • Une autre news qui a fait pas mal de bruit cette semaine, c'est PinAI, une sorte d'appareil électronique connecté à l'IA qui devrait nous servir en permanence. Une sorte de siri évolué à mettre sur soi, qui coute $699 et pas sur qu'il fonctionne bien en public (au niveau de la détection de la voix). A voir ce que ça donne dans le futur, mais pas convaincu de mon côté.

  • Le projet Olympus d'Amazon avance : le but est de créer un LLM capable d'améliorer Alexa et d'accompagner les clients sur Amazon lors de leurs achats. Etant donné qu'ils viennent d'investir 4 milliards chez Anthropic, ça aura probablement un lien avec Claude :)

  • Samsung développe leur propre IA pour leurs téléphones. On a pas plus d'infos pour l'instant, on verra dans le futur.

Pour la semaine prochaine :

Deep Dive dans les meilleures méthodes de prompting qui existent aujourd’hui, 1 an après la sortie publique de ChatGPT. Partie 2 😅

Dans 2 semaines : Deep Dive dans Miakito, la boite de Lilian Delaveau qui veut créer ton nouvel employé autonome :)

Dans 3 semaines : Comparatif entre Midjourney, Dall-E, Leonardo.ai et Stable Diffusion. Ce sera l’occasion de faire un Deep Dive sur les 3 derniers dont je n’ai pas assez parlé :)

Dans 1 mois : Comment j’utilise VRAIMENT l’IA dans ma vie, partie 2

Dans 5 semaines : Deep Dive dans les features d'OpenAI annoncées lors du dev day (GPTs, copyright shield, etc)

Dans 6 semaines : Deep Dive dans Adobe, et comment est-ce qu'ils transforment tous les outils avec de l'IA.

Pour… après :

1- Créons un jeu vidéo en un week-end avec les IA. Et comparons la différence avec il y a 6 mois. (Mais cette fois, on sera plusieurs sur le projet : je vous fait participer)

2- Deep Dive : comment se servir de l’IA dans l’éducation ? Gamification, personnalisation de l’enseignement, accessibilité, etc.

3- Le “Constitutional learning” de Claude, leur méthode d’entraînement si particulière, c’est quoi ?

4- Comment créer son chatbot pour son usage privé ?

5- Quel est l'intérêt de créer un modèle IA open-source pour une entreprise privée ?

Si cette édition t'as plu, et que tu connais quelqu'un à qui elle peut servir, tu peux la partager juste ici :

Et si ce n'est pas encore fait, tu peux t'abonner :

Reply

or to participate.