• FreeA
  • Posts
  • Deep Dive dans les features d'OpenAI annoncées pendant le dev day

Deep Dive dans les features d'OpenAI annoncées pendant le dev day

Hello !

Au programme du jour :

- Deep Dive dans les features d'OpenAI annoncées pendant le dev day

- Les news dans le monde de l'IA

- Le sujet de la semaine prochaine (PS : pas de newsletter semaine pro)

La meilleure manière de soutenir mon travail et la newsletter, c'est de la faire découvrir à plus de monde :

Pour aller plus loin et vous former sur l'IA, recevoir des news journalières ou encore tester Midjourney gratuitement, rejoignez FreeA, la plus grande communauté francophone sur l'IA : https://discord.gg/freea

Ma dernière vidéo sur Youtube fait un départ timide, malgré ma sensation d’avoir passé un cap en terme d’écriture.

Je suis curieux d’avoir votre feedback : https://www.youtube.com/@Theo-FreeA

Deep Dive dans les features d'OpenAI annoncées pendant le dev day

Edition moins travaillée que d'habitude pour des raisons perso, mais elle reste bien complète.Vous devriez y trouver votre bonheur :)

Sommaire :

- GPT4-Turbo

- Assistants API

- API

- Copyright shield

- GPTs

Le 6 novembre, OpenAI a tenu son DevDay, l'occasion d'annoncer de nombreuses mises à jour.

Aujourd'hui, nous allons revenir sur celles-ci, afin de les décrypter et d'observer si après un mois, ce n'était qu'un effet d'annonce ou alors une vraie fonctionnalité game changer.

GPT-4 Turbo

GPT-4 Turbo, annoncé lors du DevDay d'OpenAI le 6 novembre, a marqué une étape significative dans l'évolution des modèles linguistiques.

Cette mise à jour a théoriquement augmenté la rapidité du modèle de près de 30% et sa précision de 20%.

Et c'est pas tout.

GPT4-Turbo a intégré des fonctionnalités multimodales, lui permettant de traiter non seulement du texte, mais aussi des images et des données audio, dans la même conversation.

C'est pratique, car ça permet de garder une mémoire et du contexte pour une tâche nécessitant différentes fonctions.

Mais malheureusement, ce n'est pas venu seul.

Le Dev Day a entrainé un regain d'important majeur vers ChatGPT, et une augmentation significative de son nombre d'utilisateurs.

Le résultat, c'est un ralentissement important de l'outil (qui semble s'être résorbé récemment, il était bien plus rapide sur mes derniers tests. Mais c’est peut-être lié à autre chose, regardez les news plus bas), mais également de nombreuses attaques.

ChatGPT a plusieurs fois été inutilisable pendant plusieurs heurs à cause d'attaques subies à la suite du dev day.

De plus, Gemini Ultra vient mettre un coup à GPT4 : bien qu'il ne sorte qu'en 2024, la structure de son fonctionnement multimodal a mis en lumière les limites de celui de GPT-4 Turbo.

Assistants API

Les Assistants API, introduits par OpenAI, représentent une avancée majeure dans l'intégration de l'intelligence artificielle dans les applications. Ces interfaces de programmation sont conçues pour permettre une communication fluide et intuitive entre les applications logicielles et les capacités avancées de traitement du langage naturel offertes par des modèles comme GPT-4 Turbo.

Les Assistants API offrent une interaction plus naturelle et contextuelle, permettant aux applications de comprendre et de répondre aux requêtes avec une précision accrue. Cette capacité est particulièrement utile dans des domaines tels que les chatbots, les assistants personnels et les systèmes de recommandation.

Ces API permettent une personnalisation poussée des réponses en fonction des besoins spécifiques des utilisateurs, en s'appuyant sur une compréhension approfondie des requêtes et du contexte d'utilisation.

Les Assistants API ont une multitude d'applications pratiques, notamment :

- Automatisation des Services Client : Ils peuvent gérer de manière autonome des requêtes de clients, offrant des réponses rapides et pertinentes, réduisant ainsi le temps de réponse et la charge de travail des équipes de support.

- Intégration dans des Applications : De nombreuses applications peuvent intégrer ces API pour améliorer leur interface utilisateur, en rendant les interactions plus naturelles et intuitives.

- Analyse de Données : Ils peuvent analyser de grands volumes de données textuelles, en extrayant des informations clés, facilitant ainsi la prise de décision basée sur les données.

L'utilité des Assistants API est incontestable dans le paysage technologique actuel :

- Efficacité Opérationnelle : Ils permettent aux entreprises d'automatiser des tâches répétitives et de se concentrer sur des activités à plus forte valeur ajoutée.

- Amélioration de l'Expérience Utilisateur : En fournissant des interactions plus naturelles et personnalisées, ils améliorent significativement l'expérience utilisateur.

- Innovation : Les Assistants API ouvrent la voie à de nouvelles applications et services innovants, en tirant parti des capacités avancées de l'IA.

Les Assistants API d'OpenAI s'imposent comme un outil puissant pour les développeurs et les entreprises, offrant des possibilités d'automatisation et de personnalisation qui étaient auparavant inaccessibles. Leur intégration dans divers domaines d'application témoigne de leur utilité et de leur potentiel de transformation du paysage technologique.

API

OpenAI a annoncé une réduction des coûts d'utilisation de ses API, rendant la technologie plus accessible aux développeurs et aux petites entreprises.

Parallèlement à la baisse des prix, les capacités de ces modèles ont été augmentées, offrant un meilleur rapport qualité-prix et encourageant une adoption plus large.

Cette combinaison de baisse des coûts et d'amélioration des performances devrait stimuler l'innovation et permettre à un plus grand nombre d'utilisateurs de tirer parti des avancées d'OpenAI.

De plus, l'intégration de GPT Vision et de Dall-E 3 à l'API va ouvrir de nombreuses nouvelles possibilités folles.

Le dernier exemple en date ?

SelfOperatingComputer, un projet opensource qui est capable d'agir automatiquement sur un ordinateur en prenant des screenshots pour être capable de savoir comment agir.

Si ça vous intéresse, mon ami Schubham Sharma a fait une vidéo sur le sujet :

Copyright shield

OpenAI a annoncé le programme "Copyright Shield" lors de son DevDay, promettant de protéger les entreprises utilisant ses produits des réclamations liées aux droits d'auteur. Ce programme a pour but de soutenir légalement les utilisateurs de la plateforme de développement d'OpenAI et de ChatGPT Enterprise en cas de litiges relatifs à la propriété intellectuelle pour le contenu créé par les outils d'OpenAI​​.

OpenAI s'engage à couvrir les frais juridiques des clients utilisant ses outils de manière générale, en cas de poursuites liées à des violations présumées de droits d'auteur dans le contenu généré par ses IA.

D'autres entreprises majeures dans le domaine de l'IA, telles que Microsoft, Cohere (soutenue par Google), Amazon et IBM, ont également annoncé des mesures pour indemniser leurs clients contre les réclamations en matière de violation de droits d'auteur.

Le Copyright Shield d'OpenAI représente une tentative importante pour atténuer les risques juridiques associés à l'utilisation des outils d'IA pour la génération de contenu. En offrant cette protection, OpenAI reconnaît les complexités juridiques croissantes dans le domaine de l'IA et cherche à rassurer et soutenir ses utilisateurs face à ces défis. Cette initiative reflète une prise de conscience accrue de la nécessité d'aligner l'innovation en IA avec les préoccupations juridiques et éthiques.

Mais ça veut aussi dire qu'OpenAI est très confiant dans sa capacité à influencer les décisions politiques pour éviter de devoir régler les réclamations liées aux droits d'auteur.

L'IA n'a plus aucun garde-fou pour son développement.

GPTs

Les GPTs sont l'annonce qui a fait le plus de bruit de la part d'OpenAI.

Honnêtement, je n'y ai pas passé de temps pour être capable d'amener un à la fois un avis intéressant et des bons conseils techniques.

J'en parlerai une prochaine fois quand je maîtriserai mieux le sujet.

Après les annonces spectaculaires d'OpenAI lors du DevDay, les attentes étaient naturellement élevées. Historiquement, des annonces similaires, telles que celle du multimodal en février, avaient créé un buzz considérable, mais avaient été suivies de retards et de déceptions. Cette fois, bien que certains aspects aient été en deçà des attentes, comme les bugs initiaux de GPT-4 et l'annulation du GPT Store, le bilan global reste positif.

Les améliorations apportées à GPT-4, bien que marquées par des difficultés techniques, ont démontré un progrès significatif dans la capacité et l'efficacité de l'IA. L'introduction des GPTs personnalisés, malgré les revers, a ouvert de nouvelles voies d'innovation et d'application pratique de l'IA. En dépit des défis et des critiques, ces avancées témoignent de l'engagement continu d'OpenAI envers le développement et l'amélioration de ses outils d'IA.

Les news dans le monde de l'IA

Quelques news importantes cette semaine :

  • Vous l’avez peut-être manqué, mais ce week-end, Twitter s’est enflammé grâce à 3 choses : un (très probablement fake) leak de GPT-4.5, une amélioration significative de la rapidité de ChatGPT, mais également le fait qu’à la question “quel est le nom du modèle que tu utilises”, ChatGPT réponde “GPT-4.5”. (C’est un peu plus complexe, mais on la fait courte). Sam Altman a dit que le leak était faux, et un professeur en IA a donné son avis sur le fait que si c’était vraiment le nouveau modèle d’OpenAI, les changements seraient bien plus importants. Bref. Je ferai un post complet pour parler de tout ça demain.

  • Pendant les fêtes, ChatGPT est flemmard, et donne des réponses plus courtes. Car il s'est entraîné sur le comportement humain, et donc l'imite. Je ne sais pas si on doit en rire ou en pleurer.

  • Les inscriptions à GPT+ sont à nouveau disponibles, elles qui étaient bloquées depuis... le Dev Day.

  • L'API de Gemini Pro est disponible pour les développeurs ! On va voir à quel point est-ce qu'elle est utile.

  • Google a sorti un générateur de musique, MusicFX. Les premiers tests semblent bons, et surtout plus simple à prendre en main que la majorité de ce qui existe déjà, on verra s'ils arrivent à prendre la tête de ce marché de niche.

  • Cette semaine, Google s'est lâché sur les annonces : ils ont sorti Imagen 2, pour eux aussi rentrer dans la danse des générateurs d'images. Bon. Apparement, et même si c'est étonnant, Snapchat, Shutterstock et Canva utilisent déjà ce modèle.

  • Ca y est, Midjourney est disponible sur leur site internet ! On va pouvoir générer nos images là-bas ! Enfin, seulement pour les personnes avec +10 000 images générées pour l'instant. J'ai vérifié, je suis "que" à 6 000 😭.

  • Et en plus, la V6 arrive ! On est à l'étape finale, celle du vote par la communauté des sets d'images. Globalement, ça veut dire qu'on aura probablement la V6 pour noël :)

  • Claude commence à s'exporter : Anthropic a lancé une extension pour intégrer Claude directement dans Google Sheets.

  • Mistral of experts, le nouveau modèle opensource de la startup française Mistral AI, est meilleur que Llama 2 et GPT-3.5. Et surtout, il utilise une méthode de fonctionnement complètement différente, que je ne vais pas détailler ici car c'est une news, pas un deep dive. Mais je le mets dans les prochains sujets potentiels et je vais me renseigner, car c'est fou.

  • Ca y est, l'audiobox de Meta est accessible à tous ! Clairement une dinguerie ce qu'ils ont réussi à faire au niveau du son, ça va venir concurrencer ElevenLabs car on a plus de contrôle sur l'environnement et sur le type de son. Bref, je vais faire joujou, je reviens.

  • Dernière news qui sort un peu du sujet AI (mais pas trop non plus), Tesla a montré une démo de leur nouveau robot, et la démo est... bluffante. Un jour, je ferai un (ou plusieurs) sujets complets sur la robotique, car on sous-estime beaucoup trop son développement en occident alors que c'est une folie, et qu'on a déjà des résultats complètements dingues.

Pour la semaine prochaine :

Pas d’édition, je prends une petite pause pour les fêtes, et 2-3 trucs à gérer en perso.De plus, je travaille sur un pivotement assez important de FreeA et de mon business modèle. Je vous en reparlerai en Janvier.

Dans 2 semaines : Comparatif entre Midjourney, Dall-E, Leonardo.ai et Stable Diffusion. Ce sera l’occasion de faire un Deep Dive sur les 3 derniers dont je n’ai pas assez parlé :). (Oui, je le repousse, car maintenant que Midjourney a annoncé sa V6… ce serait bête de publier cette édition juste avant)

Dans 3 semaines : Deep Dive : comment se servir de l’IA dans l’éducation ? Gamification, personnalisation de l’enseignement, accessibilité, etc.

Dans 4 semaines : Deep Dive : comment se servir de l’IA dans la santé ? Où plutôt, comment l’IA va créer une vraie révolution dans nos durées de vie, et poser la question de la barrière de la mort.

Dans 5 semaines : Mon expérience avec Youtube, mon process de création de vidéo, comment je vois le futur de cette plateforme

Dans 6 semaines : Créons un livre collaboratif sur l’IA en combinant intelligence artificielle et intelligence collective. Et si vous deveniez auteur ? Je vous reparlerai de ça d’ici 2 semaines pour préparer ce projet :)

Pour après :

1- Créons un vrai jeu vidéo en un week-end avec les IA. (Mais cette fois, on sera plusieurs sur le projet : je vous fait participer. Donc on va créer une folie :))

2- Deep Dive un peu technique dans Nvidia, et pourquoi est-ce que le monde de l’IA est à ce point dépendant d’eux.

3- Deep Dive de l’IA dans le jeu vidéo, et toutes les folies que ça amène

4- Elle est IA-artiste, et est contacté par des entreprises comme Google pour faire des images adaptées. Elle a généré + 100 000 images sur Midjourney. Il faut que je vous présente une amie.

5- Comment fonctionne le nouveau modèle de Mistral, et pourquoi est-ce qu’il peut complètement modifier la manière de construire des LLMs ?

Si cette édition t'as plu, et que tu connais quelqu'un à qui elle peut servir, tu peux la partager juste ici :

Et si ce n'est pas encore fait, tu peux t'abonner :

Reply

or to participate.