• FreeA
  • Posts
  • Adobe devient un mastodonte de l'IA.

Adobe devient un mastodonte de l'IA.

Voici comment :

Hello !

Au programme du jour :

- Build in Public Youtube

- Deep Dive dans Adobe et tous leurs projets IA

- Les news dans le monde de l'IA

- Le sujet de la semaine prochaine

La meilleure manière de soutenir mon travail et la newsletter, c'est de la faire découvrir à plus de monde :

Pour aller plus loin et vous former sur l'IA, recevoir des news journalières ou encore tester Midjourney gratuitement, rejoignez FreeA, la plus grande communauté francophone sur l'IA : https://discord.gg/freea

La vidéo devait sortir jeudi.Mais j’ai encore eu des galères de monteur.

Je crois que ça va devenir un gag récurrent.

Bref, pas envie de m’étendre dessus, mais la vidéo sortira bien jeudi, et on en reparlera lundi prochain.

Par contre, je me tâte à faire un challenge d’une vidéo par jour en janvier pour progresser énormément.Forcément, des vidéos moins travaillées, mais je passerai un cap sur mon niveau en scripts.

Je vous tiens au courant :)

News sympa : je passe chez Skyrock dimanche soir !

On sera en live sur leur chaine twitch pour parler d’IA :)

Pour suivre ça, ça se passe ici : https://www.twitch.tv/skyrockfm

Adobe devient un mastodonte de l'IA.

Voici comment :

Sommaire :

  • Bref rappel de qui est Adobe, leur mission et leurs clients

  • Photoshop

  • Illustrator

  • Premiere Pro

  • Toutes les sorties qu'ils préparent

Bref rappel de qui est Adobe, leur mission et leurs clients

Fondé il y a 40 ans à partir d’une idée simple, créer des produits innovants qui changent le monde, Adobe propose des technologies révolutionnaires qui permettent à chaque personne, où qu’elle se trouve, d’imaginer, de créer et de donner vie à n’importe quelle expérience digitale.

Ca, c'est ce qu'il y a marqué sur leur site :)

Ce que ça veut dire, c'est que la suite Adobe, c'est la quasi-totalité de tous les produits phares dans le domaine créatif. Toutes les personnes bossant dans un environnement créatif ont 90% de chance d'utiliser Adobe, que ce soit pour du montage photo, vidéo, de l'animation, etc.

C'est les n°1 incontournables.

Et leur objectif, c'est de le rester.

Pour ça, ils développent régulièrement de nouveaux outils, mais récemment... il y a beaucoup d'IA dans ces outils.

C'est pas pour me déplaire, et aujourd'hui on fait un breakdown complet de tout ce qu'ils intégré ou qu'ils sont en train de développer !

Photoshop

Je pourrais commencer par Photoshop, et l'IA phare d'Adobe, Firefly, mais... je préfère me le garder pour une prochaine fois.

D'ici quelques semaines, on a une édition comparative entre les différents modèles de génération d'images, alors je me garde ça pour la prochaine fois :)

Illustrator

Par contre, pour Illustrator, je vais pouvoir y aller !

Si vous ne connaissez pas, c'est l'outil utilisé notamment pour les logo et pas mal de sujets qui touchent au graphisme.

Notamment grâce à une chose : les images vectorielles.

Car Illustrator permet de bosser avec des images... infinies.

En fait, une image vectorielle n'est pas composée de pixels tout petits. C'est des traits "vectoriels", donc avec une direction, un sens et une distance, mais qui sont infinies.

Vous pouvez zoomer à l'infini sur une image vectorielle sans jamais voir de différence de qualité.

Alors générer une image vectorielle en quelques secondes... c'est la force d'Adobe et de leur IA sur Illustrator.

Être capable de générer des images infinies.

Mais pas seulement infinies dans la précision, grâce aux vecteurs, mais également infinies dans la répétition.

Leur générateur de pattern permet de créer des images capables de se répéter à l'infini sans cassure. C'est fort.

Et c'est pas terminé.

Car en plus, pour générer ses images, que ce soit pour des patterns ou simplement pour des images vectorielles, l'IA d'Illustrator est capable d'avoir un style en inspiration et de recréer une image dans les mêmes tons et jeux de couleurs.

Oui, c'est ouf.

Mais sur Illustrator, on joue aussi avec du texte.

Ce serait quand même pratique de pouvoir le détecter automatiquement...

Bon, la transition était un peu moins recherchée, j'avoue.

Mais Illustrator permet également de détecter les textes sur des images, et donc de les modifier directement.

Ce qui peut être très pratique sur une image complexe ou texte et visuels sont entremêlés, et donc durs à modifier.

On a fait le tour sur Illustrator, et c'est déjà pas mal :)

Alors il serait temps de passer à la vidéo !

Premiere Pro

J'avoue que sur la vidéo, pour l'instant, Adobe n'est pas exceptionnel.

Mais vous verrez que dans leurs sorties en préparation, ils comptent se rattraper :)

Pour l'instant, ils ont "juste" 3 utilisations majeures intéressantes de l'IA dans Premiere Pro.

Déjà, la création automatique des sous-titres. Premiere Pro vous fait le transcript de votre vidéo, et c'est cool. Même si la qualité est pas exceptionnelle.

Mais par contre, ça ouvre la voie vers leur deuxième utilisation.

Le montage directement dans le texte.

Et si, au lieu de devoir trouver la frame près à laquelle couper pour que votre voix ne se coupe pas brutalement, vous aviez simplement à retirer le mot dans votre transcript, pour que Première Pro se charge du reste ?

C'est littéralement le but de cette fonction.

Honnêtement, je n'ai pas assez testé pour savoir si ça coupe réellement précisément ou pas, mais c'est en tout cas l'intention. Et ça peut être un gros gain de temps si vous ne voulez pas faire un montage trop complexe mais simplement sélectionner les bons passages d'un discours par exemple.

Mais le problème d'un discours, c'est qu'on répète tout le temps des "euuuuuuh", des "mmmmmh", et ce serait bien de les couper automatiquement.

Bon, ok, cette transition n'était pas non plus exceptionnelle :)

Mais Première Pro coupe automatiquement vos différentes interjections intempestives lors de votre discours.

Pratique, plutôt que de devoir à la main éplucher chaque mot pour couper les hésitations.

Ces trois utilisations cumulées, on arrive déjà à un bon potentiel de gain de temps.

Mais là où Adobe a le plus impressionné, c'est dans les folies qu'ils ont annoncés.

Toutes les sorties qu'ils préparent

9 de leurs annonces m'ont tapé dans l'oeil.

Et on va commencer par ce qui touche à la vidéo, car ça fiat une bonne transition :)

Leur première annonce folle, c'est Fast Fill.

Au moment de la démo, ça paraît être une solution d'inpainting banale : ils modifient une partie de l'image en le demandant à une IA.

Puis, la vidéo se lance, et on comprend qu'on était juste sur pause.

Et surtout, que l'inpainting s'intègre parfaitement dans la vidéo : il est impossible de s'en rendre compte.

Ca va changer beaucoup de choses pour la production et le montage.

Mais le problème qu'ont beaucoup de monde, c'est obtenir une bonne qualité d'image, avec des beaux rendus.

Alors il suffit de lancer Res up, leur deuxième annonce liée à la vidéo.

Le but ? Être un upscaler de vidéo.

La semaine dernière, l'upscaler "magnific" m'a complètement bluffé. Il transforme une image de mauvaise qualité pixelisée en image incroyable détaillée, en ajoutant en plus des détails.

Maintenant, imaginez la même chose, mais en vidéo.

Voilà Res up.

Et pour en faire profiter le monde entier, utilisez Dub Dub Dub : leur outil de traduction de vidéo.

Comme peuvent déjà le faire un Heygen ou un Rask, traduisez vos vidéos en temps réel.

J'attends de voir quel va être leur élément différenciant sur cet outil, mais je suis pas inquiet.

Alors il est temps de passer à un autre domaine pour leur quatrième annonce.

Et si on mettait sur pause la vidéo pour travailler l'image.

Draw and Delight est un outil pour passer du dessin à l'image : vous dessinez, le résultat apparaît. Un peu dans le même style des 2-3 outils qu'on a vu faire pas mal de bruit sur le sujet récemment, mais en plus épuré et avec la touche Adobe. Même si j'imagine que d'ici sa sortie, ils ajouteront d'autres features pour se démarquer.

Mais si vous ne voulez pas dessiner vos images, photographiez les.

Et avec Stardust, devez la star de vos photos.

Des touristes gênants en arrière plan ? Il suffit de les couper.

Votre outfit ne va pas bien avec la lumière ? Aucun soucis, on peut vous habiller avec ce que vous voulez. Oui, même des vêtements de marque :)

Bref : plus besoin de devenir un pro de Photoshop, Stardust vous permet de manipuler vos photos.

Pas sur que ce soit vraiment positif.

Mais bref.

L'étape après la photo, c'est la 3D.

Ne pas seulement jouer sur un plan en deux dimensions, mais ajouter la profondeur.

Et pour ça, Adobe a annoncé deux projets.

Neo, une sorte de blender augmenté, sur lequel je ne m'étendrai pas car je ne suis pas un expert du sujet, mais surtout Poseable.

Et si on rendait la 3D 100x plus simple ?

La conception de prototypes et de storyboards peut prendre des heures, car chaque scène doit être minutieusement ajustée.

Fini le temps perdu à modifier le moindre détail d’une scène, que ce soit l’arrière-plan, les angles, les poses de chaque personnage ou les interactions de l’un d’entre eux avec les objets environnants. Il suffit de puiser dans des modèles de pose optimisés par l’IA et d’utiliser des générateurs d’images pour restituer des scènes de personnages 3D.

Typiquement le genre d'outils qui vont dans la vision de réduire les coûts : ça vous coûter moins cher de produire des films 3D, et donc :

- Soit éliminer une bonne partie des emplois

- Soit augmenter grandement l'offre

Comme dans la majorité des domaines.

Mais cet outil en est une bonne démonstration :)

Mais j'ai pas encore terminé.

J'ai encore 2 annonces d'Adobe à vous partager.

D'abord, il nous manque une dernière chose pour compléter l'univers de la création.

L'écriture.

Alors Glyphease est un outil permettant de créer une police en quelques secondes, selon le style que vous voulez lui donner.

Mais également de reproduire quelques lettres ou n'importe quel type d'écriture fourni.

Pratique.

Et enfin, leur dernière annonce dont je voulais vous parler.

Pour l'instant, tous ces projets c'est bien joli, mais ça reste dans le monde virtuel.

Et si on pouvait les amener directement dans le monde réel ?

Primrose a été présenté sous la forme d'une robe interactive : grâce à des textiles connectés souples et non-tissés, une surface entière peut afficher le contenu créé avec Firefly, After Effects, Stock et Illustrator.

Sauf que les designers peuvent intégrer cette technologie aux vêtements, aux meubles et à d’autres surfaces pour offrir une infinité de styles.

Non, l'IA et la technologie ne sont pas que des lubies de geek qui resteront enfermées sur internet.

L'adoption se fait d'abord en ligne car les barrières sont plus faibles, voire inexistantes.

Parce que la communication circule 100x plus vite.

Et que des communautés de passionnés se forment pour progresser ensemble, surmontant des distances de plusieurs milliers de kilomètres.

Mais ce n'est qu'une question de temps.

En 1990, si vous parliez d'Internet, vous étiez moqués.

En 1800, si vous parliez de machines agricoles, vous étiez moqués.

En 1400, si vous vouliez lire, vous étiez moqués.

En 2023, si vous parlez d'intelligence artificielle, on vous réduit à ChatGPT et vous êtes moqués.

Mais ce n'est qu'une question de temps.

En 2010, si vous aviez investi dans Internet, vous étiez maître des communications.

En 1900, si vous aviez un empire industriel, vous étiez maître de la faim.

En 1600, si vous maîtrisez les livres, vous maîtrisiez le monde.

En 2030, si vous avez cru et compris l'IA, vous êtes maître de la production.

Bref.

Je ne sais pas pourquoi, j'ai eu envie de partir dans une petite tirade en cette fin de newsletter.

Sur ce, je vous laisse, je retourne faire joujou avec mes "gadgets IA" :)

Edit : je suis à la relecture finale, et je me rends compte avoir oublié de parler de leur watermark IA. Pour la faire courte, ils ont créé une “trace” invisible pour l’humain mais qui permet aux ordinateurs de détecter les contenus générés par IA, et leur objectif est que cette trace soit adoptée par tous les outils de création IA.

Les news dans le monde de l'IA

Quelques news importantes cette semaine :

  • La plus grosse news de la semaine, c’est l’annonce de Gemini, l’IA de Google capable de concurrencer GPT-4. Sauf qu’elle sortira en 2024, probablement en même temps que GPT-5. Et leur démo était à priori complètement fake, avec très peu des fonctionnalités montrées VRAIMENT disponibles. Bon. Pour plus de détails, j’ai réalisé un post dessus : https://www.linkedin.com/posts/th%C3%A9o-leblanc_lemecde17ans-daezcembre-google-activity-7139175680348413952-ugLU?utm_source=share&utm_medium=member_desktop

  • Grok AI est maintenant disponible à tous les utilisateurs premium de Twitter.

  • OpenAI a acheté pour 51 millions de puces à une start-up… dans laquelle a investi Sam Altman. Attention aux conflits d’intérêts, ça paraît pas très honnête tout ça x).

  • D’ailleurs, Sam Altman a été nommé CEO de l’année par le magazine Time. C’est pas réellement important, mais ça montre l’impact qu’il a même au-delà de la sphère tech.

  • Apple se met à l’IA ! Ils ont sorti de manière assez discrète un framework spécialisé dans la conception de modèles de fondation, soit des modèles capables de tâches assez larges (et servant de fondation à des modèles plus spécialisés).

  • Gemini a annoncé un petit modèle pour permettre aux développeurs de jouer plus facilement, Stability AI l’a sorti : ils ont sorti un modèle de 3 milliards de paramètres (ce qui est relativement très peu), et qui a des bonnes performances dans la génération, un peu moins sur des tâches déterministes (comme les maths). Par contre, pour la première fois, leur modèle n’est pas open-source. Pourquoi ? L’avenir nous le dira.

  • Meta a lancé un outil, Purple Lama, permettant de plus facilement déterminer quels modèles sont sécuritaires et surs.

  • Mais c’est pas tout, puisqu’ils ont annoncé tester plus d’une vingtaine d’approches pour améliorer les usages sur leurs applications grâce à l’IA. Dans le tas, on retrouve le fait de générer des images directement dans des conversations de groupe avec une mémoire, ou des recherches intelligentes par rapport aux contenus publiés sur la plateforme.

  • Meta a également lancé son générateur d’images sur un site dédié. Théoriquement, il n’a rien pour se démarquer, donc je ne vois pas comment il pourrait concurrencer les géants déjà en place.

  • Nvidia dominait déjà largement le marché des puces. Toutes les compagnies entrainant des modèles sont dépendants d’eux. Et ils viennent d’annoncer des puces encore plus puissantes. Le jour ou Nvidia tombera de son piédestal à +1000 milliards est loin d’être arrivé, et c’est impressionnant.

  • L’IA nous aide à comprendre et communiquer avec les baleines. Non, ce n’est pas une blague. Des modèles entraînés ont été capables de mieux comprendre la cohérence entre les sons générés par des baleines, et c’est prometteur pour la suite. Les usages sont complètement fous. Autre exemple du même style, déchiffrer un papyrus brulé grâce à du deep learning. Si le sujet vous intéresse, ce dernier point a été traité dans une chronique d’underscore :).

Pour la semaine prochaine :

Deep Dive dans les features d'OpenAI annoncées lors du dev day (GPTs, copyright shield, etc). Il est temps de voir à quel point est-ce que c’est vraiment gamechanger.

Dans 2 semaines : Comparatif entre Midjourney, Dall-E, Leonardo.ai et Stable Diffusion. Ce sera l’occasion de faire un Deep Dive sur les 3 derniers dont je n’ai pas assez parlé :). (Oui, je le repousse, car maintenant que Midjourney a annoncé sa V6… ce serait bête de publier cette édition juste avant)

Dans 3 semaines : Deep Dive : comment se servir de l’IA dans l’éducation ? Gamification, personnalisation de l’enseignement, accessibilité, etc.

Dans 4 semaines : Deep Dive : comment se servir de l’IA dans la santé ? Où plutôt, comment l’IA va créer une vraie révolution dans nos durées de vie, et poser la question de la barrière de la mort.

Dans 5 semaines : Créons un livre collaboratif sur l’IA en combinant intelligence artificielle et intelligence collective. Et si vous deveniez auteur ? Je vous reparlerai de ça d’ici 2 semaines pour préparer ce projet :)

Dans 6 semaines :

1- Créons un vrai jeu vidéo en un week-end avec les IA. (Mais cette fois, on sera plusieurs sur le projet : je vous fait participer. Donc on va créer une folie :))

2- Deep Dive un peu technique dans Nvidia, et pourquoi est-ce que le monde de l’IA est à ce point dépendant d’eux.

3- Deep Dive de l’IA dans le jeu vidéo, et toutes les folies que ça amène

4- Elle est IA-artiste, et est contacté par des entreprises comme Google pour faire des images adaptées. Elle a généré + 100 000 images sur Midjourney. Il faut que je vous présente une amie.

5- Mon expérience avec Youtube, mon process de création de vidéo, comment je vois le futur de cette plateforme

Si cette édition t'as plu, et que tu connais quelqu'un à qui elle peut servir, tu peux la partager juste ici :

Et si ce n'est pas encore fait, tu peux t'abonner :

Reply

or to participate.