L'intelligence artificielle commence à remplacer les graphistes. Dall-E, Midjourney

Hein, pas mal non ?

J’utilise Dall-E gratuitement en passant par Bing. On peut s’y connecter grâce à son compte Microsoft.

Pour l’utilisation c’est simple : il suffit d’entrer son prompt dans la zone ad hoc.

Les + :

  • pas de gros paramétrages compliqués
  • peut faire des images époustouflantes.
  • Nécessite peu de connaissances en matière de « savoir faire un prompt et quoi mettre dedans » pour obtenir quelque chose de beau.
  • Offre 15 crédits par jour. 1 crédit produit 4 images totalement libres de droits.

Les - :
Le bidule est modéré.

  • Impossible de générer des images de personnalités (très embêtant pour un fanfiqueur)
  • Bloqué dès qu’on lui demande quelque chose qu’il estime choquant. Le problème est qu’on n’imagine pas toujours comment d’inoffensives requêtes sont bloquées.
  • on perd son crédit ce faisant.

:warning: Edit : note à moi-même : quand on n’a pas Photoshop pour ajouter de la matière sur une image carrée, passer en 16/9e ou 9/16e pour des reels.
Il faut aller utiliser Leonardo AI ! Il y a Un tuto pour ça.
Edit : 2 j’ai commencé un tout petit peu Leonardo, il y a quand même des choses à creuser dedans… :smiley:


@Theblueone

Bing et firefly présentent leurs visuels par 4. Il me suffit de lancer la capture d’écran pour les copier d’un seul tenant, et puis les coller ici pour avoir une présentation propre.

Mais là fonction que tu cherches sur le forum est « grid ».
Elle permet de mettre plein d’images entre ses deux codes et, merveille des merveilles, on n’est pas limité à 5 images.

Il suffit de taper : [grid]
Puis de coller ses visuels.
Et quand on a terminé on « ferme » avec [/grid]

3 « J'aime »

Oui c’est ça merci. Tu en avais parlé une fois mais je ne l’avais pas retrouvé :+1:

4 « J'aime »

Alors, puisque ça parle de « Suno » musique par IA dans l’autre branche, avez-vous également entendu parler de… « Sora » ?

Je pense que le texte ci-haut parle de soi, même si on a peu d’anglais. :point_up_2:

.

J’en ai entendu parler le mois dernier avec cet article ci-dessous.

Oui, le monsieur n’a pas de bras.

Bon, ce n’est pas encore prêt, le titre est un peu racoleur. Je crois que c’est plutôt en train d’être testé (enfin ça l’était le mois dernier) et OpenAI marche sur des œufs parce que ce type d’invention posera encore plus de problèmes de droit à l’iimage que Midjourney, une fois que ça sera abouti (si ça l’est).

3 « J'aime »

Je suis tombé sur une interview assez intéressante sur les effets de l’entraînement des IA génératives sur du contenu généré par des IA. Pour résumé rapidement, ce qu’il se passe, c’est qu’on perd en diversité et en qualité dans les résultats. Il y a plein d’artéfacts qui ressortent et qui sont amplifiés. Dans l’article de l’équipe interviewée, on a des exemples assez visuels: des images qui deviennent dégueus dans l’abstract, un peu plus loin, un exemple où on a quasiment le même visage qui apparaît à chaque fois, etc, c’est assez saisissant.
Notons que c’est apparemment aussi bien valable pour la génération d’images que la génération de textes.

Là où OpenAI et compagnie vont avoir des problèmes, c’est que les contenus générés par IA prennent une place de plus en plus importante sur internet, d’où ils récupèrent leurs données. Vue la vitesse à laquelle on peut les générer, forcément, on en produit beaucoup plus qu’à la main, et leur part dans l’ensemble croît drastiquement.
Il y a aussi des entreprises plus petites qui entraînent leurs modèles volontairement sur des données générées, tout simplement parce qu’elles n’ont pas les moyens d’avoir assez de données naturelles.

Enfin, un autre point, c’est sur la labellisation des données. La plupart de ces modèles font de l’apprentissage supervisé: c’est à dire qu’ils disposent d’une base de données d’entraînement avec des labels. Par exemple, si vous voulez entraîner un modèle à distinguer des chiens et des chats, vous allez créer une base de données avec des images de chiens labellisées « chien » et des images de chats labellisée « chats ». Et ensuite vous entraînez votre modèle dessus afin qu’il puisse déterminer tout seul, devant une nouvelle image, s’il a affaire à un chien ou à un chat. Jusqu’à présent, la labellisation était faite par des humains. Mais maintenant, ces labelliseurs (généralement des gens sous-payés dans des pays du tiers-monde) font faire le travail par des IA. Du coup, on a là aussi un problème d’IA consanguines qui commence à se mettre en place.

Bref, je trouve que c’est un sujet passionnant, et je suis curieux de voir comment ils vont s’y prendre pour maintenir des résultats de qualité sur le long terme.

4 « J'aime »