J’utilise Dall-E gratuitement en passant par Bing. On peut s’y connecter grâce à son compte Microsoft.
Pour l’utilisation c’est simple : il suffit d’entrer son prompt dans la zone ad hoc.
Les + :
pas de gros paramétrages compliqués
peut faire des images époustouflantes.
Nécessite peu de connaissances en matière de « savoir faire un prompt et quoi mettre dedans » pour obtenir quelque chose de beau.
Offre 15 crédits par jour. 1 crédit produit 4 images totalement libres de droits.
Les - :
Le bidule est modéré.
Impossible de générer des images de personnalités (très embêtant pour un fanfiqueur)
Bloqué dès qu’on lui demande quelque chose qu’il estime choquant. Le problème est qu’on n’imagine pas toujours comment d’inoffensives requêtes sont bloquées.
on perd son crédit ce faisant.
Edit : note à moi-même : quand on n’a pas Photoshop pour ajouter de la matière sur une image carrée, passer en 16/9e ou 9/16e pour des reels.
Il faut aller utiliser Leonardo AI ! Il y a Un tuto pour ça.
Edit : 2 j’ai commencé un tout petit peu Leonardo, il y a quand même des choses à creuser dedans…
Bing et firefly présentent leurs visuels par 4. Il me suffit de lancer la capture d’écran pour les copier d’un seul tenant, et puis les coller ici pour avoir une présentation propre.
Mais là fonction que tu cherches sur le forum est « grid ».
Elle permet de mettre plein d’images entre ses deux codes et, merveille des merveilles, on n’est pas limité à 5 images.
Il suffit de taper : [grid]
Puis de coller ses visuels.
Et quand on a terminé on « ferme » avec [/grid]
Je pense que le texte ci-haut parle de soi, même si on a peu d’anglais.
.
J’en ai entendu parler le mois dernier avec cet article ci-dessous.
Oui, le monsieur n’a pas de bras.
Bon, ce n’est pas encore prêt, le titre est un peu racoleur. Je crois que c’est plutôt en train d’être testé (enfin ça l’était le mois dernier) et OpenAI marche sur des œufs parce que ce type d’invention posera encore plus de problèmes de droit à l’iimage que Midjourney, une fois que ça sera abouti (si ça l’est).
Je suis tombé sur une interview assez intéressante sur les effets de l’entraînement des IA génératives sur du contenu généré par des IA. Pour résumé rapidement, ce qu’il se passe, c’est qu’on perd en diversité et en qualité dans les résultats. Il y a plein d’artéfacts qui ressortent et qui sont amplifiés. Dans l’article de l’équipe interviewée, on a des exemples assez visuels: des images qui deviennent dégueus dans l’abstract, un peu plus loin, un exemple où on a quasiment le même visage qui apparaît à chaque fois, etc, c’est assez saisissant.
Notons que c’est apparemment aussi bien valable pour la génération d’images que la génération de textes.
Là où OpenAI et compagnie vont avoir des problèmes, c’est que les contenus générés par IA prennent une place de plus en plus importante sur internet, d’où ils récupèrent leurs données. Vue la vitesse à laquelle on peut les générer, forcément, on en produit beaucoup plus qu’à la main, et leur part dans l’ensemble croît drastiquement.
Il y a aussi des entreprises plus petites qui entraînent leurs modèles volontairement sur des données générées, tout simplement parce qu’elles n’ont pas les moyens d’avoir assez de données naturelles.
Enfin, un autre point, c’est sur la labellisation des données. La plupart de ces modèles font de l’apprentissage supervisé: c’est à dire qu’ils disposent d’une base de données d’entraînement avec des labels. Par exemple, si vous voulez entraîner un modèle à distinguer des chiens et des chats, vous allez créer une base de données avec des images de chiens labellisées « chien » et des images de chats labellisée « chats ». Et ensuite vous entraînez votre modèle dessus afin qu’il puisse déterminer tout seul, devant une nouvelle image, s’il a affaire à un chien ou à un chat. Jusqu’à présent, la labellisation était faite par des humains. Mais maintenant, ces labelliseurs (généralement des gens sous-payés dans des pays du tiers-monde) font faire le travail par des IA. Du coup, on a là aussi un problème d’IA consanguines qui commence à se mettre en place.
Bref, je trouve que c’est un sujet passionnant, et je suis curieux de voir comment ils vont s’y prendre pour maintenir des résultats de qualité sur le long terme.
Rhô… Je suis envahie par deux sentiments tout à fait contradictoires (même si je ne connais pas ledit Jonathan) :
Oui, l’IA peut accomplir des merveilles
Oui aussi, l’IA plagie les artistes qui se défoncent à créer de magnifiques fanarts. Et même, ils se nourrissent de leurs œuvres pour nous proposer un truc absolument artificiel.
Et je ne peux condamner ça, vu que moi-même je m’en sers, parfois.
Je comprends ce que tu veux dire, d’autant que je viens d’avoir une discussion similaire avec quelqu’un par ici, il y a quelques jours
Pour moi, il y a quand même une vraie nuance à faire. Je ne trouve pas que ce soit du plagiat quand on utilise une IA en construisant soi-même un prompt et en décrivant l’univers, l’ambiance, le personnage, le style général, etc… qu’on visualise mais que – en tant que personne n’ayant pas de capacité en dessins/art – on est bien incapable de produire. Ce que ça génère, c’est un mélange très flou, un truc qui s’inspire de plein d’esthétiques sans en copier une (ou un artiste) en particulier. À mes yeux, ça reste un gros melting pot d’influences, pas du plagiat.
En revanche, je perçois mieux le reproche qu’on peut faire à la fonctionnalité du Chat que je mets ici en avant si elle cible des artistes précis (exemple avec la récente polémique sur Miyazaki) : là je lui demandé de me transformer des captures d’écrans et screens de tournage en illustrations crayonnées mais je ne me serai pas permis de transformer des fanarts ou des dessins. Je comprends bien ce qui dérange quand l’IA est utilisée pour imiter directement la patte graphique d’un artiste précis. Là, ce n’est plus de l’inspiration générale, mais effectivement quelque chose qui tend vers le plagiat… Et je comprends parfaitement que ce soit très mal vécu par les concernés. À voir les prochaines évolutions : peut-être que ce genre de pratiques sera à terme interdite (de manière analogue au fait qu’on respecte la volonté de certains auteurs de ne pas vouloir que leurs lores soient utilisés dans le cadre d’écritures de fanfics) si les dessinateurs réclament que leur style ne puissent être copiés par l’IA ?
Perso, je joue pas mal avec les IA d’illustration en ce moment (je m’y suis vraiment mise il y a trois semaines, donc je peux réagir en étant bien gênée aux entournures sur le sujet), essentiellement pour tenter de créer des visuels sympas pour mes fics. Je n’ai aucune compétence en dessin et – forcément – je trouve ça plutôt cool de pouvoir m’essayer à l’illustration via un outil de ce genre. Après, je pense (et espère) que ça ne remplacera jamais de vraies œuvres avec tout ce que qu’elles peuvent transmettre en émotion et en intention.
Bref, tout ça pour dire que je comprends le sentiment mitigé du moment à ce propos ^^"