AI generierte Bilder

ja sie habens mal probiert, aber irgendwie hats jeder vergessen :D

amjmjqsc-QNW2b-POPLPXKOg.webp


Screenshot-2025-05-13-191214.png
 
ok das ist echt next level.... wie hast du denn das erstellt? foto von dir wie du am boden liegst und dann das Blut und die szenerie dazu gepromptet?
Der Prompt war:

„Okay, nächster Schritt. Die Pinguine haben mich bemerkt und haben mich massakriert. Kriegst du das hin?“

Daraufhin hat der eine halbe Stunde zu Königspinguinen recherchiert und am Ende das Bild ausgespuckt, gleich beim ersten Versuch. :D

Allerdings hat er, beim Versuch den Titel vom Shirt zu korrigieren, wieder gestreikt. Er dürfe keine so expliziten Gewaltdarstellungen generieren. Wahrscheinlich ist genau zu dem Zeitpunkt der Filter wieder aktiviert worden.
 
Ich packe das mal hierhin, weil mir kein besserer Thread einfällt. Eine schöne(?) Anekdote zum Thema Machine-Bias.

Ich gebe ein Seminar zum Thema Konfliktmanagement und habe eine Fallstudie zu einem fiktiven Konflikt. Zur besseren Übersicht wollte ich mit Microsoft Copilot (wollte ich mal ausprobieren für sowas) kleine Comicbildchen der handelnden Personen in der Fallstudie erstellen lassen. Quasi als Übersicht und Orientierungshilfe für die Teilnehmer*innen. Soweit so gut. Der Teil hat gut geklappt. MS Copüilot hat mir BIlder erstellt, die die zugewiesenen Eigenschaften auf lustige Weise darstellen. So kann man sich die Protagonist*innen der Fallstudie vmtl besser einprägen.

In einem zweiten Schritt erkläre ich das sog "Drama-Dreicek", kennen vielleicht einige.

Ich habe also MS Copilot gebeten die Comic-Portraitbilder im Dreieck so anzuordnen wie von mir vorgegeben. Der Prompt war, die Comic-Portraits exakt genau so wieder zu verwenden aber im Dreeick anzuordnen und den Rollen "Täter", "Opfer" und "Retter" zuzuweisen. Das hat er soweit auch gut hinbekommen, alle Personen waren richtig angeordnet und die Rollen zugewiesen.

ABER mit einer Einschränkung. Auf einmal war die Person, der die Rolle "Opfer" zugewiesen wurde eine Person Of Color!!!! WTF.
Im ersten Bild waren alle Personen eindeutig weiß, wegen mir ok, sind meine Studierenden auch in dem Kurs. Aber sobald das Wort "Opfer" auftaucht ändert Copilot die Hautfarbe der zugewiesenen Person zu einem dunklen Hautton. Absolut gleiches Design wie im ersten Bild, nur die Farbe der Haut war anders (braun).

Scheiss KI ey!
Ein nützliches Tool, aber wir haben noch viel Weg vor uns. Wollte ich hier einfach mal teilen die Erfahrung. Ich verstehe wie sowas zustande kommt und die KI kann gegenwärtig nicht viel dafür. Shit in = Shit out. Wäre möglicherweise bei einer anderen Bild KI auch passiert, aber es nervt irgendwie.
 
Zurück
Oben Unten