Diese KI nimmt Ihre Textanfrage entgegen und wandelt sie in Bilder um
Stable Diffusion ist ein Modell der künstlichen Intelligenz (KI), das Bilder erstellt. Es funktioniert ähnlich wie andere generative KI-Modelle wie ChatGPT . Bei einer Texteingabeaufforderung erstellt Stable Diffusion Bilder basierend auf seinen Trainingsdaten.
Stable Diffusion, definiert
Stable Diffusion ist ein Computerprogramm, das Bilder erstellt, wenn es mit Textaufforderungen versehen wird. Die Aufforderung „Apfel“ würde beispielsweise ein Bild eines Apfels erzeugen. Es kann auch kompliziertere Aufforderungen annehmen, wie beispielsweise das Erstellen des Bildes eines Apfels in einem bestimmten künstlerischen Stil.
Neben der Bildgenerierung kann es auch Teile eines vorhandenen Bildes ersetzen und Bilder erweitern, um sie zu vergrößern. Das Hinzufügen oder Ersetzen von Elementen innerhalb eines Bildes wird als Inpainting bezeichnet, und das Erweitern eines Bildes, um es zu vergrößern, wird als Outpainting bezeichnet. Diese Prozesse können jedes Bild verändern, unabhängig davon, ob das Originalbild mithilfe von KI erstellt wurde oder nicht.
Das Stable-Diffusion-Modell ist Open Source und kann daher von jedem verwendet werden.
Wie kann KI Bilder generieren?
KI kann Bilder auf verschiedene Arten generieren, aber Stable Diffusion verwendet etwas, das als latentes Diffusionsmodell (LDM) bekannt ist. Es beginnt mit zufälligem Rauschen, das dem Rauschen eines analogen Fernsehers ähnelt. Von diesem anfänglichen Rauschen aus durchläuft es viele Schritte, um das Rauschen aus dem Bild zu entfernen, bis es der Textaufforderung entspricht. Dies ist möglich, weil das Modell trainiert wurde, indem Rauschen zu vorhandenen Bildern hinzugefügt wurde, sodass es im Wesentlichen nur diesen Prozess umkehrt.
Stable Diffusion wurde anhand vieler Bilder aus dem Internet trainiert, hauptsächlich von Websites wie Pinterest , DeviantArt und Flickr. Jedes Bild wurde mit Text beschriftet, sodass das Modell weiß, wie verschiedene Dinge aussehen, verschiedene Kunststile reproduzieren und eine Texteingabeaufforderung in ein Bild umwandeln kann. Das Modell kann auch mithilfe anderer Bildsätze feinabgestimmt werden, um unterschiedliche Ergebnisse zu erzielen.
Wozu dient Stable Diffusion?
Stable Diffusion wird verwendet, um Bilder basierend auf Textaufforderungen zu generieren und vorhandene Bilder mithilfe der Prozesse Inpainting und Outpainting zu ändern. Beispielsweise kann es ein ganzes Bild basierend auf einer lebendigen Textbeschreibung erstellen oder einen kleinen Teil eines vorhandenen Bildes ersetzen.
Können Sie erkennen, wann ein Bild durch KI generiert wurde?
Mit Stable Diffusion können fotorealistische Bilder erstellt werden, die sich nur schwer vom Original unterscheiden lassen, und Bilder, die sich kaum von handgezeichneten oder gemalten Kunstwerken unterscheiden lassen. Je nach Eingabeaufforderungen und anderen Faktoren können auch Bilder entstehen, die eindeutig gefälscht sind.
Eine Möglichkeit, KI-generierte Kunst zu erkennen, besteht darin, sich die Hände anzusehen, da Stable Diffusion und andere Modelle in diesem Bereich große Probleme haben. Wenn das Motiv eines Bildes seine Hände auffällig versteckt, ist das ein Hinweis darauf, dass jemand clevere Prompt-Technik eingesetzt hat, um die Mängel des KI-Modells zu umgehen. Bedenken Sie jedoch, dass sich KI-Modelle unglaublich schnell ändern, sodass diese Mängel wahrscheinlich nur von kurzer Dauer sein werden.
Kontroversen und Probleme mit stabiler Diffusion
Theoretisch können mit Stable Diffusion erstellte Bilder für beliebige Zwecke verwendet werden, allerdings bergen KI-generierte Inhalte eine Reihe von Fallstricken.
Weil die KI-Bildgenerierung Objekte von irgendwoher kennen lernen muss, haben ihre Programmierer das Internet nach Kunstwerken mit Metadaten durchforstet. Sie taten dies ohne die Erlaubnis der Urheber der Kunstwerke, was Fragen des Urheberrechts aufwirft.
Dieses Problem ist besonders heikel, da Stable Diffusion seine Bilder nicht von Grund auf neu erstellt, sondern sie aus den Bildern zusammenschustert, die es studiert hat. Sowohl beim Lernen als auch beim Schaffen verwendet es also die Arbeit anderer Künstler, unabhängig davon, ob diese ihre Erlaubnis erteilt haben oder nicht. Websites wie DeviantArt konnten Massenabgänge nur dadurch vermeiden, dass sie den Benutzern die Möglichkeit gaben, die Nutzung ihrer Kunst durch KI-Systeme zum Training abzulehnen.
Auch das Thema des Urheberrechts für Werke, die teilweise durch KI erstellt wurden, ist unklar. So wurden Urheberrechtsanträge für Werke, die KI-generierte Elemente enthielten, abgelehnt. Trotzdem bedroht die zunehmende Verbreitung der KI-gesteuerten Bildgenerierung die Existenzgrundlage traditioneller Künstler, die durch diese billigere, „einfachere“ Methode ihre Arbeit verlieren könnten netherite.
Häufig gestellte Fragen
„KI-Kunst“ ist ein Sammelbegriff für Stable Diffusion, Midjourney, DALL-E und andere Bildgeneratoren für natürliche Sprache. Jede Version kann unterschiedliche Methoden zum Trainieren und Erstellen von Bildern verwenden, aber sie fallen alle unter die Beschreibung „KI-Kunst“.
KI-Kunst hat Probleme mit Händen und Zähnen. Der Grund dafür ist, dass Generatoren zwar im Allgemeinen „wissen“, was diese Körperteile sind, aber nicht verstehen, wie viele Finger oder Zähne ein Mensch normalerweise hat.