Der Platzhirsch läuft sich warm. Firefly soll zum Fliegen gebracht werden.
Im Moment kann man sich auf eine Warteliste für Firefly setzen lassen. Firefly ist Bestandteil von Sensei, einem Framework von KI-Tools, welches Adobe gerade aufbaut.
Mit Firefly soll man textbasiert Bilder und Texteffekte erzeugen können. So wie man es von z.B. midjourney gewohnt ist. Auf der Webseite, auf der man Zugang zu Firefly erbeten kann, findet sich auch ein „Join the Discord“-Button. Ein Hinweis auf die Nähe zu midjourney?
Es würde mich nicht überraschen. So wie Microsoft sich bei OpenAI eingekauft hat, so setzt Adobe auch auf „Zusammenarbeit“. Für das Sprachmodell wird MS Azure und OpenAI verwendet.
Bei solchen KI-Systemen kann man sehr vereinfacht von drei Komponenten sprechen. Der Hardware, die das Programm ausführt, das Programm selbst und das Modell, mit dem das Programm arbeitet.
Das Modell entsteht durch Training. Ein mühsames Geschäft. Bei der Bilderkennung zeigt man der Software ein Bild. Sie sagt „Kaffeetasse“ und wir „Nö, ist ein Hund“. Irgendwann lernt das Ding, dass Hunde keinen Henkel haben, obwohl sie gar nicht weiß was ein Henkel ist. Dafür wissen wir irgendwann nicht, warum sie den Hund richtig erkennt, was die Kriterien und Muster sind.
Die Rechenpower kommt von Microsoft Azure, die Software von keine Ahnung wem, die Daten, mit denen Firefly trainiert wird, nimmt Adobe aus seinem eigenen Stock, aus dem Bereich Public Domain und garniert es mit Bildern, deren Copyright abgelaufen ist. Denn die Diskussion, wem denn nachher welcher Anteil am Copyright des generierten Bildes zusteht wird noch spannend.
Ich bin kein KI-Experte, aber nach meiner Einschätzung ist zur Zeit das Training der entscheidende Faktor. Natürlich braucht man auch Rechenleistung, aber die ist skalierbar, kein qualitativer Faktor.
Ich scheue den Vergleich mit Menschen, auch weil die KI nichts menschliches hat, aber dennoch denke ich oft, dass es was von Kindererziehung hat. Man erklärt dem Kind ja auch nicht welche Eigenschaften (vier Beine, zwei Ohren, zwei Augen…) eine Katze hat. Man zeigt auf die Katze und sagt „Katze“. Und irgendwann können wir verdammt gut Katzen und Hunde unterscheiden. Aber warum? Vier Beine, zwei Ohren, zwei Augen usw. haben beide.
Der Bildgenerator, von Adobe „Copilot“ genannt (kennen wir schon von github und anderen Systemen) soll zunächst über Photoshop, Express und Illustrator verfügbar gemacht werden.
Firefly markiert die Bilder automatisch als ki-generiert. Könnte auch noch wichtig werden – und natürlich umgangen werden. Aber wie wir als Gesellschaft mit diesen Werkzeugen und deren Ergebnissen umgehen wollen ist noch herauszufinden und sie dann überhaupt erkennen zu können kann nicht schaden.