Es werden Unmengen von Daten, Texte, Bilder und Videos für das Training einer künstlichen Intelligenz (KI) benötigt. Dabei springen Urheberrechte immer wieder über die Klinge. Nun sollen Programme das rücksichtslose Abgrasen durch KI verhindern.
Für das Training einer KI (Künstlichen Intelligenz) werden Unmengen an Daten benötigt. Diese werden aus dem Internet gesammelt. Die Programme suchen nach Texten, Bildern und Videos. Dabei werden oft die Urheberrechte missachtet, was zu verschiedenen Rechtsverfahren geführt hat, die von den betroffenen Urhebern nur schwer gewonnen werden können. Damit es nicht so bleibt, werden Programme entwickelt, die zum Beispiel Kunstwerke vor den KIs schützen.
Eins dieser Programme ist das von der Universität Chicago entwickelte «Nightshade».
Prompt für Dall-E 3: Ich brauche eine Illustration im Stil der frühen Marvel Superhelden Comics, in der bunte Helden einen grossen, übermächtigen, düsteren Roboter bekämpfen und ihn mit Katzen und Hunden bewerfen.
Um den Inhalt eines Bildes zu erkennen, identifiziert eine künstliche Intelligenz während des Lernens Wörter, die in den Metadaten zur Beschreibung des Bildes verwendet werden: Ein Bild eines Autos ist beispielsweise mit dem Wort «Auto» verbunden. Um diese Verbindungen zu stören und durcheinander zu bringen, erzeugt die Software «Nightshade» auf Wunsch der Urheber eine Nichtübereinstimmung zwischen Text und Bild. Ein Bild eines Hundes sieht in der Folge für die KI dann zum Beispiel aus wie eine Katze, während die Betrachter immer noch das eigentliche Bild sehen. Dabei ist es egal, ob es sich um realistische oder abstrakte Kunst handelt, die Bilddaten werden gleichermassen verändert. Wird eine künstliche Intelligenz mit solchen Bildern trainiert, wird sie unbrauchbar, da sie nicht mehr den richtigen Suchbegriff wiedergibt.
Gemäss der Website NPR.org ist «Nightshade» nicht das einzige Tool, um Kunstwerke zu schützen. Ein anderes Programm vom selben Entwicklungsteam ist «Glaze». Während «Nightshade» ein offensives Programm ist und der KI Schaden zufügt, übernimmt das Programm «Glaze» lediglich eine schützende Funktion für den Stil der Künstler, in dem es die Pixel des Bildes subtil verändert. Um neue Kunst und ihr kreatives Eigentum zu schützen, ist es für Künstlerinnen und Künstler sinnvoll, beide Programme zu verwenden.
Bestehende KI-Modelle, die schon vorher mit Kunstwerken «gefüttert» wurden, kann man mit diesen Programmen zwar nicht bekämpfen, aber die Anbieter werden dazu gezwungen, nur Werke zu nehmen, zu denen sie die Rechte haben. Wie effektiv diese Waffe über Zeit sein wird, wird sich weisen, denn Programmierer lieben es, Schutzsysteme zu knacken.
Quellen:
https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/