Das Kolorieren alter Schwarz-Weiß-Fotos ist ein beliebtes Phänomen im Netz. Was sonst mühsame Handarbeit erfordert, automatisieren Forscher nun mit künstlicher Intelligenz.
Früher hatten Telefone noch Kabel, Bildschirme waren nicht zum Anfassen da und Fotos waren auch ohne den Instagram-Filter Willow schwarz-weiß. Mit ebendiesen Fotos arbeiten heute die Mitglieder des Reddit-Forums Colorized History. Hier kommen Photoshop-Künstler, Fotografen und Hobbyhistoriker zusammen, um monochrome Fotos mit Farbe zu versehen, sie zu kolorieren, wie die jahrhundertealte Technik heißt. Der Unterschied zu früher: Was einst mit Stift und Pinsel gemacht wurde, funktioniert heute in der Regel über Bildbearbeitungsprogramme wie Photoshop. Eine gut gemachte Kolorierung kann das schwarz-weiße Original vergessen lassen, wie es der Fall von V-J Day in Times Square ansatzweise zeigt. Das Bild aus dem Jahr 1945, auf dem nach der Kapitulation Japans ein Matrose eine Krankenschwester in New York küsst, wurde zu einer Ikone des vergangenen Jahrhunderts. Vor einigen Jahren nahm es sich die Künstlerin Sanna Dullaway vor und kolorierte es. Inzwischen wird die farbige Version ähnlich oft in sozialen Netzwerken geteilt wie das Original - und häufig fällt Unwissenden gar nicht auf, dass die Farben gar nicht "echt" sind. Eine gute Kolorierung braucht Zeit
In Colorized History finden sich weitere beeindruckende Arbeiten. Ein Polizeifoto von Jack Kerouac etwa, das Bild von einer Antarktis-Expedition aus dem Jahr 1911, ein Foto, das deportierte Juden bei der Ankunft in Auschwitz zeigt, und eines, auf dem ein kleiner Junge eine retrofuturistische Ray Gun in der Hand hält, sind nur einige Beispiele dafür, wie eine gute und vor allem realistische Kolorierung aussehen kann. Mehr als 100.000 Abonnenten hat Colorized History inzwischen, und auch in anderen Subreddits wie in Colorized oder auf Plattformen wie Deviantart hat sich die Kolorierung zu einem beliebten Phänomen entwickelt. Auf Youtube erklären Tutorials, wie die Profis alten Fotos neues Leben einhauchen.
Fotografiepuristen warnen davor, Motive zu verfälschen, denn natürlich liegt die Bearbeitung immer im Auge des Künstlers - wer kann schon sagen, welche Farbe ein Hemd oder eine Hose tatsächlich hatten. Viele versuchen aber zumindest, die mutmaßlichen Farbtöne des Originals zu treffen. Dullaway etwa sagt, dass sie für V-J Day in Times Square vor der Bearbeitung echte Farbfotos aus der Zeit recherchiert hat, um die Farben von Werbeplakaten, Uniformen und Straßenschildern im Jahr 1945 möglichst genau wiedergeben zu können. Der Rest sei tatsächlich "mit gesundem Menschenverstand entstanden". Auf ihrer Website schreibt sie, dass kolorierte Bilder niemals an das Original heranreichten, aber sie könnten Menschen eine neue Perspektive geben. Mit neuronalen Netzwerken zu neuen Farbbildern
In jedem Fall bedeutet eine gute Kolorierung, ob mit Pinsel oder Grafiktablett, eine Menge Arbeit; je detaillierter und pixelgenauer gearbeitet wird, desto besser das Ergebnis. Umso absurder scheint die Idee, Schwarz-Weiß-Fotos automatisch kolorieren zu lassen. Doch genau das ist das Ziel einiger Forschungsprojekte aus den vergangenen Monaten. Sie vertrauen dabei auf sogenannte neuronale Netzwerke.
Spätestens seit Google vergangenes Jahr mit Deepdream für absurd-schöne Bilder sorgte, ist ein echter Hype um neuronale Netzwerke und maschinelles Lernen entstanden. Das Prinzip, sehr vereinfacht zusammengefasst (hier steht es genauer), funktioniert folgendermaßen: Ein Algorithmus wird mit sehr vielen Daten darauf trainiert, bestimmte Dinge zu erkennen. Je mehr Bilder von Hunden ein solches Netzwerk analysiert, desto besser kann es später auf Bildern einzelne Hunderassen erkennen. Das System erstellt dabei selbstständig neue Verknüpfungen und lernt gleichzeitig aus Fehlern.
Forschungen von Ryan Dahl (2016), Deshpande et al. (2015) und Cheng et al. (2015) wollen diese Technik auf die automatische Kolorierung von Bildern anwenden. Das bislang vielversprechendste Projekt auf diesem Gebiet aber wurde in dieser Woche von Richard Zhang und Kollegen an der University of California, Berkeley, vorgestellt.
Ein Netzwerk, das Farben halluziniert
Zunächst fütterten die Forscher ihr Netzwerk mit 1,3 Millionen Farbbildern der Datenbank Imagenet. Die Idee war, dem System beizubringen, welche Farbe bestimmte Objekte haben. Wenn es auf einem Foto etwa Gras erkennt, dann weiß es, dass dies in der Regel grün ist. Ein Schimpanse hat schwarzes Fell und eine Apfelsine hat einen ganz bestimmten Ton von Orange. Anschließend wurde das Netzwerk mit Schwarz-Weiß-Bildern (natürlich andere als im Training) konfrontiert und sollte diese selbstständig kolorieren. Oder, wie es Zhang und seine Kollegen beschreiben, es sollte Farben "halluzinieren". Die Ergebnisse sind alles andere als perfekt und trotzdem bemerkenswert. Auf der Website des Projekts zeigen die Forscher Hunderte Vergleichsfotos mit unterschiedlichsten Motiven, darunter auch Schwarz-Weiß-Fotografien der Fotografen Ansel Adams und Henri Cartier-Bresson. Die Ergebnisse schwanken zwischen ziemlich gut und ziemlich mies. Einige Motive wie etwa Rapsfelder vor blauem Himmel konnte das Netzwerk realistisch kolorieren. Auch bei Loris-Papageien sind die Ergebnisse gut. Ganz schlecht sieht es dagegen bei Militäruniformen und Wasserflaschen aus. Die Erklärung ist simpel: Bei abstrakteren Objekten, die es in einer Vielzahl von Farben und Formen gibt, musste das Netzwerk Farben praktisch raten.
Wohlgemerkt ging es in dem Projekt nicht darum, die tatsächlichen Originalfarben zu finden, sondern ein plausibles Farbbild zu erstellen. Die Besonderheit des Netzwerks liegt darin, dass es im Vergleich zu den erwähnten früheren Forschungen darauf konzipiert ist, sowohl sattere Farben zu erstellen als auch mehr Abstufungen zu finden; eine Wiese ist schließlich selten an allen Stellen gleich grün. Wie das Netzwerk abstrakte Landschaftsbilder interpretiert, von denen es kein farbiges Original gibt, zeigt sich in den Bildern von Ansel Adams, die einer realistischen Kolorierung schon sehr nahekommen. 20 Prozent fielen auf die Bilder herein
Mit der Handarbeit der Photoshop-Künstler kann das neuronale Netzwerk von Richard Zhang zwar noch lange nicht mithalten. Aber wie die Forscher in einem abschließenden Test herausfanden, können die besten Ergebnisse so manche Menschen täuschen. Bei der Wahl zwischen Original und dem über ein Schwarz-Weiß-Foto generierten Farbbild glaubten rund 20 Prozent der Versuchspersonen, das Letztere sei das Original. Das klingt nicht besonders beeindruckend, ist aber nach Angaben der Forscher ein großer Erfolg im Vergleich zu vorherigen Experimenten.
Das Fotografie-Blog Petapixel fragt bereits, ob das Photoshop der Zukunft eine automatische Kolorierungsfunktion enthalten könnte. Das dürfte zwar noch etwas dauern, gänzlich ausgeschlossen ist es jedoch nicht. Schließlich galt einst auch die vor einigen Jahren vorgestellte Content-Aware-Funktion von Photoshop noch als undenkbar, die automatisch ungewünschte Elemente entfernt.