Künstlich? Intelligent?
Zum Jahreswechsel haben wir uns einmal wieder umgesehen: Was passiert in der Bilderwelt? Dabei haben wir vorzugsweise auf die Techniken geschaut, die unsere Arbeit berühren. Wir denken da in erster Linie an die neuen Techniken in Kameras und Smartphones, in der Bildbearbeitung und in der künstlichen Produktion von Bildern. Deep Learning und Künstliche Intelligenz sind in aller Munde. Fest steht: Es ist derzeit viel Bewegung in der Branche. Wir versuchen, das einmal zu sortieren. Falls Ihnen beim Lesen noch eine Lücke auffällt, schreiben Sie uns gern!
Smartphones: Besser als normale Kameras?
An die schönen Filter im Telefon selbst, aber auch bei Instragram, SnapChat und Co. haben wir uns längst gewöhnt. Auch HDR ist ein alter Hut. Was aber Google mit der Nachtsicht-Technik entwickelt hat, ist beeindruckend. Und dieser Artikel aus der Welt gibt uns einen guten Überblick darüber, was Künstliche Intelligenz heute schon auf den Smartphones mit unseren Bildern macht. Je nach Bedarf lässt die Kamera mehrere Bilder schießen, um sie anschließend zu einem „perfekten" Bild zusammenzubauen. Auf diese Weise reicht ein kleiner Sensor vollkommen aus, den Rest übernimmt der Prozessor. Und mit dem Einsatz von zwei, drei oder sogar vier Linsen kann man nachträglich unter anderem die Schärfentiefe eines Bildes ändern. Wer eines der neuen iPhones mit zwei Kameras besitzt, kann schon jetzt 3D-Ansichten aus den Fotos generieren und bei Facebook posten.
Wo wir also noch vor fünf Jahren maulten, wenn uns ein Smartphone-Bild in die Quere kam, sollten wir spätestens jetzt mit dem Umdenken beginnen. Schauen wir auf das Smartphone-Verhalten der nächsten Generation, wird schnell klar: Die Zukunftsmusik ist längst angespielt. Wir können uns also darauf einstellen, dass Augmented Reality, 3D und Bewegtbild bald auch im Smartphone-Alltag unserer Kunden verankert sind – und damit zum festen Bestandteil der Kommunikationsleistung von Unternehmen werden.
Deep Learning im Kommunikations-Alltag
Ist das, was uns durch Smartphones und Co. als Werkzeuge mit in den Alltag gegeben wird, bereits als echte KI, also Künstliche Intelligenz, zu bezeichnen? Bleiben wir zunächst lieber beim Begriff „Deep Learning", denn die meisten Anwendungen lernen – anhand von vorliegenden Datenmengen – aus Erfahrung. So greifen sie beispielsweise auf einen großen Stapel Bilder zu, um Gemeinsamkeiten zu erkennen und Rückschlüsse auf Bildinhalte zu ziehen, oder sie beobachten menschliches Verhalten im Netz. Eine anschauliche Erklärung zum Thema Deep Learning im Bildbereich liefert das Interview, das wir im vergangenen Jahr mit Florian Meißner, dem Mitgründer des Berliner Start-Ups EyeEm, geführt haben. Beginnen wir also bei den greifbaren Projekten.
EyeEm arbeitet schon seit Jahren an unterschiedlichen Ansätzen, um die Technik für Bilder nutzbar zu machen: Die künstliche Verschlagwortung läuft so gut, dass auch Canto, einer der wichtigsten DAM-Anbieter, EyeEm in seine Software integriert hat, damit Unternehmen ihre Bilder in Canto mit EyeEm verschlagworten lassen können. Erfolgreich, wie auch Tests bei einer großen Bildagentur belegen. AdobeStock nutzt zur Verschlagwortung die Technologie Sensei, wobei Sensei ja auch in Lightroom verschlagwortet. Sensei hilft Photoshop-Usern aber auch bei vielen Aufgaben wie beim inhaltsbasierten Füllen, proportionalen Skalieren oder Freistellen, spart also schlicht Zeit.
Auch für das Vergrößern von Bildern – und sogar von Filmen – kommt mittlerweile Deep Learning zum Einsatz. Weil klassisches Interpolieren oder andere Techniken schlicht unsauber arbeiten, haben die texanischen Topaz Labs mit ihrer AI GIGAPIXEL Software eine Lösung erarbeitet, die durch „Mitdenken" selbst eine 600-prozentige Vergrößerung meistert, in der selbst feine Linien wie zum Beispiel Haare sauber nachgezeichnet werden. Einen eingehenden Review finden Sie hier.
Wann wird es gruselig?
So hilfreich die Deep-Learning-Techniken sein können, so unheimlich wirken sie oft. Plötzlich schlägt mir mein iPhone eine Bildergalerie zu meinem letzten Urlaub vor. Und iPhone-XS-Besitzer wunderten sich, warum die Kamera im Porträt-Modus plötzlich Pickel entfernte und glättete wie mit Botox – als „Beautygate" geisterte es Ende des Jahres durchs Netz, mittlerweile wurde es korrigiert.
Richtig spooky wird's allerdings, wenn Deep Learning dafür genutzt wird, Bilder zu produzieren, die wie Fotos aussehen, aber keine sind. Techniker des Grafikkarten-Herstellers NVIDIA haben einen „Hyperrealistic Face Generator" entwickelt, der nach Vorlage von ein paar hundert Porträts künstliche Menschen „fotografieren" kann – Sie müssen nur die Regler bedienen, um Alter, Hautfarbe, Haarfarbe etc. anzupassen und sich Ihr Traum-Model zu basteln. Vielleicht gar nicht so dumm, derartige Porträts beispielsweise in der Werbung zu nutzen. Denken wir nur an die vielen sensiblen Bildnutzungen im Pharma-Bereich: Nicht jedes Agentur-Model möchte gern auf einem Plakat einen Satz in den Mund gelegt bekommen wie: „Ich habe Prostata-Probleme". Und da sich die Bildagenturen mit derart sensiblen Nutzungen sehr schwer tun und sie in den Lizenzbedingungen oft verbieten, sind vielleicht künstlich generierte Gesichter die bessere Wahl?
Google-Techniker haben parallel zu dem „Hyperrealistic Face Generator" von NVIDIA im Rahmen des Projekts „DeepMind" einen Foto-Generator entwickelt, der auch Essen, Tiere oder Sehenswürdigkeiten anhand von einigen Beispiel-Bildern als Vorlage generieren kann. Das haben wir seit zwei Jahren schon beobachtet: Was damals allerdings noch nette, chaotische Pixelgebilde waren, hat sich heute zu mehr als 500 Pixel breiten Bildern entwickelt – noch nicht perfekt, aber kurz davor. Und da die Maschine der Urheber wäre, gelten keine Urheberrechte – denn nur eine reale Person kann ein Urheber sein.
Mit der Entwicklung von DeepFake – der Name ist Programm – können versierte Laien einfach Gesichter in Filmen mit anderen Personen austauschen. Die offene App können Sie bei Heise herunterladen: Schauen Sie mal, was damit schon möglich ist. Welche Gefahren da lauern, wird in dieser Kolumne der Süddeutschen Zeitung beschrieben und am Freitag ist dort auch dieses Interview mit einem Medien-Forensiker des US-Verteidigungsministeriums erschienen.
Nachtrag 18.01.2019: Die Universität Tel Aviv forscht daran, Bilder aus längeren Texten zu generieren - zum Beispiel Rezepte.
Fazit:
Es wird nicht einfacher, Fake und Wirklichkeit zu unterscheiden. Die ethische Diskussion ist in dieser Hinsicht erst am Anfang. Auf der anderen Seite gibt es viele neue Tools, die uns die Arbeit im Alltag erleichtern. Wir bleiben am Ball.
Wenn Sie möchten, einmal pro Monat als Magazin per Email.
Weitere News:
-
Simone Gutberlet im LinkedIn Audio Talk
Tuesday, 05.11.2024 |
In dieser Folge #11 begrüßen wir eine der bestvernetzten und erfahrenen Artbuyerinnen und Bildredakteurinnen Deutschlands: Simone Gutberlet. Hören Sie rein!
Weiterlesen... -
28. November: Webinar KI in der Bildwelt
Monday, 04.11.2024 |
Die dringlichsten Fragen beantworten wir jeden Monat im Webinar: Was geht? Was darf? Können wir Midjourney & Co. professionell einsetzen? Was spricht dagegen? Und: Welche Tools gibt es noch?
Weiterlesen...
Nächster Termin: 28. November. Jetzt buchen! -
Zukunft neu gestalten
Saturday, 02.11.2024 | Thema des Monats
Aufregende Zeiten, Marktschreier und die Rezession: Wie werden Sie im nächsten Jahr kommunizieren? Wo kann Ihnen die Erfahrung der Bildbeschaffer helfen?
Weiterlesen...
Eine Einladung zum Gespräch! -
Was steht an bei den Bildbeschaffern?
Tuesday, 08.10.2024 | Thema des Monats
Der September war ziemlich prall und richtig gut zu uns Bildbeschaffern. Lass uns einige der Insights teilen, die diesen Monat für uns besonders gemacht haben.
Weiterlesen...