Kreative Künstliche Intelligenz in der Architektur
- verfasst von
- Mirco Becker
- Abstract
Überall Hundeaugen! Augen unterschiedlicher Größe, die einen anblicken und schein bar hundertfach in die Muster eines jeden Bildes eingeschrie ben sind. Seit das Computer programm Deep Dream 2015 erschien, ahnten Gestalter,
die mit visuellen Medien ar beiten, dass ein technologi scher Sprung bevorstünde. Ein Sprung, durch den Bilder grundlegend anderes erzeugt und unser Verständnis von Kreativität herausgefordert würde. Deep Dream nutzt Mustererkennung in Bildda ten eines so genannten Con volutional Neural Networks, bei welchem besonders Nach barschaften von Bildpixeln auf Ähnlichkeiten verstärket wer den. Die visuellen Ergebnisse wirken eindrücklich bis ver störend. Deep Dream, dass auf einem Datensatz von Hunde bildern trainiert wurde, hallu ziniert eben diese Hundege
sichter in ein jedes Bild, dass es verarbeitet.
Diese Ahnung des bevorste henden technologischen Sprungs löste sich in den fol genden Jahren in zwei Schrit ten ein. Mit den Methoden
des Neural Style Transfer konnte man 2017 ein gegebe nes Bild in nahezu jeden be liebigen künstlerischen Stil darstellen lassen. 2018 stand schließlich mit Runway ML ein nocode Baukasten für Generative KI zur Verfügung. Ab jetzt konnten Bild und Videodaten mit einer ganzen Palette von KI Algorithmen analysiert und bearbeitet wer den, ohne dass dazu einge hende Kenntnisse der Daten modellierung notwendig waren. Außerdem konnten unterschiedlichste vortrainier te Modelle eingebunden und eigene Modelle trainiert werden.
Heute sind Handhabung und Zugänglichkeit Generativer KI mittels PromptSteuerung wie in Midjourney oder durch die Integration in marktdominie render Software wie Adobe Photoshop Teil unseres All tags. Die Unterscheidung von Kreativen und Konsumenten verschwimmt vor diesem Hin tergrund zusehends.- Organisationseinheit(en)
-
Abteilung Digitale Methoden in der Architektur
- Typ
- Beitrag in Buch/Sammelwerk
- Seiten
- 6-9
- Publikationsdatum
- 2024
- Publikationsstatus
- Veröffentlicht
- Elektronische Version(en)
-
https://doi.org/10.15488/17788 (Zugang:
Offen)