Logindaten:

HAWKI – https://hawki.hawk.de/
User: KuBi
Passwort: HAWKI
Passkey: 123

RunwayML – https://runwayml.com/
User: post@bundesakademie.de 
PW: ba18032025#WF

Udio – https://www.udio.com/create
User: post@bundesakademie.de

Wie verfasse ich einen Prompt?

Ein „Prompt“ ist eine schriftliche Anweisung oder ein Szenario, das dazu dient,
den Schreibprozess oder die Generierung von Inhalten durch eine KI auszulösen. Um aussagekräftige und umfassende Antworten zu erhalten, ist es sinnvoll, die folgenden vier Parameter zu berücksichtigen. Nicht jede Anfrage erfordert jedoch die Einbeziehung aller 4 Parameter.

Eine bestimmte Aufgabe oder Anweisung, die das Modell
ausführen soll.

Externe Informationen oder zusätzlicher Kontext, der das
Modell zu besseren Antworten lenken kann.

Die Eingabe oder Frage, auf die wir eine Antwort suchen

Der Typ oder das Format der Ausgabe. Das können Stile (z.B
wie ein LinkedIn Post), Programmcode (z.B. Python; Html)
oder Tabellen oder Listen sein (z.B. CSV; Checkliste).

Bilder und Videos generieren

Legt eine neue Session an und gebt ihr einen eindeutigen Namen. Diese Session dient sozusagen als Ordner, in dem ihr später alle generierten Inhalte leicht wiederfindet.

Mit diesem Schalter oben links könnt ihr wählen, ob ihr Videos oder Bilder generieren wollt. Mit Bildern findet ihr zunächst schneller ein passendes Setting und die richtigen Begriffe für den Prompt, auch sind die Wartezeiten nicht so lang wie bei der Videogenerierung.

Hier könnt ihr euren Prompt eingeben. Über den Settings-Button unten rechts könnt ihr weitere Detaileinstellungen vornehmen. Das Drop-Down-Menü, in dem momentan „Gen-2“ angezeigt wird, lässt euch verschiedene Modelle auswählen, die unterschiedliche Qualitäten haben und unterschiedlich schnell generieren.

Auf der linken Seite befindet sich die Werkzeugpalette, die sich von Modell zu Modell unterscheidet.

Hier einige spezifische Workflows:

Video zu Video


Um wie in diesem Beispiel die Struktur des Ursprungsvideos zu übernehmen, müssen wir folgende Einstellungen vornehmen.

Je höher der Wert der Strukturtransformation ist, desto mehr Freiheiten nimmt sich das Modell bei der Neuinterpretation des Originalvideos. Wenn die Struktur klar erkennbar sein soll, ist der Wert „3“ eine gute Basis. Aber wie immer gilt: Herumspielen ist ausdrücklich erwünscht! 🙂 Die maximale Länge des Videos darf 20 Sekunden betragen.

Lip-Sync

Act-One nimmt den Ton und die Mimik des Eingangsvideos und überträgt beides auf eine andere Figur. Hier ist eine große Vorauswahl möglich, es können aber auch selbst Bilder z.B. aus dem Internet hochgeladen werden. Wichtig ist nur, dass das Inputvideo gut ausgeleuchtet ist und außer der Mimik wenig Bewegung im Bild ist. Die Kamera sollte also auch ruhig stehen.

Stimmen generieren

Um Stimmen zu generieren, müssen wir den Arbeitsbereich wechseln. Wir gehen zurück zum Dashboard und finden dort die Auswahl „Generate Audio“.

Hier wird eine große Auswahl an Stimmen angeboten. Wichtig zu wissen ist, dass das KI-Modell die Sprache im Eingabefeld erkennt und dann, obwohl die Beispiele in Englisch sind, auch deutsche Texte problemlos wiedergibt. Es ist auch möglich, die eigene Stimme aufzunehmen, um mehr Kontrolle über die Betonung des Textes zu haben.

Lieder generieren

Hier kann im Eingabefeld nicht nur die Musikrichtung beschrieben, sondern auch visuell kommuniziert werden. Wie sieht die Szene aus, die musikalisch untermalt werden soll? Hier kann auch ein Instrumentalstück ausgewählt werden, wenn bereits eine Sprecher*innenstimme im Video vorhanden ist. Wenn du links neben „Instrumental“ „Custom“ auswählst, hast du sogar die Möglichkeit, einen eigene Lyrics anzugeben, die z.B. wiederum mit Hilfe von HAWKI „komponiert“ werden können.

Liste an nützlichen Programmen

Stable Diffusion (Bildgenerierung, Open Source): Ein Open-Source-Bildmodell, das aus Textbeschreibungen erstaunlich realistische oder künstlerische Bilder erzeugt. Stable Diffusion kann lokal auf dem eigenen Rechner oder über Webschnittstellen (z.B. DreamStudio oder verschiedene Community Web Apps) genutzt werden. Es eignet sich, um z.B. im Kunstunterricht Illustrationen zu beliebigen Themen zu erstellen oder Variationen eines Motivs zu generieren. Um diese Bildmodell zu nutzen, kann z.B. die Schnittstelle Automatic1111 heruntergeladen werden. Dort können viele detaillierte Einstellungen vorgenommen, Modelle trainiert und weitere Plugins hinzugefügt werden. Eine weitere Oberfläche ist ComfyUI – diese Oberfläche ist Node-based, das ist eine visuelle Programmierung, bei der man statt Codezeilen zu schreiben, visuelle Knoten verbindet, um Prozesse zu definieren. Weitere Bildmodelle und LoRas findet man auf Civitai.

Midjourney (Bildgenerierung, kommerziell): Wahrscheinlich der beliebteste Bildgenerator, der allerdings auch Geld kostet. Midjourney ist bekannt für seine ästhetisch ansprechenden und qualitativ hochwertigen Fotos und Grafiken, selbst aus kurzen Beschreibungen. Kreative Projekte – vom Design fiktiver Bühnenbilder bis zum Erstellen von Konzeptkunst durch Schüler*innen – profitieren von der großen Stilbandbreite.

ModelScope Text2Video (Video, Open Source): Ein offenes Forschungsmodell, das auf HuggingFace verfügbar ist und aus Textbeschreibungen kurze Videos (wenige Sekunden) generiert. Die Qualität ist noch einfach und erfordert etwas technisches Verständnis, zeigt aber bereits, wohin die Reise geht. Für Fortgeschrittene kann ModelScope spannend sein, um experimentell mit KI-Video zu arbeiten und z.B. KI-generierte Animationen in eigene Projekte zu integrieren.

KlingAI (Videogenerierung, kommerziell): KlingAI ist ein einfach zu bedienendes KI-Tool zur automatischen Erstellung von Videos aus Texten, Bildern oder kurzen Clips. Es eignet sich besonders für Bildungskontexte, da Lehrkräfte und Schüler:innen schnell ansprechende Videoinhalte generieren können, etwa für digitale Storytelling-Projekte, Erklärvideos oder kurze Dokumentationen. Die intuitive Oberfläche ermöglicht es auch Einsteiger:innen, generative KI-Technologien praktisch zu nutzen und kreative Ideen visuell umzusetzen.

Hunyuan3D-2 (3D Modellerstellung, Open Source) Hunyuan ist das neueste 3D-Modellierungstool der asiatischen Firma Tencent (TikTok). 3D-Modelle können einfach durch Eingabe von Text erstellt werden, es ist aber auch möglich, ein Foto hochzuladen und aus dem 2D-Bild ein 3D-Modell zu erstellen.

LumaAI Genie (3D Modellerstellung, kommerziell) Genie macht die Erstellung von 3D-Modellen durch Texteingabe besonders einfach. In wenigen Sekunden erhält man 4 verschiedene 3D-Modelle, die in weiteren Schritten verfeinert werden können.

Weiterbildungsangebote

Download der Handreichung

Welcher KI-Typ bist du?

Lade diese Word-Datei herunter und füge den Inhalt als System-Prompt in HAWKI ein. Du kannst dann einfach mit dem System sprechen, es führt dich durch den Prozess.

Download der Päsentation