OpenAI veröffentlicht Video-Generator Sora für alle Kunden

by Silke Mayr
0 comments

Das KI-Unternehmen OpenAI hat am Montag sein Video-Generierungsprogramm Sora für Kunden zugänglich gemacht. Damit möchte OpenAI eine Vorreiterrolle bei den Regeln für KI-generierte Videos einnehmen.

Das Programm erstellt digitale Videos von bis zu 20 Sekunden, basierend auf schriftlichen Eingaben. Die Beta-Version wurde bereits im Februar vorgestellt, und die Vollversion ist nun als eigenständiges Produkt verfügbar.

“Wir wollen, dass die Welt nicht nur aus Text besteht. Wenn KI-Systeme sich nur auf Text konzentrieren, verpassen wir etwas Wesentliches”, sagte OpenAI-CEO Sam Altman während einer Live-Ankündigung.

In einem Blogpost erklärte das Unternehmen, es wolle die Entwicklung von Normen und Regeln für KI-generierte Videos aktiv mitgestalten. “Wir stellen unsere Video-Generierungstechnologie jetzt vor, um der Gesellschaft Zeit zu geben, ihre Möglichkeiten zu erkunden und gemeinsam Standards und Schutzmaßnahmen zu entwickeln”, so OpenAI.

Was kann Sora?

Sora nutzt sein tiefes Sprachverständnis, um Eingaben zu interpretieren und Videos mit komplexen Szenen zu erstellen. Diese können bis zu einer Minute lang sein und enthalten mehrere Charaktere, Kameraperspektiven, Bewegungen und präzise Details.

Beispiele aus der Beta-Phase zeigten Videos wie animierte Monster und Kängurus oder realistische Szenen von Menschen. Dazu gehörten eine Frau, die durch Tokio läuft, oder ein filmischer Trailer eines Astronauten in einer Salzwüste.

Das Unternehmen räumte ein, dass Sora noch Einschränkungen hat. “Es erzeugt oft unrealistische Physik und hat Schwierigkeiten mit komplexen Handlungen über längere Zeiträume”, hieß es im Blogpost.

Schutz vor Missbrauch

Kritiker von KI-Technologie haben auf Missbrauchspotenziale hingewiesen, wie etwa Deepfakes von Präsident Joe Biden oder täuschend echte, explizite Bilder von Prominenten.

OpenAI erklärte, dass es das Hochladen von Personenbildern zunächst einschränken werde. Diese Limits sollen gelockert werden, sobald die Schutzmaßnahmen gegen Deepfakes verbessert sind.

“Unsere oberste Priorität ist die Verhinderung besonders schädlicher Missbrauchsformen, wie Material zu sexuellem Kindesmissbrauch (CSAM) und sexuellen Deepfakes”, erklärte das Unternehmen. Dafür setzt OpenAI auf Blockierungen, Filter, Überwachung und fortschrittliche Erkennungstools. Verdächtige Inhalte werden an das National Center for Missing & Exploited Children (NCMEC) gemeldet.

Alle mit Sora erstellten Videos enthalten standardmäßig C2PA-Metadaten und Wasserzeichen. Diese ermöglichen es Nutzern, KI-generierte Inhalte eindeutig zu identifizieren.

You may also like