Wel eens een video voorbij zien komen waarin jouw fav celebrity opeens iets heel vreemds doet? Of verschillende fruitensoorten of katten die heel menselijke drama doormaken? De kans is best wel groot dat deze video's met Sora AI zijn gemaakt. Deze tool van OpenAI werd in korte tijd één van de bekendste apps achter dit soort bizarre, maar opvallend realistische AI-video’s. En eerlijk: ik voel me daar af en toe ook oprecht een oma bij, want sommige clips zijn inmiddels bijna niet meer van echt te onderscheiden. Daarom is het best opvallend dat OpenAI nu de stekker uit deze app trekt.

Wat kan je allemaal met Sora AI?

Misschien heb je video’s als hieronder weleens op je feed voorbij zien komen. Met Sora AI kun je via een prompt – zo simpel of uitgebreid als je wilt – complete video’s laten genereren. Hoe meer details je invoert, hoe gedetailleerder en overtuigender het eindresultaat wordt.

Zo ontstaan er online hele mini-verhaallijnen, zoals de viral fruitvideo’s, maar ook clips die zó echt lijken dat je soms serieus twee keer moet kijken. En alsof dat nog niet genoeg is, kun je er ook geluid en sound effects aan toevoegen, waardoor het allemaal nóg realistischer aanvoelt.

De tekst gaat verder onder de video.

Dus waarom trekt Open AI dan de stekker uit deze app?

Hier zijn een paar redenen voor. De belangrijkste reden: Sora is enorm duur om te draaien. Voor het maken van dit soort hyperrealistische AI-video’s is zware rekenkracht nodig, en dat kost veel geld én stroom. OpenAI zet die capaciteit liever in voor andere producten en toepassingen.

Daarnaast lijkt OpenAI ook strategisch een andere kant op te willen. Het bedrijf wilt zich meer richten op zakelijke en bredere AI-toepassingen, in plaats van op een losse consumentenapp voor video’s. OpenAI zegt dat het onderzoeksteam achter Sora zich nu gaat richten op simulatieonderzoek voor de ontwikkeling van robots om “mensen te helpen echte, fysieke taken op te lossen.”

Er is veel kritiek op Sora AI

Verder is er ook kritiek op hoe makkelijk dit soort video’s voor misleiding kunnen zorgen. Juist omdat de beelden er zó echt uitzien, wordt het steeds lastiger om in één oogopslag te zien wat waar is en wat compleet door AI in elkaar is gezet. De AI-video van Michael Jackson hieronder is daar eigenlijk het perfecte voorbeeld van: als je niet beter zou weten, zou je bijna denken dat hij echt door een KFC loopt. En precies daarin zit het risico. Zulke video’s kunnen ervoor zorgen dat mensen nepbeelden gaan geloven, zeker als het gaat om bekende personen die dingen lijken te doen of zeggen die nooit echt zijn gebeurd.

OpenAI zegt zelf dat seksuele deepfakes en ander schadelijk misbruik niet zijn toegestaan, maar tegelijk laat dit soort content wel zien hoe dun de grens inmiddels is tussen grappige internetchaos en beelden die ook echt misleidend kunnen zijn.

De tekst gaat verder onder de video.

Impact op het klimaat van AI-video's

Verder hebben deze video's ook veel impact op het klimaat. Zo’n AI-video lijkt misschien gewoon een paar seconden random entertainment, maar achter zo’n clip zit behoorlijk veel rekenkracht. Dat betekent meer werk voor datacenters, meer stroomverbruik en dus ook meer uitstoot.

Eén losse video van bijvoorbeeld Michael Jackson in een fastfoodrestaurant klinkt misschien niet meteen dramatisch, maar als miljoenen mensen dit soort clips massaal maken, opnieuw genereren en delen, loopt die impact snel op. Het gevolg daarvan is simpel: meer energieverbruik en dus extra druk op het klimaat.

Is er nog een alternatief om AI-video's te genereren?

Ja, zodra Sora verdwijnt zijn er nog genoeg andere tools waarmee je AI-video’s kunt genereren – en een aantal daarvan is gewoon in Nederland beschikbaar. Zo heeft Runway een free plan en kun je daar video’s maken op basis van tekst of beeld. Luma Dream Machine biedt ook gratis proefcredits aan, terwijl Pika nog steeds actief is als idee-naar-video-platform met verschillende abonnementsopties.

Dus, je kan nog steeds genoeg bizarre video's voorbij zien komen, maar denk een beetje aan het klimaat en blijf niet eindeloos genereren.