đ€ŻâĄïžDitt egna personliga Hollywood
Nu kan text generera realistisk video. Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, avslöjar hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du nog ha en egen prenumeration.
Vad: ChatGPT som arbetsverktyg. Tomas Seo [det Àr ju jag] live-streamar.
NĂ€r: Tisdag den 20/6 kl 9:00-10:00
Jag kommer berÀtta hur jag tÀnker för att fÄ bÀttre resultat och ta emot frÄgor i chatten. (Gratis för dig som Àr prenumerant!).
đ AnmĂ€l dig hĂ€r, sĂ„ jag vet ungefĂ€r hur mĂ„nga vi blir! đ
Vad har hÀnt?
RunwayML gör Gen-2, deras text-till-video generativa AI, tillgÀnglig för alla och öppnar dÀrmed upp nya möjligheter för videoproduktion.
Text-till-video-teknologi lÄter anvÀndaren generera en rörlig bild genom att endast ange en beskrivning i textform. RunwayML har tagit en ledande position inom detta omrÄde genom sin Gen-1 modell, och nu i onsdags blev Gen-2 (som uppvisat vÀldigt realiskta resultat under beta-perioden) tillgÀnglig för alla.
Den globala marknaden för AI-videogenerering uppskattades till $473 miljoner Är 2022, med en berÀknad Ärlig tillvÀxttakt (CAGR) pÄ 19.7% frÄn 2023 till 2030.
Detta förÀndrar ju allt!
Jag har personligen vÀntat pÄ att se vad den hÀr modellen klarar av. Det kÀnns otroligt spÀnnande att kunna göra film bara genom att skriva. SÄ klart Àr det inte riktigt sÄ enkelt att fÄ till det resultat som jag ser i huvudet. SÄ har det varit med alla generativa AI-verktyg. Numera har jag rutin pÄ att testa nya generativa AI-verktyg. SÄ mitt testprotokoll för generativa AI-verktyg Àr ungefÀr sÄ hÀr:
Testa att försöka skapa det jag skulle ha nytta av.
FörbÀttra min förstÄelse av verktyget för att se om jag kan uppnÄ 1.
UtvÀrdera om det som verktyget enkelt klarar av Àr nÄgot jag har nytta av.
Steg 1.
Jag tÀnker att arbetsflödet borde vara: generera ett manus i ChatGPT, lÄt ChatGPT göra ut bildmanus för alla klipp som behövs och generera sedan ut dessa i Gen 2. Men Àven om den Àr hyperhajpad sÄ klarar Gen-2 inte att vara sÄ exakt som det krÀvs för att följa ett komplicerat bildmanus. SÄ fail pÄ 1.
Steg 2.
Gen-2 har funnits ute för ett fÄtal testare nÄgra veckor sÄ jag kollar runt lite pÄ Youtube för att se vilka prompter som funkar bra och dÄligt. TrÀningsdatan Àr stock footage video vilket betyder att den lÀttare kommer generera bra resultat för kvinna som gÄr pÄ en gata, medan Spider-Man som slÀnger sig ner frÄn en skyskrapa kommer vara svÄrare att fÄ till. Jag ser Àven att den klarar av filmgenrer till viss del. LjussÀttningar gÄr att prompta. Men Àven om mÄnga sÀger att det gÄr att fÄ till vilken typ av tagning (close-up, mid-shot, wide-shot osv.) du vill ha sÄ verkar det vara lite hit eller miss med det. Och sÄ var det ansikten, ja det blir ansikten, men det Àr horribla syner. SÄ halv-fail pÄ 2.
Steg 3.
SÄ Gen-2 Àr Ànnu inte för dig som vet exakt vad du vill ha. DÄ kommer du göra av med dina credits fortare Àn det skulle ta att fota sjÀlv. Men att utgÄ ifrÄn fÀrdiga manus Àr ju inte den enda processen som finns för att skapa film. IstÀllet gÄr det att tÀnka mer dokumentÀrt, det vill sÀga filma först, storytellingen hÀnder i klippningen. Check!
Jag hade ungefÀr 2 timmar pÄ mig innan jag mÄste börja jobba med annat, och manusskrivningen (som jag nu inte kommer anvÀnda) och utvÀrderingen tog en timme sÄ med bara en timme kvar sÄ bestÀmmer mig för att göra det som alla lÄgbudget-filmskapare alltid gör. Jag gör en skrÀckfilm (eller rÀttare sagt en trailer för en skrÀckfilm för det Àr vad mina gratis credits pÄ RunwayML kommer rÀcka till). SkrÀckfilm Àr alltid förlÄtande för det bygger pÄ mörka miljöer dÀr sÀmre kostymer eller scenografi inte syns. Det passar ocksÄ utmÀrkt för AI-genererat dÄ konstiga resultat bara kommer förstÀrka den suggestiva stÀmningen. Dessutom slipper jag byta ut ansiktena, en uppgift som jag skulle behöva ett annat AI-verktyg för. (Det har kommit en AI-modell som ska vara riktigt bra, men den krÀver installation av kod sÄ det fÄr bli en annan dag.)
HÀr Àr resultatet:
SÄ hÀr Àr vad jag lÀrt mig: Gen-2 Àr inte fÀrdigt nog för Hollywood Àn, det Àr inte heller fÀrdigt nog för krÀvande reklamfilmskunder som efterfrÄgar exakthet och detaljprecision. Men för skisserande Àr det definitivt ett nytt verktyg att ta in i produktionsprocessen.
Jag drömmer om nĂ€r juristerna har löst avtalsbiten för att kunna trĂ€na en sĂ„dan hĂ€r motor pĂ„ all spelfilm. Det kanske förblir en dröm â ïž. I vilket fall kommer den hĂ€r tekniken bli bra nog för att vi ska fĂ„ se etablerade manusförfattare ta fram sina omöjliga manus ur byrĂ„lĂ„dan. De kommer Ă€ntligen berĂ€tta de historierna de brinner för, manusen de inte fĂ„tt budget att göra för att de inte följer amerikanskt Hollywood narrativ. Wannabe-filmskaparna som inte redan Ă€r etablerade kommer inte vĂ€nta tills tekniken blir bra nog, de kommer börja nu. De kommer lĂ€ra kĂ€nna styrkorna med de hĂ€r nya verktygen för att veta hur de ska prompta fram nya indie-mĂ€sterverk.
Under tiden kommer HBO, Netflix men Àven andra företag fundera över hur den hÀr tekniken skulle kunna anvÀndas för personalisering av underhÄllning. Skulle det inte vara roligare att titta pÄ Succession om alla skÄdisarna var utbytta till kollegorna pÄ jobbet? Skulle det vara en skönare shoppingupplevelse om du fick se en fashion show med dig sjÀlv i den nya kollektionen frÄn HM pÄ deras sajt? Dynamiskt genererat videoinnehÄll för en personaliserad upplevelse kommer ju förÀndra allt.
Vad kan du göra idag?
FörstÄ
Den hÀr tekniken kommer pÄverka alla branscher. Priset för att skapa video gÄr ner, sÄ de som inte anvÀnder video idag för att det Àr för dyrt kommer börja anvÀnda video. Video gÄr frÄn att vara förinspelad till att vara dynamiskt generad sÄ de som redan anvÀnder video kommer hitta personliseringsscenarion (som nÀr webben gick frÄn statisk html till att sidor skapas utifrÄn anvÀndaren).
Planera
HĂ€r finns sĂ„ mĂ„nga nya anvĂ€ndarscenarion att det kan vara bra att bestĂ€mma sig för vad er organisation behöver göra först. Sök stöd i er bĂ€rande huvudstrategi. Den bör visa vĂ€gen för alla nya initiativ sĂ„ Ă€ven med AI-generering. Ăr ni produktionsfokuserade kolla av hur ni kan förbĂ€ttra produktionsprocesser, Ă€r er strategi att vinna genom kundupplevelse dĂ„ bör ni titta pĂ„ personalisering. Det kommer dröja nĂ„got Ă„r till innan du kan ersĂ€tta den exakta filmproduktionen med den hĂ€r mer generella. SĂ„ det kan vara intressant att istĂ€llet fundera över hur den hĂ€r tekniken kan skapa nya sĂ€tt att stödja din affĂ€r redan i nĂ€rtid.
Gör
Allt gÄr inte att göra, sÄ lÄt inga futurologer lura dig att tro att du kan ersÀtta allt du gör med det hÀr redan idag. Det Àr gratis att regga konto pÄ RunwayML sÄ testa sjÀlv. Du fÄr 90 gratis sekunder att testa Gen-2. (ett genererat klipp Àr 4 sÄ du fÄr ut 22 gratis försök). En formel för prompt som jag tyckte fungerade bra var:
Genre, Subject, Ljus, shot. Exempel prompt: Horror, woman in a red dress walking in creepy forest, night, wide-shot.
LĂ€nkar
Testa RunwayML Gen-2 sjÀlv.
https://research.runwayml.com/gen2
Bra genomgÄng av hur man anvÀnder Gen-2
https://www.youtube.com/watch?v=cqRTBynm2iM&t=19s&ab_channel=TheoreticallyMedia
KÀlla för vÀrdeutveckling pÄ generativ video marknaden. https://www.grandviewresearch.com/industry-analysis/ai-video-generator-market-report
Gillar du rapporter om vÀrdeutveckling? McKinsey förutspÄr att generativ AI kan addera 4,4 biljoner dollar Ärligen till den globala ekonomin.
https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#introduction
ROOP, kod för att byta ansikten pÄ rörligvideo som jag inte hann installera.
https://github.com/s0md3v/roop
ROOP, exempel pÄ ansiktsbyte i vinjetten till The Office (US)
https://drive.google.com/drive/folders/1KHv8n_rd3Lcr2v7jBq1yPSTWM554Gq8e
Sedan sist vi hördes
Förra veckan pratade vi om Neurlinks hjÀrnimplantat. Precision Àr en avhoppare frÄn Neurolink just genomfört mÀnniskotester pÄ sitt mindre invasiva hjÀrnimplantat.
https://www.freethink.com/health/precision-brain-implants
Och sedan vi pratade om SnapChats AI-bott som reklamkanal sÄ har de börjat testa banner ads i samband med My AI.
https://www.searchenginejournal.com/snapchat-my-ai-snaps/488355/
Ăr du en insiktsdelare?
KÀnner du nÄgon som behöver fÄ ett uppvaknande i hur lÄngt generativ video har kommit? Eller kanske nÄgon som behöver förstÄ de nya möjligheterna med personifierad video pÄ sikt? Vem var den första du tÀnkte pÄ? Dela gÀrna!
Hörde av en lÀsare i veckan att flera delat det jag skriver i deras Slack, superkul!! Detta förÀndrar ju allt!
Tomas Seo