đ€ŻâĄïžSprĂ„ket försvinner â men vi förstĂ„r varandra bĂ€ttre
Snart finns Babelfish. Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, berÀttar om hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?
Vad har hÀnt?
- AI som tolkar i realtid pÄ över 100 sprÄk
Meta har lanserat en ny version av sin AI-baserade översÀttare som de kallar SEAMLESSM4T. Den kan översÀtta över 100 sprÄk och till skillnad frÄn tidigare AI-tolkar, som först omvandlar tal till text innan översÀttning, hoppar SEAMLESSM4T över det steget och levererar översÀttningar direkt frÄn ljud till ljud. Tekniken Àr nÀstan lika snabb som en professionell mÀnsklig tolk och uppges vara 23 % mer exakt Àn dagens ledande AI-modeller.
AI-baserad översÀttning har lÀnge varit beroende av stora textbaserade dataset, vilket har gjort det svÄrt att trÀna modeller för sprÄk med begrÀnsade resurser. För att lösa detta har Meta anvÀnt en metod kallad parallel data mining, dÀr de har samlat in 443 000 timmar av tal med motsvarande undertexter för att bygga ett mer omfattande och representativt dataset.
Meta tillgÀngliggör nu bÄde modellen och trÀningsdatan öppet för forskning och icke-kommersiell utveckling.
Detta förÀndrar ju allt
Google Translate var ju början till dagens AI-boom. Det var AI-forskare som försökte göra Google Translate bĂ€ttre som uppfann transformers (T:et i GPT) för att göra maskinöversĂ€ttning mycket bĂ€ttre. ĂversĂ€ttning Ă€r dĂ€rmed det Ă€ldsta anvĂ€ndningsomrĂ„det för den moderna AI:n och vi kanske inte tĂ€nker pĂ„ det som sĂ„ revolutionerande lĂ€ngre. Men det Ă€r det.
VÄrt förhÄllande till frÀmmande sprÄk kommer aldrig mer vara sig likt. Jag lÀrde mig mer engelska genom att titta pÄ textad film Àn jag gjorde i skolan. Vi i Sverige brukar ofta nÀmna att det Àr en anledning till att vi Àr bÀttre pÄ engelska Àn mÀnniskor frÄn lÀnder dÀr film dubbas. Mina barn lÀrde sig engelska genom att kolla pÄ Youtube. Men denna vecka funderar jag pÄ vilken roll sprÄk kommer att spela i framtiden?
PÄ teknikmÀssan CES förra mÄnaden berÀttade VLC om att deras nÀsta videospelare kommer ha inbyggd automatisk översÀttare. Den AI-genererar textning i realtid, och utan internetuppkoppling. Youtube har gÄtt ett steg lÀngre, de introducerade automatisk visuell dubbning för nÄgra fÄ utvalda content creators som ville testa förra Äret. Det vill sÀga, det Àr inte bara rösten som översÀtts, Àven lÀpprörelserna i videon Àr AI-genererade för att matcha ljudet.
I Är ska Youtube rulla ut automatisk visuell dubbning till alla content creators som Àr stora nog för att tjÀna pengar pÄ sin kanal. SÄ nÀsta generations förÀldrar kommer att stÀlla in sÄ att barnen ser sina favorit-content creators pÄ svenska eller valfritt annat modersmÄl. SprÄket spelar ingen roll, content is king.
Det kommer inte dröja lÀnge innan Hollywoodfilmer erbjuder en lÀppsynkad version för varje sprÄk istÀllet för endast en dubbad version. Eller sÄ gör en framtida version av VLC det automatiskt om du slÄr pÄ det. Behovet hÀr i Sverige kommer inte vara sÄ stort att vi bryr oss nÀr det kommer, men kommande generationer kommer inte att bry sig lika mycket om att lÀra sig nya sprÄk. Den mÄlgrupp som idag lÀr sig japanska för att kolla pÄ anime pÄ originalsprÄk kommer fortsÀtta existera. Men de flesta kommer nöja sig med att fÄ det fÀrdigöversatt.
NÀr vi har videomöten kan alla tala sitt modersmÄl och sÄ översÀtts bÄde vad jag sÀger och hur mina lÀppar rör sig. IstÀllet för att möten sker pÄ den gemensamma lÀgre nivÄn kan alla vara sina rÀtta jag och anvÀnda sÄ komplexa ordkonstruktioner de vill utan att nÄgon blir lost in translation. Det betyder till och med att vi kan bli slarvigare med grammatik pÄ vÄrt eget sprÄk ocksÄ, för autocorrect kommer kunna översÀtta Àven dÄlig svenska till bÀttre svenska. För hollywoodskÄdisar kommer det vara Ànnu bÀttre. De kan vara riktigt slarviga nÀr de spelar in. Om det behöver rÀttas till i nÄgon replik i en annars bra tagning sÄ Àr det lÀtt fixat efterÄt.
Det Ă€r inte bara slarviga skĂ„disar som kommer kunna autocorrectas, förĂ€ldrar kommer koppla pĂ„ översĂ€ttning för att förstĂ„ sina barn. Slarvigt tal frĂ„n tonĂ„ringarnas slang kan översĂ€ttas till boomer-sprĂ„k, toddlers âmea godisâ kan fyllas ut till âursĂ€kta mor jag skulle gĂ€rna vilja ha utökad ranson av min dedikerade lördagsmatâ, och du kan Ă€ntligen förstĂ„ vad din hund sĂ€ger sĂ„ ni kan ta walk and talks tillsammans vĂ€rda namnet.
(Vi har hittills inte tillrÀckligt mycket inspelat djursprÄk för att trÀna en universell Google Animal Translate, istÀllet blir det djurart för djurart som det samlas data till. Projektet som ligger lÀngst fram verkar vara att översÀtta kaskelottvalars sprÄk)
Vilket sprÄk spelar ingen roll. SÄ lÀnge vi förstÄr vad den kommunicerande parten vill ha sagt sÄ rÀcker det att vi kan uttrycka oss pÄ vÄrt eget sprÄk. Inom science fiction har idén om en universell översÀttare funnits lÀnge. Babelfish frÄn Liftarens guide till galaxen var en liten fisk som man ploppade in i sitt öra som sedan översatte allt den hörde till ens eget sprÄk. Med AI-modeller som Metas SEAMLESSM4T sÄ Àr steget till det genast mycket kortare.
Det ryktas om att Apples nÀsta generations AirPods kommer ha bÄde AI och kameror inbyggda. De kommer dock inte förrÀn 2027, men ryktet rÀckte för att mÄnga hörlursföretag ska börja bygga in kameror redan nu. SÄ inom en snar framtid kan din Babelfish simultantolka bÄde tal, skyltar och dövas teckensprÄk. Att köpa hörlurar utan inbyggd AI kommer snart vara lika passé som att köpa en mobil som inte Àr en smartphone.
MinirÀknarna dödade inte matte men dÀremot gjorde de att vi ganska snabbt vÀljer verktyg framför att kognitivt belasta vÄr hjÀrna. PÄ samma sÀtt kommer stÀndigt nÀrvarande enkel översÀttning minska antalet tillfÀllen dÀr vi vÀljer att formulera oss pÄ andra sprÄk Àven om vi fortfarande kan.
För nĂ„gra veckor sedan började jag lĂ€sa om olika rapporter dĂ€r forskare bekrĂ€ftade att vi mĂ€nniskor Ă€r lata och dĂ€rför kommer att vĂ€lja AI-verktyg framför att anstrĂ€nga hjĂ€rnan. Den som har fĂ„tt störst genomslag Ă€r Microsofts rapport som varnar för att frekvent AI-anvĂ€ndning kan leda till att vi förlorar vĂ„r förmĂ„ga att tĂ€nka kritiskt â sĂ€rskilt om vi slutar att ifrĂ„gasĂ€tta och förbĂ€ttra AI:s output.
Forskarna beskriver det som en förlust av kognitivt omdöme och förmĂ„ga â ett slags mental atrofi (muskelförtvining) dĂ€r vĂ„ra intellektuella fĂ€rdigheter försvagas nĂ€r vi outsourcar dem till AI. Ju mer vi litar pĂ„ AI, desto mindre anstrĂ€nger vi oss, och över tid kan vi tappa bĂ„de förmĂ„gan att granska information och att lösa problem pĂ„ egen hand. Studien visar att de som ofta anvĂ€nder AI ocksĂ„ producerar mer homogena resultat, vilket tyder pĂ„ att vi börjar tĂ€nka mer som vĂ„ra verktyg.
Det vÀcker ytterligare en fundering kring sprÄkets roll i framtiden. För om Babelfish i örat alltid kan korrigera och översÀtta det vi sÀger, vad hÀnder dÄ med vÄrt sÀtt att uttrycka oss? NÀr vi vet att mottagaren ÀndÄ kommer fÄ höra en polerad version av vÄrt tal, kanske vi börjar prata mer kortfattat och lÄta AI-tolken fylla i luckorna. Det Àr faktiskt nÄgot som redan har hÀnt i vÄrt skriftsprÄk. Meddelanden blir kortare, stavning och grammatik blir mindre viktigt, och vi litar pÄ att verktyg rÀttar till felen och att emojis ersÀtter lÀngre beskrivningar av koncept och kÀnslor.
Det vore inte helt otÀnkbart att vi pÄ samma sÀtt som vi snabbt vande oss vid att slippa huvudrÀkning tack vare minirÀknare, vÀnjer oss vid att sprÄkkorrigering sker i realtid. Vilket i grunden förÀndrar hur vi anvÀnder sprÄk.
Det innebĂ€r inte nödvĂ€ndigtvis att vi tappar sprĂ„kförmĂ„ga â men den kommer kanske se annorlunda ut. Mindre fokus pĂ„ formell korrekthet, mer pĂ„ effektiv kommunikation. Kanske blir vi bĂ€ttre pĂ„ att förmedla vad vi menar, men mindre vana vid att sjĂ€lva formulera hur vi menar det.
Det behöver inte vara dramatiskt utan kan ses som en naturlig utveckling, precis som att vi idag skriver annorlunda Ă€n för hundra Ă„r sedan. Till exempel ville autocorrect stava âhollywoodskĂ„disarâ med versalt H hĂ€r ovan, sĂ„ jag blev sĂ„ osĂ€ker pĂ„ vad stavningsregeln var att jag började googla hur andra stavar det. Flera stora nyhetsmedier stavar det med versalt H trots att det sammansatta ordet inte lĂ€ngre Ă€r ett ortsnamn. Gissningsvis för att deras autocorrect ocksĂ„ flaggat ordet och de inte brytt sig om att brĂ„ka med rĂ€ttstavningskontrollen utan istĂ€llet gĂ„tt med pĂ„ att successivt förĂ€ndra hur vi alla kommer stava det ordet.
Den naturliga utvecklingen Àr att översÀttare av ord blir översÀttare av intention. PÄ sÄ sÀtt kommer alla varelser att förstÄ varandra bÀttre. Men om vi alltid kan förstÄ varandra, oavsett sprÄk, betyder det att sprÄket roll blir noll? AI översÀtter till den optimala meningen för mottagaren, antalet ord minskar men förstÄelsen ökar. Vi pratar mindre, men förstÄr mer och detta förÀndrar ju allt!
Vad kan du göra idag?
FörstÄ
SprÄket behöver pÄ sikt inte lÀngre vara bÀraren av budskapet. Det Àr mer som ett osynligt mellanlager. NÀr vi pratar i telefon (om vi nu fortfarande gör det), sÄ transformeras mitt tal till ettor och nollor som sedan decodas till ljud igen nÀr det kommer i mottagarens telefon. Att mitt ursprungliga ljud inte kom fram Àr ju inget vi tÀnker pÄ. Numera filtreras dessutom massa bakgrundsljud bort sÄ att talet som transformeras till ettor och nollor ska vara tydligare nÀr det kommer fram. Ettorna och nollorna som bÀr information Àr ett osynligt mellanlager som vi inte tÀnker pÄ. Talet vi hör genom telefonen Àr Äterskapat (genererat), inte sÀnt. NÀsta steg blir att budskapet vi vill skicka inte behöver behöver vara buren av sprÄket. Vi fortsÀtter prata som vanligt pÄ det sprÄk som vi uttrycker oss bÀst pÄ, svenska, engelska, skÄnska, norrlÀndska, gen z-slang, boomer-wannabe-gen-z-slang, det spelar ingen roll. Innan budskapet kommer fram dekodas det till det sprÄk som mottagaren Àr mest bekvÀm med (om mottagaren vill sÄ klart).
Planera
PÄ kort sikt minskar behovet av att förstÄ andra sprÄk, men behovet av att förstÄ andra kulturella skillnader ökar. För Àven om orden kan översÀttas Àr kontexten alltid lite knepigare för maskinöversÀttnings-AI att göra avvÀgningar kring. Ska varumÀrket Coca-Cola översÀttas till Julmust nÀr en person pratar om det typiska julfirandet? Behöver uttrycket att nÄgot trendigt Àr fett översÀttas kulturellt för att inte missförstÄs? IstÀllet för sprÄkkurser ökar istÀllet behovet av kurser i kommunikationsstil och förstÄelse av subkulturer.
Det blir extra viktigt, för i och med att sprĂ„kbarriĂ€rerna minimeras sĂ„ kommer det vara Ă€nnu vanligare att vĂ„ra organisationer har medarbetare som inte bor i samma land. Organisationer som vill ha topptalang kommer behöva övervĂ€ga att rekrytera globalt. Ăven kostnadsbesparing som grund kommer öka andelen anstĂ€llda som inte bor i samma land. För om vi tidigare mest sett pĂ„ lĂ„glönelĂ€nder som ett sĂ€tt att göra produkttillverkning billigare sĂ„ vĂ€ntar nu samma övervĂ€gning vad gĂ€ller alla tjĂ€nstemannaroller. Hur tĂ€nker din organisation dra nytta av de nya möjligheterna till arbetskraft i andra lĂ€nder?
Gör
För tre Är sedan postade nÄgon pÄ Reddit en översÀttning av Harry Potter till Gen Z-sprÄk.
Sedan dess har det utvecklats till ett samarbetsprojekt att översÀtta alla HP-böckerna till Gen-Z pÄ koddelningsplatsen github.
Jag kan ta nÄgra sidor av den texten och nÄgra sidor av den ursprungliga HP-texten och be AI att översÀtta vad som skrivs in pÄ samma sÀtt som i mitt exempel. DÄ fÄr vi snabbt en AI som översÀtter till Gen Z-sprÄk:
https://chatgpt.com/g/g-67b5e139e37c81919c4b94e74ad00ed9-gen-z-translator
För sÄ lÀnge du har tvÄ texter som har samma innehÄll men med olika sprÄk/tonalitet tar det bara nÄgra minuter att bygga en översÀttare. Testa sjÀlv!
LĂ€nkar
Metas forskning i Nature
https://www.nature.com/articles/s41586-024-08359-z
Metas egen sida
https://seamless.metademolab.com/m4t
SingularityHub skriver om det
https://singularityhub.com/2025/01/16/metas-new-ai-translates-speech-in-real-time-across-more-than-100-languages/
VLC berÀttar om sin AI-textningsfunktion.
https://www.theverge.com/2025/1/9/24339817/vlc-player-automatic-ai-subtitling-translation
Youtube expanderar autodubbning.
https://www.zdnet.com/article/youtube-teases-top-features-for-2025-brought-to-you-by-ai/
Om du knÀcker hur AI kan tolka djursprÄk sÄ finns ett forskningspris du kan vinna hÀr:
https://jeremycollerfoundation.org/press-releases/10-million-prize-for-interspecies-two-way-communication-using-generative-ai-models-announced/
AI omvandlar bat-signaler till mÀnskligt sprÄk
https://www.nature.com/articles/srep39419
Men det verkar vara att AI-översÀtta kaskeloters sprÄk som har kommit lÀngst https://www.sciencedirect.com/science/article/pii/S2589004222006642
Gizmondo skriver om Microsofts forskning om hur AI pÄverkar hur vi orkar tÀnka sjÀlva.
https://gizmodo.com/microsoft-study-finds-relying-on-ai-kills-your-critical-thinking-skills-2000561788
GenomgÄng av olika appar som pÄstÄr sig anvÀnda AI för att översÀtta babyskrik (kom ihÄg att det finns för lite trÀningsdata för att sÄdant hÀr ska kunna fungera pÄ riktigt Àn, men om nÄgra Är kanske)
https://sherwood.news/tech/do-baby-cry-translators-work/
Apples AirPods med kamera kommer 2027
https://www.bloomberg.com/news/newsletters/2024-10-13/apple-smart-home-plans-new-os-smart-displays-vision-pro-integration-robots-m27kw5m7
Döv content creator recenserar Hearview â ett par AI-glasögon som textar tal i realtid. De kostar 15.000 kronor sĂ„ det Ă€r dyrt för en produkt som snart kommer bli omodern men verkligen intressant att se potentialen i realtidsöversĂ€ttning i vardagsnĂ€ra sammanhang.
Det Àr inte bara döva som gillar textning. 63% av unga under 30 föredrar att titta pÄ media med undertexter pÄ.
https://today.yougov.com/entertainment/articles/45987-american-adults-under-30-watching-tv-subtitles
Gen Z-versionen av Harry Potter pÄ github.
https://github.com/typoes/harry-potter-gen-z/blob/main/book_1/chapter_1.md
Ursprungliga posten pÄ Reddit
https://www.reddit.com/r/harrypotter/comments/r87mvh/accidentally_bought_the_gen_z_how_do_you_do/
Sedan sist vi hördes
Den största nyheten som inte blev huvudnyhet den hÀr veckan var att jag fattade att Open AI splittar frÄn robot-tillverkaren Figure. Figure tÀnker att de kan göra bÀttre robotar utan OpenAI och OpenAI vÀljer att Äterigen starta rekrytering för att skapa ett eget robotlabb. Har du inte koll pÄ de olika robottillverkarna sÄ ger den hÀr videon en bra översikt.
Ăr du en insiktsdelare?
KÀnner du nÄgon som Àr intresserad av sprÄkets utveckling? Eller kanske nÄgon som behöver fundera igenom hur minskade sprÄkbarriÀrer skapar möjligheter för er organisation? Vem tÀnkte du pÄ? Skicka vidare!
Jag skulle vĂ€ldigt gĂ€rna ha Ă€nnu fler prenumeranter. Ni som betalar gör det möjligt för mig att fortsĂ€tta skriva, men Ă€ven ni som inte gör det kan hjĂ€lpa till genom att fĂ„ fler att prenumerera. Om du gillar det hĂ€r nyhetsbrevet â skulle du kunna tĂ€nka dig att berĂ€tta för en vĂ€n att hen ocksĂ„ borde prenumerera? Bara Ă€kta rekommendationer förstĂ„s. Bara om du verkligen sjĂ€lv tycker att mina nyhetsbrev Ă€r vĂ€rda att lĂ€sas av fler. Tack för all pepp jag fĂ„r nĂ€r jag skriver!
Kom ihÄg att nÀsta förelÀsning för betalande prenumeranter blir den 6 mars kl 12:00-12:45!
NÀsta vecka Àr det sportlov dÀr jag bor sÄ vi ses först om tvÄ veckor!
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant?
Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr
(du vÀljer sjÀlv om du vill betala):