đ€ŻâĄïžDet Ă€r din skyldighet att slappa pĂ„ jobbet
En avslappnad hjÀrna kommer pÄ vÀrdefullare lösningar. Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, berÀttar om hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?

Vad har hÀnt?
- Receptet pÄ den smartaste typen av AI-modeller Àr nu fritt tillgÀngligt
Varje vecka slÀpps det AI-modeller som inte Àr lika bra som de bÀsta och dÀrför inte speciellt intressanta för mÀnniskor utanför AI-bubblan. Men nya AI-modellen Sky-T1-32B-Preview som slÀpptes i fredags har nyhetsvÀrde inte för att den kan mÀta sig som lika bra som en tidigare version av o1, utan för att det Àr den första resonemangsmodellen som slÀpps med helt öppen kÀllkod och trÀningsdata.
Senaste generationens högpresterande chattbottar har gÄtt ifrÄn strukturen att du frÄgar och fÄr svar direkt till att de först genererar en inre monolog som vi inte ser men som ÀndÄ pÄverkar resultatet. Genom att modellerna Àr trÀnade pÄ att generera inre monolog sÄ fÄr modellen mer kontext och kan dÀrför i slutÀndan leverera bÀttre resultat.
Vad NovaSky, en forskargrupp frÄn UC Berkeleys Sky Computing Lab, har gjort Àr att de har tagit en befintlig open source-modell och finjusterat den med trÀningsdata sÄ den först genererar tankar om uppgiften innan lösningen genereras. Enligt forskarna tog det bara 19 timmar och en budget pÄ mindre Àn 450 dollar att trÀna modellen, men dÄ mÄste man förstÄ att de fortfarande utgick ifrÄn en befintlig modell (Alibabas QwQ-32B-Preview) som i sin tur uppskattningsvis kostat nÄgra miljoner att trÀna.
NÀr vi gÄr igenom Sky-T1s fine-tuning trÀningsprompter sÄ innehÄller alla samma setup:
"system": "Your role as an assistant involves thoroughly exploring questions through a systematic long thinking process before providing the final precise and accurate solutions. This requires engaging in a comprehensive cycle of analysis, summarizing, exploration, reassessment, reflection, backtracing, and iteration to develop well-considered thinking process. Please structure your response into two main sections: Thought and Solution. In the Thought section, detail your reasoning process using the specified format: <|begin_of_thought|> {thought with steps separated with '\n\n'} <|end_of_thought|> Each step should include detailed considerations such as analisying questions, summarizing relevant findings, brainstorming new ideas, verifying the accuracy of the current steps, refining any errors, and revisiting previous steps. In the Solution section, based on various attempts, explorations, and reflections from the Thought section, systematically present the final solution that you deem correct. The solution should remain a logical, accurate, concise expression style and detail necessary step needed to reach the conclusion, formatted as follows: <|begin_of_solution|> {final formatted, precise, and clear solution} <|end_of_solution|> Now, try to solve the following question through the above guidelines:"
(om du lĂ€ste allt det dĂ€r kanske du uppmĂ€rksammade att de stavat âanalisyingâ, det verkar de gjort konsekvent i alla tusentals trĂ€nings-exemplen, men nĂ€r jag testade modellen sĂ„ ville den Ă€ndĂ„ inte gĂ„ med pĂ„ att analysing kan stavas sĂ„ dĂ€r.)
Deras modell kommer dÀrför alltid att först generera en inre monolog som Àr Thought och dÀrefter en Solution baserad pÄ de tankarna. Genom att trÀna modellen pÄ en mÀngd exempel pÄ hur en frÄga frÄn en anvÀndare först genererar tankar och sedan exemplifiera hur de tankarna pÄverkar vilket svar som blir lÀmpligast sÄ kan moderna resonerande AIs ge bÀttre svar utan att behöva trÀna en dyr grundmodell. I och med att hela receptet slÀpps helt öppet sÄ kan alla som vill lÀra sig hur man sjÀlv kan skapa nÀsta generations smartare AI.
Detta förÀndrar ju allt
Det Àr inte alla mÀnniskor en inre röst som de kan höra inne i sitt huvud. Det kallas anendophasia och AI har haft det fram tills nu. (Jag skrivit ett tidigare nyhetsbrev om det beslÀktade aphantasia, att en del mÀnniskor inte kan visualisera saker inne i sitt huvud)
Alla Àr rörande överens om att AI-modellernas nyvunna förmÄga att först ha en inre monolog innan svaren genereras Àr vÀgen framÄt för att fÄ svar av högre kvalitet med lÀgre grad av hallucinationer. Alla tester visar det.
Men nÀr jag gÄr igenom hur finetuning-exemplen ser ut för Sky-T1-32B-Preview sÄ börjar jag förstÄ att sÀtten vi trÀnar upp hur en AI-modells inre monolog ska genereras kommer göra framtida AI-modeller för uppgiftsfokuserade. Jag ska förklara varför det Àr tokigt, men dÄ behöver vi först lÀra oss om tre sÀtt som vÄra hjÀrnor fungerar pÄ. Du kommer dÄ ocksÄ att förstÄ varför du behöver slappa pÄ jobbet mer.
Om vi mÀter vÄr hjÀrnaktivitet nÀr vi aktivt löser ett specifikt problem sÄ aktiveras ett gÀng neuroner (noder) i vÄr hjÀrna. Dessa noder gillar att arbeta tillsammans sÄ mycket att vi ser att det Àr ungefÀr samma varje gÄng vi fokuserar pÄ att lösa en definierad uppgift. HjÀrnforskare kallar den hÀr gruppen noder för Central Executive Network eller CEN.
Fram till för runt 20 Är sedan sÄg vi hjÀrnan som en prompt-baserad enhet. Den körde igÄng och genererade lösningar nÀr det fanns problem som behövde lösas. Sedan började vi mÀta vÄr hjÀrnaktivitet vid tillfÀllen dÄ vi Àr avslappnade och inte aktivt löser problem. DÄ insÄg vi att det fanns ett helt annat gÀng neuroner som gillade att hÀnga tillsammans nÀr vi inte hade gett vÄr hjÀrna nÄgra uppgifter. Den gruppen noder kallas för Default Mode Network eller DMN.
Det finns tydligare namn pĂ„ dessa tvĂ„ nĂ€tverk â Task Positive Network och Task Negative Network, men det Ă€r inte de namnen som blivit populĂ€rast sĂ„ vi kör pĂ„ CEN och DMN idag.
Default Mode Network Àr riktigt bra pÄ att komma pÄ nya idéer och ovÀntade lösningar pÄ problem vi inte behöver lösa. Det leker runt med omöjliga idéer och associerar fritt och det Àr alltsÄ hjÀrnans lÀge som vi ÄtervÀnder till nÀr vi slappnar av, vÄrt default mode Àr att vara lekfulla och kreativa. Mindfulness, droger eller en dusch Àr yttre medvetna aktiviteter som forskare upptÀckt kan hjÀlpa till att fÄ hjÀrnan att gÄ frÄn CEN till DMN-lÀge.
Det sista hjÀrnnodnÀtverket som jag tÀnker att vi behöver ha koll pÄ innan jag kommer till poÀngen kallas Salience Node Network. Salience Àr ett svÄrt ord för uppmÀrksamhet, och vad den delen av hjÀrnan gör Àr helt enkelt att hÄlla koll pÄ vÄr omgivning för att avgöra om vÄr hjÀrna just nu löser uppgifter och dÀrmed borde anvÀnda CEN eller om vi kan ÄtergÄ till att leka och dÀrmed anvÀnda DMN.
Dagens teknik för resonerande AI Äterskapar bara förhÄllandena för aktiv fokuserad problemlösning. NÀr de prompter som vi trÀnar AI pÄ beskriver inre monolog som nÄgot som ska hÄlla sig inom ramarna (för att undvika osanningar) sÄ Äterskapar vi motsvarigheten till CEN. Det Àr jÀttebra för att tÀnka rationellt, och det Àr spÀnnande att vi kan fÄ transformer-tech (LLM-baserade chatbottar) som egentligen bara Àr statistiska algoritmer för fri association att agera rationellt.
Styrkan i transformer-teknologin lÀmpar sig mer för att hitta pÄ. SÄ genom att istÀllet göra trÀningsprompter som fokuserar pÄ hur en inre monolog ser ut för en mÀnniska som letar efter ovÀntade lösningar pÄ problem skulle vi förmodligen kunna skapa artificiellt kreativt tÀnkande likt det vi anvÀnder nÀr vÄra hjÀrnor Àr i default mode.
NÀr vi mÀnniskor fokuserar för hÄrt pÄ problemlösning och CEN-delen av vÄr hjÀrna sÄ hittar vi snabba lösningar men vi blir stressade, utbrÀnda och lösningarna blir Àven om de Àr pÄ hög nivÄ generiska. För att bli en bra problemlösare behövs att vi klarar av att formulera om problem utanför instruktionen (prompten). Tid för ifrÄgasÀttande av uppgiften krÀvs och det allra bÀsta Àr om vi kan fÄ Salience Node Network att tolka uppgiften mer som lek Àn som uppgift sÄ DMN kickar in.
Jag tror dÀrför att vi kommer se att nÀsta generations AI-modeller (LLMs) blir vÀldigt mycket duktigare pÄ att lösa rationella problem, men bara dÀr det finns tydliga definierade sanningar som de kan bygga kedjor av. Det leder till kompetent men generisk slutledningsförmÄga.
Utmaningen för oss alla Àr att förstÄ och uppskatta att vÄra hjÀrnor behöver ha kul och leka för att komma pÄ intressanta nya lösningar. För om vi lÀr oss mer om hur vi sjÀlva kan försÀtta oss i default mode sÄ kan vi sedan bygga AI som klarar kreativ problemlösning och detta förÀndrar ju allt!
Vad kan du göra idag?
FörstÄ
FörstÄelsen av hur mÀnniskans hjÀrna fungerar Àr under utveckling. NÀr jag var liten pratade vi om att höger hjÀrnhalva styrde kreativitet och vÀnster hjÀrnhalva styrde logik, vilket inte Àr sant. Det var pÄ grund av att Roger W. Sperry fÄtt Nobelpris för sina studier dÀr han studerade mÀnniskor som bokstavligt hade fÄtt sina hjÀrnor uppdelade i höger och vÀnster. Personerna han studerade hade avskurna ledningar mellan de hjÀrnhalvorna. I normalfall arbetar de bÄda hjÀrnhalvorna ihop i alla uppgifter.
Idag har vi istÀllet fMRI som visar vilka delar av hjÀrnan som aktiveras nÀr vi tÀnker. Det Àr inte sÀkert att DMN och CEN kommer att vara de slutliga modellerna för att förklara hur vÄra hjÀrnor fungerar, men de bygger pÄ mÀtningar av mÀnniskor dÀr bÄda delarna av hjÀrnan sitter ihop.
Studier visar att personer som Àr i default mode löser kreativa uppgifter bÀttre, och i en studie frÄn förra Äret dÀr forskare manipulerade försökpersonernas hjÀrnor och dÀmpade aktiviteten i DMN-delarna sÄ visade det sig att dessa personer hade mycket sÀmre resultat pÄ kreativitetstester.
Om du förstÄr hur din hjÀrna (nÀrmare bestÀmt Salience Node Network) sorterar vad som Àr en mÄlstyrd uppgift och vad som fÄr vara lek sÄ kan du aktivt fÄ din hjÀrna att arbeta mer kreativt med fler typer av uppgifter.
Planera
Det Àr inte sÄ lÀnge sedan jag skrev att Àven mindre organisationer snart har rÄd att trÀna sina egna versioner av AI. Med prislappar som Sky T1 uppvisar sÄ kryper tiden nÀrmare tills alla som vill ha en specialtrÀnad AI pÄ just deras organisations problem kommer att ha det.
DÄ skrev jag att varje organisation behöver skapa ett dataset med trÀningsdata enligt följande:
Skriv frÄgor som ni vill kunna stÀlla till er AI.
Skriv svaren som ni vill att er AI skulle ha gett er och motivera varför det Àr korrekt svar. Ni mÄste ocksÄ tÀnka igenom sÄ det finns tillrÀckligt med frÄgor dÀr det finns ett tydligt rÀtt svar, men ocksÄ frÄgor dÀr svaret inte gÄr att fÄ fram, och frÄgor i grÄzonen dÀremellan.
Men med de nya tÀnkande modellerna sÄ behöver vi uppdatera:
Skriv frÄgor som ni vill kunna stÀlla till er AI.
Skriv inre monolog som beskriver hur ni skulle tÀnka om ni fick den hÀr frÄgan.
Skriv svaren som ni vill att er AI skulle ha gett er baserat pÄ frÄgan i kombination med den inre monologen och motivera varför det Àr ett korrekt svar. Ni mÄste ocksÄ tÀnka igenom sÄ det finns tillrÀckligt med frÄgor dÀr det finns ett tydligt rÀtt svar, men ocksÄ frÄgor dÀr svaret inte gÄr att fÄ fram, och frÄgor i grÄzonen dÀremellan.
Inte för att jag vill fÄ era hjÀrnor att gÄ in i CEN-lÀge men om ni inte ens har börjat sÄ Àr det viss tidspress nu, för det kommer ta tid att göra ett bra dataset för trÀning. LÀngre tid Àn det Àr kvar innan det Àr möjligt. Se till att ni Àr redo.
Gör
Ju mer vi lÀr oss om hur AI fungerar desto viktigare blir det att förstÄ hur vi sjÀlva fungerar. AI-trÀningen av modeller som Sky T1, ChatGPT o3 och Google Gemini 2.0 Flash Thinking baseras pÄ hur ett fÄtal personer formulerar hur en inre monolog leder till svar. Det kommer finnas utrymme för mÄnga fler mÀnniskors sÀtt att ha inre monolog, sÄ det kommer bli viktigare att kartlÀgga hur olika typer av inre monolog kan leda till olika svar.
Veckans Gör blir dĂ€rför att kartlĂ€gga hur din egna inre monolog ser ut nĂ€r du tĂ€nker. Prata högt för dig sjĂ€lv nĂ€r du löser en uppgift. Ăr du en sĂ„dan person som kommer pĂ„ lösningen nĂ€r du försöker formulera vad du gör, eller dyker lösningen mer upp som en associativ idĂ©?
Vad tror du skulle hÀnda om ChatGPTs inre monolog vore mer som din egna, skulle svaren bli annorlunda?
LĂ€nkar
Vetenskaplig genomgÄng av forskningen kring DMN
https://www.sciencedirect.com/science/article/pii/S0896627323003082
Presentation av modellen Sky-T1.
https://novasky-ai.github.io/posts/sky-t1/
HĂ€r finns dataset
https://huggingface.co/NovaSky-AI
Studie som visar att mer aktivitet i DMN ger fler kreativa ideer
https://neurosciencenews.com/creativity-dmn-neuroscience-26436
Sedan sist vi hördes
I förra nyhetsbrevet skrev jag ju att det ryktades att OpenAI skulle slÀppa tidsinstÀllda prompter. Nu Àr de hÀr för betalande. Du kan nÄ det genom att vÀlja GPT-40 with scheduled tasks som modell. Sedan kan du be ChatGPT stÀlla in en reminder eller Äterkommande task. Jag fick det alldeles nyss sÄ jag har inte hunnit experimentera sÄ mycket med det.
Ăn sĂ„ lĂ€nge har jag inte sett nĂ„gon som gjort nĂ„got ovĂ€ntat. De mest anvĂ€ndbara exemplen jag sett Ă€r att sammanfatta nyheter dagligen. SĂ„ min tanke Ă€r att se vilka nyhetssajter jag skulle kunna kombinera ihop (som tillĂ„ter det) och sedan be om en daglig analys av vilka nyheter som trendar. Men hittills har jag inte fĂ„tt till det i en prompt som fungerar tillfredsstĂ€llande.
Ăr du en insiktsdelare?
KÀnner du nÄgon som gillar att optimera sin kreativitet? Eller kanske nÄgon som behöver förstÄ mer om hur vi kan specialisera AI-modeller genom fine tuning av deras inre monolog? Vem tÀnkte du pÄ? Skicka vidare!
Dagens nyhetsbrev Ă€r inspirerat av den hĂ€r intervjun med Annaka Harris som beskriver en ganska filosofisk syn pĂ„ hur âjagetâ inte existerar utan bara Ă€r en liten del av universum.
Om du ser den och ser den hÀr strax efter sÄ blir det extra roligt.
Just nu letar jag efter nya uppdrag sÄ behöver du strategisk rÄdgivning i frÄgor kring AI eller marknadsföring Àr det bara att höra av dig. HÀr Àr min Linkedin om du vill se mer om vad jag har gjort tidigare.
FortsÀtt utforska sÄ ses vi nÀsta vecka!
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant?
Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr
(du vÀljer sjÀlv om du vill betala):