Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, berÀttar om hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?
Vad har hÀnt?
- Minnet sitter inte bara i hjĂ€rnan â Ă€ven vĂ„ra kroppsceller kan lĂ€ra och minnas.
En studie ledd av Nikolay V. Kukushkin, publicerad i Nature Communications, visar att minnesfunktioner inte enbart Ă€r begrĂ€nsade till hjĂ€rnan och nervceller. Ăven celler frĂ„n andra delar av kroppen kan "lĂ€ra sig" och lagra minnen.
Det Ă€r sedan tidigare kĂ€nt att inte bara nervceller utan fler typer av celler har samma typ av gener som i hjĂ€rnan anvĂ€nds för att lagra och konsolidera minnen. Men man har tidigare trott att bara nervceller kan aktivera dessa funktioner. Forskarna konstruerade dĂ€rför ett experiment dĂ€r celler frĂ„n bland annat njurar utsattes för inlĂ€rning av mönster. De anvĂ€nde sig av en etablerad inlĂ€rningsprincip, det sĂ„ kallade massed-spaced-effekten â att repeterad inlĂ€rning i intervaller ger bĂ€ttre resultat Ă€n en lĂ„ng pluggsession.
NÀr cellerna stimulerades sÄ aktiverades ett enzym som lyser, och de celler som trÀnades med massed-space-learning visade sig bli bÀttre pÄ att aktivera enzymet Àn det som bara fÄtt en lÄng stimulering. Experimentet visade att cellerna kan aktivera minnesfunktionen och att de precis som hjÀrnceller har förmÄgan att lÀra sig över tid.
Enligt Kukushkin kan detta förÀndra hur vi förstÄr minne och potentiellt öppna nya vÀgar för behandlingar av minnesrelaterade sjukdomar. Studien öppnar upp för att ett helt nytt sÀtt att tÀnka pÄ hur vÄra kroppsdelar kommer ihÄg och kan bli trÀnade.
Detta förÀndrar ju allt
Jag tĂ€nker sjĂ€lv pĂ„ mitt âjagâ som en mix av minnen lagrade i ett neuronnĂ€tverk i hjĂ€rnan. Det vill sĂ€ga jag exkluderar att min hjĂ€rna ingĂ„r i ett större system i min kropp. Ăven om jag vet att hormoner pĂ„verkar stora delar av min personlighet, likasĂ„ blodsocker och till och med om jag har obekvĂ€ma klĂ€der kan ge utslag pĂ„ att jag beter mig annorlunda. Men trots det sĂ„ ingĂ„r det inte i min mentala modell att jag Ă€r mer Ă€n minnen i hjĂ€rnan.
AI-forskningen idag har stort fokus pÄ att imitera hur vÄr hjÀrna fungerar. Men vÄr intelligens Àr ett vÀldigt komplext nÀtverk av funktioner, inte bara hjÀrnans. Den hÀr typen av forskning pÄminner mig om hur lite vi fortfarande vet om hur vi sjÀlva fungerar. Minnesforskning pÄ andra celler Àn hjÀrnceller Àr tidig labbforskning, sÄ om det betyder att vi faktiskt fÄr se behandlingsmetoder för att trÀna vÄra organ att möta pÄfrestningar redan i ung Älder ÄterstÄr att se. Men tanken pÄ att vi i framtiden behöver hÀnga med nÀr vÄra organ Äker pÄ trÀningslÀger för att optimera för ett friskare liv kÀnns spÀnnande.
Ett litet stickspĂ„r, men det Ă€r inte bara jag och AI-forskarna som tĂ€nker att jag:et sitter i huvudet. Min första tanke nĂ€r jag lĂ€ste det hĂ€r var att det kommer medföra fler problem för de fĂ„ forskare i vĂ€rlden som jobbar pĂ„ att transplantera hela huvuden. NĂ„gra av er kanske kommer ihĂ„g konceptvideon för hur en automatisk huvudbytarrobot opererar som blev viral förra Ă„ret? (Filmen visade hur en levande mans huvud sĂ€tts pĂ„ en ung hjĂ€rndöd donators kropp) âLyckadeâ experiment med huvudtranspantering pĂ„ djur finns det exempel pĂ„, 1950 transplanterade Vladimir Demikhov hundhuvuden till andra hundars kroppar och gjorde tvĂ„hövdade hundar som levde i flera veckor. 1970 lyckades Robert White byta huvud pĂ„ rhesusapor. Sedan dröjde det till 2015 innan Xiao-Ping Ren gjorde experiment pĂ„ möss.
Hund med tvÄ huvuden och byte av huvud pÄ rhesusapa. Bilderna Àr inte AI-genererade. KÀlla bland lÀnkarna.
Transhumanister som funderar pÄ hur mÀnniskan som art kan komma att utvecklas brukar fundera mycket pÄ hur vÄra medvetanden kan transporteras frÄn vÄr ursprungliga kropp nÀr den gÄr sönder. Men den hÀr nya forskningen kan mycket vÀl leda till djupare förstÄelse för att delar av vÄr personlighet inte alls lagras i huvudet utan runt om i nÀtverket av minnesfunktioner.
Min tanke blir att för att komma vidare i hur vi kan skapa AI som förstÄr mÀnniskor bÀttre sÄ behöver vi först sjÀlva inse att AI:s system Àr en del av dem. AI:s algoritmer existerar inte i ett vakuum utan de behöver fÄ förstÄelse för sina egna system för att förstÄ oss mÀnniskor bÀttre. SÄ vill vi ha mÀnskligare AI rÀcker det inte med att vi bygger algoritmer som efterliknar hjÀrnan, vi mÄste bygga hela system som efterliknar hur mÀnniskans system fungerar.
Till exempel: BÄde mÀnniskor och AI behöver energi för att tÀnka, har vi lite energi tÀnker vi sÀmre. Men bara mÀnniskor har förstÄelse för det. Vi vet att vi behöver lite extra energi för att orka med svÄra uppgifter och planerar till exempel genom att göra svÄra uppgifter pÄ morgonen dÄ vi har mycket energi. AI behöver ha samma medvetna koll pÄ hur mycket energi (compute) som hen har till förfogande. Meta publicerade förra mÄnaden forskning om hur det kan integreras i AI-modeller. NÀsta steg Àr att modellerna ocksÄ förstÄr mer om hur de kan planera sin energiÄtgÄng och hur hen ska planera för att fÄ tag i mer för svÄrare uppgifter. Men det Àr svÄrt för oss mÀnniskor att ge AI medveten förstÄelse för sitt system pÄ ett sÀtt som efterliknar mÀnniskans fullt ut eftersom vi inte sjÀlva Àr helt medvetna om vÄra egna system.
VÄra minnen sitter inte bara i vÄra hjÀrnceller. Om alla vÄra celler kan uppvisa massed-space learning och lÀra sig över tid behöver vi förÀndra vÄr tankemodell kring hur jag:et Àr uppbyggt. Vi fÄr en chans att komma ut ur vÄra huvuden och se oss sjÀlva som en del av ett större system och detta förÀndrar ju allt!
Vad kan du göra idag?
FörstÄ
Vi har haft en period dĂ€r vi lyckats göra AI-modeller som kĂ€nns vĂ€ldigt mĂ€nskliga. Det Ă€r inte sĂ„ konstigt för de största genombrotten har varit pĂ„ grund av SFT â Supervised Fine Tuning. Tekniken dĂ€r mĂ€nniskor samlar ihop bra exempel som AI ska följa och sĂ„ följer AI dessa sĂ„ gott det gĂ„r. Ju större mĂ€ngd och ju smartare exempel desto mer kan AI-modellen upprepa. Det Ă€r ocksĂ„ dĂ€rför LLM:er fĂ„tt öknamnet stokastiska papegojor (slumpmĂ€ssiga upprepare). Anledningen till att ChatGPT blev sĂ„ bra var att forskarna började med SFT.
Men alla de nya modellerna gĂ„r ifrĂ„n SFT. IstĂ€llet Ă€r det RL â Reinforcement Learning som just nu leder till störst genombrott. DĂ„ Ă€r AI-modellen inte en upprepande papegoja utan trĂ€nas istĂ€llet genom sĂ„ kallat Self-Play. Hen leker runt och testar vad som funkar, om det funkar gör hen liknande lösningar för andra typer av uppgifter och ser om det funkar.
AI som trĂ€nas med RL lĂ€r sig alltsĂ„ genom att utveckla nya mentala modeller â lösningsmetoder som helt eller delvis kan anvĂ€ndas pĂ„ andra problem. Det mest imponerande med RL-modeller Ă€r nĂ€r de kommer pĂ„ nĂ„got ovĂ€ntat sĂ€tt att lösa problem, sĂ€tt som inte kĂ€nns mĂ€nskliga men som visar sig fungera mer effektivt Ă€n de sĂ€tt vi mĂ€nniskor sjĂ€lva nĂ„gonsin tĂ€nkt pĂ„. Detta refereras till som en AI-modells âAha-momentâ fast egentligen Ă€r det vĂ€l mĂ€nniskan som kĂ€nner Aha nĂ€r de förstĂ„r att AI-modellen hittat en mental modell som vi inte sjĂ€lva tĂ€nkt pĂ„?
Hela poÀngen med RL Àr att modellerna hittar nya vÀgar som inte liknar hur vi mÀnniskor tidigare löst problem pÄ. Det Àr mycket spÀnnande, men samtidigt kommer det att öka klyftan mellan AI:s sÀtt att lösa problem och mÀnniskors sÀtt. Vi mÄste förstÄ att utmaningen ligger i att för oss mÀnniskor ge nya mentala modeller en chans dÄ de leder till upptÀckter större Àn vi trodde var möjliga tidigare.
Planera
Vi vet att hjĂ€rnan och nu Ă€ven andra celler lĂ€r sig bĂ€ttre genom upprepade inlĂ€rningstillfĂ€llen med mellanrum snarare Ă€n en enda lĂ„ng session. ĂndĂ„ envisas vi i mĂ„nga organisationer med att försöka lösa kompetensutveckling genom enstaka heldagsutbildningar eller Ă„rliga workshops, som snabbt glöms bort.
Om vi istÀllet skulle applicera Massed-Spaced Learning-principen i vÄra organisationer skulle vi göra sÄ hÀr:
1. Sprid ut lĂ€rande i smĂ„ doser över tid. IstĂ€llet för att köra en heldagsutbildning om exempelvis AI â kör en timme varje mĂ„nad.
2. AnvĂ€nd âlĂ€rloopenâ dĂ€r personal fĂ„r tillfĂ€lle att reflektera och tillĂ€mpa kunskap efter till exempel 1 dag, 1 vecka, 1 mĂ„nad och 3 mĂ„nader för att förstĂ€rka minnet.
Testa att tĂ€nka bort grĂ€nsen mellan dig och vĂ€rlden. IstĂ€llet för att se dig sjĂ€lv som en enskild individ, tĂ€nk pĂ„ dig sjĂ€lv som en process i ett nĂ€tverk. Dina tankar och handlingar Ă€r resultatet av allt frĂ„n kroppens biologi till samhĂ€lleliga strukturer â precis som en vĂ„g inte existerar utan Ă€r en del av havet.
Jag har fortsatt utforska begrĂ€nsningarna med OpenAIs DeepResearch som jag skrev om i förra nyhetsbrevet. Det Ă€r tydligt att för stora tidsperioder för stora frĂ„gor Ă€r ett problem och researchen bör delas upp i flera delmĂ€ngder. The Verge har gjort en intressant genomgĂ„ng dĂ€r de anvĂ€nde DeepResearch som assistent för juridik, och ocksĂ„ kommit fram till det det finns brister. Ăven om de faktiskt mest Ă€r positivt överraskade (rubriksĂ€ttningen Ă€r lite missvisande) https://www.theverge.com/openai/607587/chatgpt-deep-research-hands-on-section-230
Som jag förutspÄdde i förra veckan sÄ kom det open source version av Deep Research rÀtt snabbt. Mediastoryn var att det tog 24 timmar, men egentligen var det ett projekt som hÄllit pÄ med bygga funktionen en lÀngre period. Jag har inte testat det eftersom det mer Àr ett framework som ÀndÄ anvÀnder OpenAIs API Àn ett alternativ till Deep Research. Men hÀr Àr lÀnken ifall ni vill testa det. https://github.com/dzhng/deep-research
Alternativet jag sjÀlv vÀntar pÄ Àr att Google inser hur de ska bygga nÀsta generation av Google Sök och slÀppa ett sÀtt att göra djupare sökningar för alla inom kort. (LÀste nÄgot rykte om att det var pÄ gÄng men hittar inte lÀnken just nu)
Jag har annars fortsatt att testa PRO-tjÀnsterna i ChatGPT utöver Deep Research. HÀr Àr en testfrÄga som jag utvecklat som jag numera brukar köra för att förstÄ hur bra en resonerande AI-modell Àr. (Ursprungligen var det en logikuppgift för en skattjakt till mina barn och det visade sig att en 8- och 10-Äring klarade den men inte de bÀsta AI-modellerna):
Hur mÄnga blommor hade Penny igÄr kvÀll och hur mÄnga pizzor har Shane nÀr han blir intervjuad?
Shane: "Jag handlade pÄ Joja Mart imorse men Morris var inte dÀr dÄ. Jag behövde fler pizzor för jag hade sÄ fÄ kvar i frysen. PÄ vÀgen hem krockade jag nÀstan med Penny. Hon hade sÄ mÄnga rosor att hon tappade tvÄ utan att se det. Vad ska man med sÄ mÄnga blommor till?"
Evelyn: "Stackars Shane sÄg sÄ sliten ut imorse, sÄ jag skickade med honom tvÄ av mina hemlagade pizzor. Man mÄste ju ta hand om varandra. Som Penny, hon hade just varit förbi och gett mig 3 vackra rosor."
Sebastian: "Jag sÄg Shane sitta vid sjön igÄr kvÀll med en pizza. Han sa nÄgot om att pizza Àr det enda som förstÄr honom, men att han var orolig för han hade bara 16 kvar i frysen och behövde handla fler. Han erbjöd mig en slice, men jag sa att jag redan hade Àtit⊠Àven om jag egentligen inte hade det. PÄ vÀgen hem sÄg jag Penny. Hon sa att hon skulle ge bort 10 rosor till Lewis idag."
Morris: "Shane köpte tre lÄdor med frysta pizzor pÄ Joja Mart i morse. Det Àr 20 pizzor en lÄda. Vem behöver Gus nÀr man har oss? Penny, var ocksÄ dÀr, men jag sÄg aldrig nÄgra blommor."
Mayor Lewis: "Ja, jag sÄg Shane komma ut med tvÄ lÄdor med frysta pizzor frÄn Joja Mart i morse. Jag vÀntade pÄ Penny som skulle komma med rosor men hon dök inte upp förrÀn senare pÄ dagen. Jag gick till och med in pÄ Joja Mart, men de hade inga blommor."
Penny: "Jag hade just varit hos Evelyn nÀr jag sÄg Shane. Jag tror han var pÄ vÀg frÄn affÀren. Han Ät pÄ en frusen pizza och verkade tÀnka djupt, som om pizzan var mer Àn bara mat för honom. Nu ska jag gÄ hem och sÀtta mina 5 vackra rosor i vatten."
ChatGPT o1 PRO Àr första modellen jag testat som fÄr godkÀnt pÄ det hÀr testet! Det betyder att den lyckat pussla ihop en story som inte berÀttas i ordning, klarar hÄlla ordning pÄ flera variabler, inser att en av karaktÀrerna i storyn inte Àr trovÀrdig och information ska exkluderas.
KÀnner du nÄgon som Àr intresserad av hur framtidens medicin ser ut? Eller kanske nÄgon som vill förstÄ AI-forskningen bÀttre? Vem tÀnkte du pÄ? Skicka vidare!
Jag köper ofta abonnemang pÄ nya AI-tjÀnster för att kunna utvÀrdera dem. PÄ det sÀttet slipper lÀsare av det hÀr nyhetsbrevet slösa tid och pengar pÄ att utvÀrdera alla tjÀnster. TjÀnsterna börjar bli dyrare ju smartare de utlovar att vara sÄ om du tycker den hÀr typen av genomgÄngar Àr vÀrdefulla för dig sÄ vore jag mycket tacksam om du ville bli betalande prenumerant. Det kostar ynka 14 kr per brev (om du köper Ärsabonnemang), dÄ fÄr du tillgÄng till min lista pÄ AI-verktyg jag anvÀnder och inbjudan till exklusiva digitala förelÀsningar. NÀsta blir 6 mars kl 12:00-12:45, temat brukar jag vÀnta med att sÀtta till veckorna innan dÄ vi alla vet att en mÄnad frÄn nu sÄ lever vi i en helt ny tid, men det blir helt enkelt en aktuell AI-spaning.
Jag har fortfarande nÄgra DeepResearch-körningar kvar (man fÄr endast 100 per mÄnad), sÄ om du som Àr betalande prenumerant vill att jag testar en prompt i Deep Research Ät dig sÄ kan jag göra en privat sökning. Skicka vad du vill att jag ska ta fram för rapport sÄ kör jag den Ät dig!
FortsÀtt utforska sÄ ses vi nÀsta vecka!
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant? Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr (du vÀljer sjÀlv om du vill betala):