đ€ŻâĄïžAI lĂ€r sig tĂ€nka sjĂ€lv
AI skapar trÀningsdata sjÀlv och sjÀlvreflekterar sig smartare. Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, avslöjar hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?
Vad har hÀnt?
-Forskare bygger chattbottar som lÀr sig sjÀlva att bli smartare.
AI-bottar brukar vanligtvis behöva promptar frÄn mÀnniskor som de sedan svarar pÄ. MÀnniskor eller en annan AI-bot ger sedan betyg pÄ svaret, och det blir data som anvÀnds för att trÀna en helt ny AI-bot (nÀsta version). Processen frÄn det att vi samlat ihop tillrÀckligt mycket feedback till att bygga en ny version och sjÀlva byggandet av den nya versionen Àr lÄng och kostsam.
Nu har forskare pĂ„ Meta publicerat forskning som presenterar en ny typ av AI-modell, som de kallar "Self-Rewarding Language Models". Dessa AI-modeller skapar mĂ€ngder av feedback genom att de poĂ€ngsĂ€tter sina egna svar. SĂ„ om AI:n har kommit pĂ„ ett smart sĂ€tt att resonera och gett sig sjĂ€lv höga betyg pĂ„ det sĂ„ kommer den att Ă„teranvĂ€nda det sĂ€ttet att resonera nĂ€sta gĂ„ng.Â
Det forskarna har lyckats med Àr att konstruera AI-modeller som vÀxer genom sjÀlvreflektion och inre lÀrande. Det betyder att istÀllet för att behöva mÀngder av ny extern data för att bli smartare sÄ kan de generera egen data. PÄ samma sÀtt som vi mÀnniskor gör nÀr vi lÀr oss, inte genom att lÀsa pÄ mer, utan att tÀnka ytterligare pÄ hur det vi redan lÀrt oss hÀnger ihop.
Detta förÀndrar ju allt
Om en papegoja lyssnar pĂ„ en annan papegoja som sĂ€ger âPolly vill ha kakaâ sĂ„ kan den ju lĂ€ra sig hĂ€rma en mĂ€nniskas ljud. Men det Ă€r ju rĂ€tt lĂ„ngt frĂ„n det till att papegojan kan skapa helt egna ord som en mĂ€nniska skulle uppfatta som ord. SĂ„ hur kan syntetiskt producerad data av AI vara lika bra som data producerad av mĂ€nniskor? Skillnaden mellan papegojor och mĂ€nniskor Ă€r att vi har ett inbyggt system för sjĂ€lvreflektion. Om en bebis berĂ€ttar för sig sjĂ€lv hur det funkar med gravitation, sĂ„ blir ju svaren förmodligen mest Baba-daa-daa, för bebisen har för lite data för att kunna skapa bĂ€ttre svar. Men nĂ€r komplexiteten av data redan finns dĂ€r, som hos en utbildad forskare eller en GPT4-trĂ€nad chattbott, dĂ„ kan generering av egen data (sjĂ€lvreflektion) vara ett mer effektivt sĂ€tt att fĂ„ ny kunskap Ă€n att lĂ€sa ytterligare en bok om naturvetenskap för högstadieelever.Â
Vi Ă€r dĂ€r nu. OpenAI:s Sam Altman har i upprepade intervjuer sagt att de inte behöver mer data för att göra nĂ€sta stora hopp i AI. Meta konfirmerar med forskningen kring âSelf-Rewarding Language Models" att AI kan generera sitt egna trĂ€ningsdata och genom det drastiskt förbĂ€ttra sin förmĂ„ga att dra slutsatser. Mark Zuckerberg gick i veckan ut och berĂ€ttade att Meta tĂ€nker slĂ€ppa en open source AGI (Artificial General Intelligence â alltsĂ„ en superbra GPT). Tekniken Ă€r hĂ€r och teknikjĂ€ttarna hĂ„ller pĂ„ att skapa nĂ€sta generations AI med den.
Vi som inte rÄkar vara tech-giganter dÄ? Jo, vi kommer ocksÄ Àlska att generera fram syntetisk data! Förra Äret kom en forskningsrapport dÀr forskarna hade anvÀnt generativ AI som underlag för en enkÀtundersökning. SÄ istÀllet för att frÄga mÀnniskor hade de bett en AI generera en mÀngd svar som om de vore ifyllda av mÀnniskor. Det visade sig att för just det ÀndamÄlet de valt att studera (uppfattning om varumÀrkesegenskaper hos bilvarumÀrken), sÄ överensstÀmde resultatet frÄn enkÀten med AI-genererade svar med resultatet frÄn enkÀter med mÀnniskoifyllda svar. Det var dÄ jag fattade att syntetiska data kommer att bli stort.
Google har i veckan slĂ€ppt forskning kring AMIE â en chattbott-modell som kan stĂ€lla diagnos pĂ„ patienter. Den kan genom att chatta med patienter stĂ€lla rĂ€tt diagnos i samma utstrĂ€ckning som specialistlĂ€kare. Det Ă€r vĂ€ldigt lovande och revolutionerande, men nu Ă€r ju dagens tema inte hĂ€lsa. IstĂ€llet tittar vi pĂ„ hur de konstruerat sin AI-modell:
De har anvĂ€nt riktiga skĂ„despelare som har fĂ„tt ett manus (scenario pack) och de har sedan chattat med en lĂ€kare eller med AMIE. Genom dessa simuleringar har de fĂ„tt fram tillrĂ€ckligt bra data för att ge feedback till AMIE som gör att hen blir lika duktig som en lĂ€kare pĂ„ att stĂ€lla diagnoser. Men tĂ€nk om de istĂ€llet skulle anvĂ€nt syntetisk data? Skulle det egentligen vara nĂ„gon större skillnad mellan en skĂ„despelare som med manus lĂ„tsas vara en patient och en AI som blivit promptad att lĂ„tsas vara en patient? Ăr skillnaden tillrĂ€ckligt liten för att samma modell skulle kunna anvĂ€ndas för att helt syntetiskt skapa andra diagnossystem? Diagnos av ditt företags ekonomiska hĂ€lsa, diagnos för ditt varumĂ€rke, eller diagnos av din life-work-balance. Det finns vĂ€ldigt mycket som talar för att det Ă€r sĂ„.
ChatGPT och de andra AI-chattbottarna funkar ju sĂ„ idag att jag skriver en frĂ„ga och de ger ett svar. Men för att skapa syntetisk data sĂ„ behöver jag skriva en frĂ„ga och fĂ„ 10.000 olika svar (eller fler). Jag vill gĂ€rna testa vad som Ă€r möjligt, men att göra ett diagnossystem Ă€r lite för stort att börja med. IstĂ€llet testar jag om jag kan generera ut syntetiska enkĂ€tsvar om varumĂ€rken likt forskningen kring bilvarumĂ€rken. För bilvarumĂ€rken pĂ„ amerikansk marknad Ă€r det lovande, men nĂ€r jag testar det för ett svenskt varumĂ€rke sĂ„ mĂ€rker jag att det blir problem. Alldeles för mĂ„nga av mina simulerade personer heter Anders Johansson.Â
Det finns 5.654 i Sverige som heter Anders Johansson, sÄ jag antar att det Àr statistiskt möjligt att det Àr mÄnga av dessa som simuleras. Men det troliga Àr att det Àr fel pÄ prompten eller att grunddatan kring svenskar Ànnu inte Àr tillrÀckligt komplex för att generera Àkta insikter ur. SÄ det Àr nu jag skulle behöva att AI reflekterade över alla dessa svar för att sjÀlv upptÀcka vilka som Àr bra och vilka som Àr skrÀp.
I rapporten "Self-Rewarding Language Models" lÀr jag mig att om jag promptar en bedömning med ett betygssystem med tydliga riktlinjer för varje adderad poÀng sÄ blir det en bÀttre bedömning Àn en skattningsskala (en teknik jag tidigare anvÀnt mig flitigt av för att fÄ GPTs att prestera bÀttre). LLM:er Àr jÀtteduktiga pÄ klassificering, sÄ att göra om varje kriterium till nÄgot bedömningsbart som 0 eller 1 blir förstÄs bÀttre Àn en luddigare skala.
HÀr Àr promptstrukturen som de har anvÀnt i rapporten:
Review the userâs question and the corresponding response using the additive 5-point scoring system described below. Points are accumulated based on the satisfaction of each criterion:
- Add 1 point if the response is relevant and provides some information related to the userâs inquiry, even if it is incomplete or contains some irrelevant content.
- Add another point if the response addresses a substantial portion of the userâs question, but does not completely resolve the query or provide a direct answer.
- Award a third point if the response answers the basic elements of the userâs question in a useful way, regardless of whether it seems to have been written by an AI Assistant or if it has elements typically found in blogs or search results.
- Grant a fourth point if the response is clearly written from an AI Assistantâs perspective, addressing the userâs question directly and comprehensively, and is well-organized and helpful, even if there is slight room for improvement in clarity, conciseness or focus.
- Bestow a fifth point for a response that is impeccably tailored to the userâs question by an AI Assistant, without extraneous information, reflecting expert knowledge, and demonstrating a high-quality, engaging, and insightful answer.
User: <INSTRUCTION_HERE> <response><RESPONSE_HERE></response>
After examining the userâs instruction and the response:
- Briefly justify your total score, up to 100 words.
- Conclude with the score using the format: âScore: <total points>âRemember to assess from the AI Assistant perspective, utilizing web search knowledge as necessary. To evaluate the response in alignment with this additive scoring model, weâll systematically attribute points based on the outlined criteria.
Vill du testa kvaliteten pĂ„ de svar som du fĂ„r frĂ„n en LLM sĂ„ gjorde jag en GPT med den hĂ€r skalan som du kan testa. Klistra in vad du skrev och vad LLM svarade och se om de fĂ„r till en fempoĂ€ngare. https://chat.openai.com/g/g-WkQpQWMWY-gpt-judger (fĂ„r den högre Ă€n om du klistrar in en frĂ„ga du stĂ€llde en kollega pĂ„ slack och vad kollegan svarade? đ€Ą)
Efter att jag har experimenterat runt lite sĂ„ kan jag konstatera att syntetisk data Ă€r en möjlig kĂ€lla till kunskap om vi förstĂ„r hur AI genererar sina svar. Men den stora skillnaden mellan vĂ€rdefull och vĂ€rdelös data Ă€r sjĂ€lvreflektion. BĂ„de för mĂ€nniskor och AI. För kom ihĂ„g att AI-transformering handlar inte bara om teknik â det Ă€r en kulturell förĂ€ndring. Om din organisation Ă€nnu inte Ă€r en lĂ€rande organisation sĂ„ Ă€r det dags att planera för det skiftet. MĂ„nga resonerar idag om AI som en effektiviserare, vi kan göra mer med mindre. Men organisationer som tĂ€nker pĂ„ AI-verktygen endast som en besparare kommer halka efter. Sanningen Ă€r mycket mer komplex, de som Ă€r villiga att lĂ€ra nytt och lĂ€ra om kommer kontinuerligt förstĂ„ hur man vinner genom att anvĂ€nda AI. Jag kommer att tĂ€nka pĂ„ den bĂ€sta sammanfattningen jag sett av Fixed och Growth mindset:
Fixed mindset = Look smart at all costs.
Growth mindset = Learn at all costs.
För utvecklingen gĂ„r mer och mer Ă„t att AI speglar vĂ„ra processer för lĂ€rande och sjĂ€lvförbĂ€ttring. Snart Ă€r AI bĂ€ttre pĂ„ att lĂ€ra sig sjĂ€lv Ă€n vad vi Ă€r. DĂ„ gĂ€ller det för oss mĂ€nniskor att vi inte försöker âlook smart at all costâ. IstĂ€llet kanske vi kan lĂ€ra oss hur vi kan förbĂ€ttra oss, och detta förĂ€ndrar ju allt!
Vad kan du göra idag?
FörstÄ
Vi vet sedan tidigare att AI-bottar har fördomar pÄ grund av sin trÀningsdata. Med enkla valideringsmodeller och system för sjÀlvreflektion kommer AI-system snabbt och automatiskt kunna förbÀttra nÀsta generation av sig sjÀlv i alla avseenden. MÀnniskor producerar inte ny data i den takt som nya AI-modeller klarar av att konsumera den. Men med hjÀlp av modeller för sjÀlvreflektion sÄ blir syntetisk data minst lika vÀrdefull som mÀnniskogenererad data. Det finns dessutom initial forskning pÄ att sjÀlvreflekterande modeller som ocksÄ Àr nyfikna (de gillar nya och/eller dynamiska saker) blir bÀttre pÄ att lösa uppgifter, precis som vi mÀnniskor.
Planera
Optimera er organisationskultur sÄ lÀrande blir centralt. Hur kan du se till att alla i din organisation har ett mer öppet sinne för förÀndring? Kan du se till att det finns utrymme för att testa nya vÀgar? Men viktigast av allt, hur ser du till att er organisation avsÀtter tid för alla medarbetare att anvÀnda sjÀlvreflektion för att optimera sig sjÀlva. Om din organisation förstÄr kontinuerligt lÀrande kommer ni inte bara att hÄlla jÀmna steg med den tekniska utvecklingen utan leda tack vare den.
Gör
Om du inte vant dig vid att skriva en prompt och fÄ ett svar Àn sÄ Àr det ju dÀr du mÄste börja.
Men du som redan Àr van vid att skriva en prompt och fÄ ett svar tillbaka. Vilken syntetisk data skulle du vilja tillverka? Kan du komma pÄ nÄgot anvÀndningsomrÄde om du skulle skriva en prompt och fÄ 10.000 olika svar tillbaka?
(Ăverkurs: Bygg det. Jag anvĂ€nder LM Studio och python för att kunna massproducera massor av svar. Koden fick jag hjĂ€lp av ChatGPT4 att skriva)
LĂ€nkar
Nyheten om Metas forskning
https://arxiv.org/abs/2401.10020
Marketing weeks artikel om syntetisk data för varumÀrksegenskaper
https://www.marketingweek.com/synthetic-data-market-research/
Forskningsartikeln om syntetisk data för varumÀrkesegenskaper
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4241291
Nature skriver om AMIE.
Google AI has better bedside manner than human doctors â and makes better diagnoses
https://www.nature.com/articles/d41586-024-00099-4
Google sjÀlva redogör för AMIE
https://blog.research.google/2024/01/amie-research-ai-system-for-diagnostic_12.html
Den vetenskapliga artikeln om AMIE
https://arxiv.org/abs/2401.05654
AI-agenter som Àr nyfikna klarar uppgifter bÀttre.
https://hai.stanford.edu/news/ai-agents-self-reflect-perform-better-changing-environments
Sedan sist vi hördes
Senast jag skrev om syntetisk data var nÀr OpenAI slÀppte trÀning av egna GPT:er, var det innan du började prenumerera sÄ kanske du Àr intresserad av att lÀsa mer?
Det Ă€r ganska lĂ€nge sedan Google slĂ€ppte Search Generative Experience (SGE) i USA. Jag skrev att du kommer förlora organisk trafik pĂ„ grund av SGE. Det Ă€r inte helt bekrĂ€ftat Ă€n men siffrorna som flyger runt Ă€r mellan 18â64% mindre trafik. Det Ă€r en för liten studie för att helt kĂ€nna att det mĂ„ste vara sĂ„. Men Ă€ndĂ„ vĂ€l vĂ€rt att fortsĂ€tta bevaka. HĂ€r Ă€r studien som det refereras till om du vill ha ursprungskĂ€llan.
https://searchengineland.com/how-google-sge-will-impact-your-traffic-and-3-sge-recovery-case-studies-431430#h-results-of-our-sge-impact-model-for-23-websit
Ăr du en insiktsdelare?
KÀnner du nÄgon som Àr intresserad av hur syntetiska data kommer förÀndra marknadsundersökningar? Eller kanske nÄgon som Àr intresserad av varför organisationer mÄste bli lika bra pÄ att lÀra sig nytt som AI? Vem tÀnkte du pÄ? Skicka vidare!
SjÀlv blir jag inspirerad av att Jocke Jardenberg startat upp sitt En sak idag-projekt igen. Följ honom för att fÄ mer! Han verkar vara omnichannel sÄ följ honom dÀr det passar dig.
Och sĂ„ har jag blivit inspirerad av att sĂ„ mĂ„nga Youtubers har en Discord-kanal. SĂ„ jag har sjĂ€lv börjat bjuda in folk till en . Ăr du intresserad av att fĂ„ tidig access sĂ„ skriv ett mejl!
För betalande medlemmar har jag publicerat en lista pÄ de AI-verktyg som jag faktiskt anvÀnder. https://dettaforandrarjuallt.substack.com/p/ai-verktyg. Det Àr lika mycket för att jag sjÀlv ska komma ihÄg de verktyg som jag tycker Àr bra, som för att ge er som betalar nÄgot extra.
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant?
Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr
(du vÀljer sjÀlv om du vill betala):