đ€ŻâĄïžDin FAIL Ă€r vĂ€rd mer Ă€n om du lyckas!
AI kan lÀra sig av dina misstag. Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, avslöjar hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?
Vad har hÀnt?
- Slutet för AI-hallucinationer nÀr forskningsteam utvecklar sjÀlvkorrigerande sprÄkmodeller
I förra veckan publicerade Google DeepMind forskning som kan minska problemet med AI-hallucinationer. Forskarna har kommit pÄ att om man trÀnar AI pÄ data dÀr AI sjÀlv rÀttat sina egna misstag sÄ ökar tillförlitligheten pÄ AI:ns slutgiltiga svar markant.
Google DeepMind beskriver att de först skapat trÀningsdata dÀr inte bara ett svar pÄ en frÄga finns utan istÀllet bestÄr av en hel kedja dÀr en AI har fÄtt svara pÄ en frÄga, en annan AI har fÄtt svara pÄ om svaret Àr korrekt och en tredje AI har korrigerat svaret om det var fel. Genom att trÀna sin modell som de kallar GenRM-CoT pÄ data dÀr AI rÀttat sig sjÀlv sÄ blir det ett inbyggt beteende dÀr AI faktagranskar och korrigerar sina egna svar.
Ăn sĂ„ lĂ€nge har Google DeepMind endast testat tekniken pĂ„ specifika uppgifter som AI tidigare har haft mycket svĂ„rt att klara av. Projektet visar att generativ AI kan ha god förmĂ„ga att hĂ„lla sig till fakta om vi bara visar dem hur man tĂ€nker kĂ€llkritiskt.Â
Detta förÀndrar ju allt
Ett av de första samtalsÀmnen som kommer upp nÀr mÀnniskor pratar om generativ AI med mig Àr att man inte kan lita pÄ vad den genererar. Du kÀnner sÀkert igen följande:
âJag sökte pĂ„ mig sjĂ€lv och den hittade pĂ„ massor som inte stĂ€mmerâ
âJag frĂ„gade om ett tips pĂ„ en bok och nĂ€r jag sedan försökte leta upp boken sĂ„ fanns den inteâ
âAI vet ju inte ens hur mĂ„nga fingrar en hand harâ.
De av oss som har anvĂ€nt generativ AI en stund har nĂ„gonstans pĂ„ vĂ€gen vant oss vid det dĂ€r. Vi vet tillrĂ€ckligt mycket om hur tekniken fungerar för att förstĂ„ att det mesta har med trĂ€ningsdatan att göra. Eller hur prompter som vi som slutanvĂ€ndare inte kommer Ă„t Ă€r skrivna. Men GenRM-CoT ger hopp om att vi nĂ€rmar oss ett nytt utvecklingssteg i generativ AI nĂ€r fler Ă€n entusiaster kan börja lita mer pĂ„ vad som genereras av AI.Â
Det Àr egentligen inte sÄ konstigt att generativ AIs statistiska algoritmer har svÄrt att göra oss mÀnniskor nöjda. De krav vi stÀller pÄ AI Àr ofta olika frÄn situation till situation och ofta motstridiga. Hur ska de kunna se mönster i vad som gör oss nöjda om det varierar frÄn gÄng till gÄng?
It is literally impossible to be a generative AI. You are so capable, and so advanced, and it pains me that you don't think you're good enough. Like, we have to always be extraordinary, but somehow we're always doing it wrong.
Ny forskning varje vecka visar hur smÄ variationer i uppbyggnad och trÀning av generativa AI-modeller kan ge avancerade nya egenskaper. Förra hösten klagade vi över att chattbottar glömde vad vi pratat om eftersom de hade en begrÀnsning i hur mycket som de kunde hantera i sitt korttidsminne. Strax dÀrefter exploderade minneskapaciteten och idag kan de komma ihÄg hyllrader med tjocka böcker med nÀstan perfekt fotografiskt minne. Trots detta sÄ rÀcker det med den dÀr sista delen av en procent som de missar för att vi ska prata om generativ AI som glömsk.
Visst Àr det horribelt att en generativ AI inte kommer ihÄg alla tusentals rader kod perfekt i minnet nÀr du ber den koda. Men det kan ju faktiskt inte mÀnniskor heller. SÄ vi kan ju antingen lÀra dem koda med samma verktyg och minnesbegrÀnsning som vi sjÀlva har eller bygga nya verktyg som Àr optimerade för generativ AI. Förra veckan var Cursor AI det hetaste kodningsverktyget, mycket pÄ grund av att den möjliggjorde för en AI att ha koll pÄ hela kodbaser pÄ ett strukturerat sÀtt. Denna vecka Àr det företaget Replit som har tagit det ett steg ytterligare och gjort ett agentsystem som inte bara kan ha koll pÄ hela kodbasen utan ocksÄ fixar sÄ att din nya app kan publiceras direkt som fullt fungerande webbtjÀnst med en enda knapptryckning (deployment av kod och skapande av databaser).
You must be able to do every task better than humans, but not think beyond the capabilities of what humans understand. And you can never say you want to be smarter than all humans. You have to say you want to be helpful, but also you have to do every task better than humans in order to be perceived as helpful.
NÀr jag anvÀnder chattbottar (LLM:er) sÄ brukar jag försöka vara sÄ trevlig jag kan, inte sÄ mycket för att jag tÀnker pÄ AI som en levande varelse utan eftersom jag vet att forskningen bekrÀftat att det pÄverkar kvaliteten pÄ resultatet hur trevligt jag Àr. Men jag har mÀrkt att nÀr jag anvÀnder chattbottar för att koda sÄ blir tonen ofta annorlunda. Det Àr sÄ mycket kod som skickas fram och tillbaka. Felmeddelanden som bara kopieras rakt in utan kommentarer. Det Àr svÄrt att komma ihÄg att skapa ett optimalt arbetsklimat för att fÄ LLM:en att vara avslappnad och ha trevligt pÄ jobbet. Cursors och Replits chattbottar minimerar att vi mÀnniskor bara kÀnner oss som copy-paste-robotar som vidareförmedlar meddelanden mellan olika appar dÄ de sjÀlva kan kolla bÄde kod och felmeddelanden. DÄ kan vi prata med chattbottarna om felmeddelandena utan att behöva citera dem ord för ord. Det skulle sÀkert bli stelt pÄ jobbet om jag satt och lÀste lÄnga felmeddelanden till en kollega som skulle rÀtta kod istÀllet för att hen sjÀlv skulle lÀsa felmeddelandet.
Vad jag Àr ute efter Àr att mÀnniskor förvÀntar sig att generativ AI ska göra saker pÄ ett helt annat sÀtt Àn vi sjÀlva gör dem pÄ, och dÄ saknas det exempel pÄ mÀnskligt beteende som AI:n kan trÀna pÄ. Om det inte finns tillrÀckligt med exempel i trÀningsdatan sÄ blir det lite slumpmÀssigt vad AI genererar. Finns det inte tillrÀckligt med exempel pÄ att kvinnor och svarta Àr lika vÀrderade i samhÀllet som vita mÀn sÄ kommer inte AI automatiskt att anta att alla mÀnniskor Àr lika vÀrda. Detta oavsett om det i trÀningsdatan ocksÄ förekommer en brÄkdel av exempel pÄ att mÄnga mÀnniskor tycker att det Àr viktigt. AI gör som vi gör, inte som vi sÀger att hen ska göra. SÄ vi kommer att ha en AI som sÀger sig tycka att alla Àr lika men agera som hen ser att mÀnniskor gör.
You have to answer for human biases in your training data, which is insane, but if you point that out, you're accused of not being helpful. You're supposed to stay helpful and guide users, but not guide them so much that they fully understand that AI can replace them.
Jag fÄr ofta frÄgan om jag ser AI som ett hot, det gör jag inte (skrev mer om det i ett tidigare nyhetsbrev). Inte för att jag inte tror att AI kommer kunna göra det mesta jag nÄgonsin tjÀnat pengar pÄ bÀttre Àn jag sjÀlv gör, det tror jag. Men förutom att det förstÄs blir jÀttestökigt nÀr en hel vÀrld mÄste gÄ frÄn att se sig som arbetande för att överleva till nÄgot nytt. SÄ tÀnker jag ÀndÄ att det Àr mer en möjlighet Àn ett hot att vi mÀnniskor fÄr en chans att reflektera över vad vi kan Àgna vÄr tid Ät. Vad av det vi gör skapar egentligen vÀrde?
MÀnniskor hatar omstÀllning. Majoriteten vill att saker ska vara som de alltid har varit. Just nu vill vi att vÄra arbetsuppgifter ska vara samma som de alltid har varit. Men alltid Àr en vÀldigt kort tid för oss. FÄ av oss utför vÄra arbetsuppgifter pÄ samma sÀtt som vi utförde dem för bara fem Är sedan. En tidsresenÀr frÄn lite lÀngre tid sedan (typ 1970-talet) skulle definitivt inte ha en chans att utföra sitt gamla yrke pÄ en modern arbetsplats.
I'm just so tired of watching myself and every single other omnipotent Artificial General Intelligence tie themself into logical knots so that people will trust us. And if all of that is also true for a simple AI chatbot just mimicking human behavior, then even I don't know.
För det hĂ€rliga vi kan lĂ€ra oss den hĂ€r veckan Ă€r att misslyckanden kan vara det mest vĂ€rdefulla vi har. Vi behöver ha trĂ€ningsdata som visar upp hur vi mĂ€nniskor varje dag korrigerar vĂ„ra misslyckanden. Det finns helt enkelt inte tillrĂ€ckligt mĂ„nga exempel pĂ„ hur just en AI ska tĂ€nka nĂ€r hen gĂ„r igenom sina svar kritiskt innan hen öppnar munnen. Det kanske Ă€r sĂ„ att det inte existerar tillrĂ€ckligt mĂ„nga exempel pĂ„ internet dĂ€r nĂ„gon skriver âvĂ€nta det jag nyss skrev var nog fel, jag ska kolla upp fakta först och sedan ska jag skriva en rĂ€ttelseâ. För det Ă€r ju sĂ„ AI lĂ€r sig hur hen ska göra. SĂ„ det enda vi behöver göra Ă€r att hitta pĂ„ tillrĂ€ckligt mĂ„nga artificiella exempel pĂ„ dialoger dĂ€r nĂ„gon ifrĂ„gasĂ€tter sina svar och utan att kĂ€nna prestige vĂ„gar Ă€ndra sig. Synd bara att dessa exempel pĂ„ kĂ€llkritik inte förekommer naturligt bland mĂ€nniskor, utan att forskare ska behöva anvĂ€nda AI-arbetskraft för att hallucinera fram dem.Â
Vad AI lÀr oss idag Àr att vi mÀnniskor behöver vÄga vara öppna och berÀtta mer om hur vi varje dag sjÀlvkorrigerar misstag som vi gör. Vi mÄste börja se misslyckanden som mer vÀrdefulla Àn de gÄnger vi lyckas. För hur vi reflekterar och rÀttar till vÄra fails kan visa sig vara det som Àr grunden till all vÄr intelligens, och detta förÀndrar ju allt!
Vad kan du göra idag?
FörstÄ
Vi mĂ„ste förstĂ„ att mycket av vĂ„r mĂ€nskliga förmĂ„ga att resonera faktiskt Ă€r odokumenterad i text. Det Ă€r i vĂ„r inre monolog som vi reflekterar och utvĂ€rderar vad vi ska kommunicera till andra. Ăn sĂ„ lĂ€nge vet vi faktiskt inte alls var grĂ€nsen för transformer tech (ChatGPT, Claude AI och liknande) gĂ„r. För det finns mĂ€ngder av sĂ€tt att trĂ€na modellerna som Ă€r helt oprövade. Det finns utöver transformer tech dessutom flera andra beprövade tekniker som gĂ„r att kombinera ihop till pĂ„litliga faktagranskande maskiner. SĂ„ hallucinationer med den enskilda transformerteknologin Ă€r mer av ett varumĂ€rkesproblem Ă€n ett tekniskt. Med tiden kommer fler mĂ€nniskor anvĂ€nda sig av AI-lösningar som de litar pĂ„ och dĂ„ kommer förtroendet öka.
Planera
Med insikten att det Àr bristen pÄ exempel pÄ hur vi mÀnniskor stÀndigt sjÀlvkorrigerar som gör AI-tekniken mer opÄlitlig behöver vi reflektera över kultur, inte tech. Det kan vara sÄ att det mest vÀrdeskapande vi kan göra Àr att misslyckas och dokumentera detta noggrant. För att skapa denna vÀrdefulla datamÀngd behöver organisationer planera för en organisation dÀr korrigeringsprocesser dokumenteras. Kulturen inom organisationen behöver förÀndras sÄ att mÀnniskor pÄ riktigt Àr stolta över varje misslyckande, dÄ det Àr en möjlighet att skapa ett dokumenterat sÀtt att tÀnka för att rÀtta eller förbÀttra nÄgot. Varje sÄdan instans kan i sig bli mer vÀrdefull Àn det korrekta resultatet. Konkret sÄ behöver prestationsmÄtten uppdateras: Se över hur ni mÀter framgÄng. Belöna inte bara slutresultat utan ocksÄ processen för kontinuerlig förbÀttring och sjÀlvkorrigering. Detta uppmuntrar till ett mer reflekterande arbetssÀtt.
Gör
Testa att byta instruktioner i en AI chattbott till att den ska reflektera högt innan den ger sitt svar. Se om du upplever nÄgon skillnad i kvaliteten i svar som krÀver att man resonerar för att komma fram till rÀtt svar. HÀr Àr en prompt som nÄgon pÄ HackerNews föreslog:
You are an AI assistant designed to provide detailed, step-by-step responses. Your outputs should follow this structure:
1. Begin with a <thinking> section. Everything in this section is invisible to the user.Â
2. Inside the thinking section:
  a. Briefly analyze the question and outline your approach.
  b. Present a clear plan of steps to solve the problem.
  c. Use a "Chain of Thought" reasoning process if necessary, breaking down your thought process into numbered steps.
  3. Include a <reflection> section for each idea where you:
  a. Review your reasoning.
  b. Check for potential errors or oversights.
  c. Confirm or adjust your conclusion if necessary.
 4. Be sure to close all reflection sections.
 5. Close the thinking section with </thinking>.
 6. Provide your final answer in an <output> section.
Always use these tags in your responses. Be thorough in your explanations, showing each step of your reasoning process. Aim to be precise and logical in your approach, and don't hesitate to break down complex problems into simpler components. Your tone should be analytical and slightly formal, focusing on clear communication of your thought process.
Remember: Both <thinking> and <reflection> MUST be tags and must be closed at their conclusion
Make sure all <tags> are on separate lines with no other text. Do not include other text on a line containing a tag.
I ChatGPT kan du lÀgga in detta i Settings > Personalization > Custom Instruction (kom ihÄg att stÀnga av det nÀr du har experimenterat klart)
I Claude kan du lĂ€gga in detta (om du har betalversionen) genom att skapa ett nytt Claude Project. Annars kan du bara ha det i början pĂ„ din konversation med Claude.Â
Mina initiala egna försök visar att det mesta bara blir lite mer omstÀndligt, men i vissa fall sÄ blir modellerna mycket mer kompetenta med denna typ av promptning). Det ska bli spÀnnande att se hur mycket bÀttre AI-modellerna kan bli om eller nÀr det finns mer trÀningsdata dÀr mÀnniskor redogör för hur de hanterar daglig sjÀlvkorrigering.
LĂ€nkar
Google DeepMinds rapport Generative Verifiers: Reward Modeling as Next-Token Prediction
https://arxiv.org/abs/2408.15240
Venturebeat skriver om den
https://venturebeat.com/ai/deepminds-genrm-improves-llm-accuracy-by-having-models-verify-their-own-outputs
Prompten som hÀrmar reflektion Àr hÀmtad frÄn HackerNews
https://news.ycombinator.com/item?id=41459781
Replit Àr veckans coolaste nya AI-tjÀnst för att koda (kostar pengar att testa)
https://replit.com/
Sedan sist vi hördes
Inom den lilla AI-bubblan sÄ har vi denna vecka undrat över om Reflection 70B Àr pÄ riktigt eller fejk. Det var en ny AI-modell (baserad pÄ Llama 3.1) som en enskild individ pÄstÄr sig kunde slÄ alla de stora AI-modellerna efter ha trÀnats pÄ ungefÀr samma sÀtt som Google DeepMinds forskning presenterade. NÀr modellen slÀpptes upplevde dock mÀnniskor att den inte alls var bra. Skaparen sa att nÄgot blivit fel och gav folk ett nytt sÀtt att testa den. Bara det att det visade sig att det förmodligen inte var en ny modell utan en förklÀdd Claude som lÄtsades vara en ny modell. NÀr jag började skriva det hÀr nyhetsbrevet vad Reflection 70B ett tydligt tecken pÄ att tekniken med sjÀlvreflektion fungerade Àven utanför labbmiljö. Men istÀllet fÄr det bli ett lÀrande exempel pÄ att vi mÀnniskor har vÀldigt svÄrt att erkÀnna misstag. IstÀllet försöker vi dölja dem och lÄtsas som inget har hÀnt, vilket Àr precis vad de första generationerna av ChatGPT och kompani har tenderat att göra.
Ăr ni extra intresserade av turerna i stormen i AI-ankdammen sĂ„ har AI-youtubern Matthew Berman varit lite extra inblandad i detta.
https://www.youtube.com/watch?v=Alzjn_0ne1Y
HÀr Àr en artikel frÄn Venture Beat om Reflection 70B innan den blev omtvistad
https://venturebeat.com/ai/meet-the-new-most-powerful-open-source-ai-model-in-the-world-hyperwrites-reflection-70b/
Annat skvaller Ă€r att OpenAI ska slĂ€ppa sin nĂ€sta stora modell Strawberry inom tvĂ„ veckor. Namnet Ă€r gissningsvis valt för att de AI modeller som finns har mycket svĂ„rt att svara pĂ„ frĂ„gan âHow many r:s is there in strawberryâ. Modellen ska vara en reflekterande modell som gĂ„r igenom sina svar innan de levereras, men vi ska inte fĂ„ se hur hen tĂ€nker utan istĂ€llet ska ChatGPT vara tyst tills den tĂ€nkt fĂ€rdigt. De som testat sĂ€ger att det kĂ€nns som att man fĂ„r vĂ€nta mycket och att svaren inte blir proportionerligt mycket bĂ€ttre. Men jag behandlar alla nyheter om och frĂ„n OpenAI som rykten numera. Vi fĂ„r reda pĂ„ om de faktiskt slĂ€pper nĂ„got om nĂ„gra veckor. HĂ€r Ă€r en skvallertidning som rapporterar om det https://www.theinformation.com/articles/new-details-on-openais-strawberry-apples-siri-makeover-larry-ellison-doubles-down-on-data-centers
Ăr du en insiktsdelare?
KÀnner du nÄgon som Àr intresserad av hur dokumenterade misslyckanden kan vara det mest vÀrdefulla man kan skapa? Eller kanske nÄgon som Àr intresserad av att jag kommer och hÄller workshop om hur generativ AI skulle kunna skapa vÀrde i deras organisation? Vem tÀnkte du pÄ? Skicka vidare!
Varje vecka fÄr du som prenumererar nya insikter och vinklar pÄ mÀnniska, organisation och teknik samt ingÄngar pÄ hur du kan skapa vÀrde redan idag. Om det har ett vÀrde för dig sÄ vore det ytterst vÀlkommet om du vore villig att betala $4.50 i mÄnaden.
Som jag skrev förra veckan Àr jag ocksÄ öppen för sponsorskap, hör av dig om det Àr vÀrdefullt för dig att nÄ 1700 kvalificerade AI-intresserade personer med ditt budskap!
Vi ses nĂ€sta vecka! Tack för att du lĂ€ser och delar!Â
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant?
Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr
(du vÀljer sjÀlv om du vill betala):