GenAI-sommaren 2025. Några nedslag

4 september 2025

Sommar och semester betyder för min del total avkoppling från jobbet, för det mesta. Det inbegriper också avkoppling från AI, men bara delvis. Det går inte att helt koppla bort sig från att åtminstone hålla viss koll på utvecklingen. Som en service till läsare av denna blogg som liksom jag slappnat av lite, kommer här en kort sammanfattning av de nyheter som jag finner mest intressanta under perioden juni–augusti 2025, med reservation för att detta är en högst personlig värdering. 

OpenAIs uppdatering av GPT modellerna till version 5 (7 augusti) var hett emotsedd av många. De mest entusiastiska förväntade sig AGI, artificiell generell intelligens, ett begrepp vars definition är långt ifrån tydlig, men som signalerar något i stil med att artificiell intelligens kan utföra alla uppgifter som människor kan utföra. Det blev inte så. Därmed inte sagt att modellen inte innebär en förbättring. 

Den största förbättringen torde vara tillgängligheten. ChatGPT5 ger nu alla användare (gratisversionen såväl som betalversionerna) tillgång till vad som ofta kallas en “resonerande” modell, det vill säga en modell som “tänker efter” innan den ger svar.  Detta ökar vanligtvis tillförlitligheten (obs ÖKAR, inte GARANTERAR) i svaren. Det är färre så kallade hallucinationer (att modellen hittar på, eller killgissar), och ofta kan man följa hur modellen resonerar, vilket ger lite högre så kallad “förklarbarhet” till vad som händer i den “svarta lådan”. 

Den första lanseringen av ChatGPT5 innebar att användaren inte längre kunde välja nivå av resonerande, utan att modellen själv “valde” detta, beroende på uppgift. Det var inte så lyckat. Dessutom tog OpenAI bort möjligheten för användaren att välja tidigare modeller (GPT4o till exempel) Allt detta var man efter protester från användare tvungna att backa från. 

GPT5 är nu också integrerad i Miocrosofts Co-pilot, och man kan även här välja nivå av “tänkande” beroende på uppgift. Dock är det, som vanligt, oklart om Co-Pilot alltid använder den mest kraftfulla modellen för uppgiften. Skillnaderna i kvalitet mot att använda ChatGPT5 är ibland slående. 

I samband med lanseringen av ChatGPT5 släppte OpenAI också två “öppna” modeller, båda med namnet gpt-oss. Det hade man inte (trots namnet på företaget) gjort sedan GPT2 Dessa modeller kan alltså köras lokalt, på den egna datorn, även om den större versionen kräver ganska mycket datorkraft. Dessa modeller är inte lika kraftfulla, men de gör det möjligt att jobba med visst material som är känsligt och som man inte önskar ladda upp i molnet. 

Anthropic har under sommaren (5 augusti)  lanserat sin Claude 4.1 som också den ska vara bättre på “tänkande”, dvs använder mer tid på att lösa uppgifter i flera steg. Framför allt är det dock inom kodning som modellen är en förbättring mot tidigare, verkar det som. Mistral, den europeiska konkurrenten til de amerikanska jättarna, lanserade sin egen “resonerande modell” Magistral. Trenden verkar tydlig: bättre resultat, snarare än stärre modeller. 

Google har tagit bort “preview” från namnet på sina Gemini 2.5 flash och Geminis 2.5 Pro (juni).. Gemini hade under våren seglat upp som den främsta konkurrenten till ChatGPT, och integrerats i Google sök (AI-sammanfattningar i början av vissa sökningar har börjat dyka upp). Gemini integrerar på ett annat sätt än de andra olika modaliteter. Videogenereringsverktyget Veo är bland det bästa på marknaden, och i slutet av augusti introducerades något som verkar vara bland det bästa bildgenererings/bildredigeringsverktyget. Det gick först under kodnamnet “nano banana” men det officiella namnet nu är det något tråkigare Gemini 2.5 Flash image. Det som framför allt har imponerat är verktygets förmåga att följa instruktioner, och redigera detaljer i bilder utan att förändra helheten.

Visserligen är bättre video- och bildgenerering intressanta utvecklingar i sig, men än mer intressant är det som ligger under. Modellerna tränas nu bredare, för att nå en nivå av kunskap om världen som går utöver att kunna förutsäga nästa ord i en ordsekvens, till att skapa simuleringar av världen i vidare mening, inte minst med hänsyn till grundläggande fysik. Detta är en förutsättning för en artificiell intelligens som också ska kunna agera i den fysiska världen, till exempel integrerad i robotar. 

Området musikgenerering har under en tid dominerats av tjänsterna Suno och Udio som växlat sinsemellan i att kunna erbjuda de mest  högkvalitativa tjänsterna. Nu har de fått viss konkurrens av den etablerade talsyntestjänsten Elevenlabs som lanserade Eleven Music i början av augusti. Det intressanta med denna tjänst är att den bygger på licencierad träning, där rättighetsägare till musik ska få del av intäkterna. Detta är ett relativt nytt fenomen inom träning av modeller för generativ AI, där standarden annars har varit “be inte om tillåtelse, be om ursäkt”, för användning av upphovsrättsskyddat material. 

En för högskolevärlden (och lärande i stort) intressant funktion som introducerats i ChatGPT den 29 juli är “Study mode” (“Studera och lär mig” på svenska). Det är en modifiering av hur chatboten uppför sig i relation till frågor om fakta från användaren. I detta läge är modellens uppgift att guida användaren i en lärandeprocess. Modellen ger (oftast) inte direkt svar på en fråga (ett svar som kan kopieras och användas i till exempel en inlämningsuppgift) utan ställer istället motfrågor ämnade att stimulera till fördjupning och vidare kunskapsinhämtning. Den kan också skapa studieplaner och quiz för att testa de inhämtade kunskaperna. Vad innebär detta? Kanske är detta ett första steg bort från “fuskfrågan” och frågan om AI gör oss dummare, som har dominerat diskussionen om AI och lärande. Det har naturligtvis gått att prompta chatbotar till att agera lärare och studieguider även tidigare, men nu kan studenter och elever som tar ansvar för sitt eget lärande enkelt välja att själva utgångspunkten för interaktionen med modellen ska vara en lärandeprocess. Anthropic och Google har skapat motsvarande “lärolägen” för sina chatbotar Claude och Gemini. Detta är något som tål att utforskas närmare. 

Genomgången ovan av nya funktioner och utvecklingar i de vanligaste verktygen för generativ AI är selektiv. Den baseras på vad JAG har funnit intressant under de senaste två månaderna. En sak är säker, utvecklingen inom generativ AI står inte stilla, även om vi tar semester.

Jonas Svensson

KRITISKT AI litteracitet som ej går att mäta

1 september 2025

Nano Banana(Gemeni 2.5 Flash)-genererad illustration

Sedan mitt förra blogginlägg kring AI-litteracitet har tankarna snurrat vidare och jag har både lyssnat och läst på en massa kloka (och även okloka) personer kring frågor rörande AI. När det gäller just AI-litteracitet skulle jag vilja både revidera hur jag ser på begreppet AI-litteracitet så att det bättre motsvarar vad jag avser.

Likt andra förmågor har OECD gjort även AI litteracitet till något som går att mäta. Problemet med detta är att det då reduceras till aspekter som enligt mig är mindre viktiga i förhållande till användandet av generativ AI (läs digitalisering – appar, program, lärplattformar osv). Fokus blir istället på kunskaper som går att ”checka av” såsom användande av appar, skriva bra promptar osv. Risken finns när det reduceras till mätbarhet att utbildning i ett land styr mot att få bra resultat på testerna. Se exempelvis vilka effekter PISA mätningarna har fått för svensk skola.

Mitt förtydligande och kring min inställning till AI-litteracitet är att jag vill lägga till kritisk. En kan tycka att kritisk AI-litteracitet inte är så stor skillnad mot just AI-litteracitet men det gör att fokuset förskjuts mot just det kritiska i stället för själva litteraciteten och generativ AI. I det kritiska ligger att kunna diskutera om det är etiskt rätt att använda generativ AI och förstå på vilket sätt generativ AI spelar roll för hela samhället. Det innebär att kunna förstår hur det är maskiner och inget annat och att detta måste ställas i relation till både mitt eget användande och den globala användningen. På detta sätt utvecklas förmågan att bättre förstå vad tekniken också kan göra med (fake news osv). Det finns så många aspekter att börja lyfta på ett mer kritiskt sätt kring användande av generativ AI som kräver inte bara många olika blogginlägg utan också mycket mer både forskning och allmän debatt. Det gäller exempelvis miljöaspekter, det gäller techjättarnas narrativ som många av oss sväljer osv. För att väcka tankarna och förstå hur myter lever vidare kring generativ AI och även hur kritisk AI litteracitet kan förstås så rekommenderas att lyssna på Podden ”Teaching in higher education”.(jag fick själv upp ögonen för just kritisk AI litteracitet i detta avsnitt)

I mitt förra inlägg skrev jag om hur jag i en av mina kurser skulle använda mig av en metareflektion som metod. Med tanke på kritisk AI-litteracitet är det något jag kommer fortsätta utveckla då utfallet var mycket bra. Det var både ris och ros från studenterna men merparten av studenterna upplevde att det verkligen hjälpte dem att utvecklas under kursen. I utvärderingen som gjordes där jag hade ett fokusgruppsamtal var det olika sätt som studenterna upplevde det hade hjälpt. En av studenterna uttryckte att hen när jag presenterade det inte såg någon som helst mening med det men i slutet av kursen verkligen hade ändrat uppfattning. Det finns många delar att utveckla men ändå ett mycket spännande arbetssätt för att sätta fokus på studenternas tänkande processer där exempelvis generativ AI kunde vara helt frånvarande för att nå vidare i sina tankar. Jag både hoppas och tror att arbetssättet kan stötta mig i bedömningen av studenterna men framförallt att jag väckte så många positiva reaktioner från studenterna när de upptäckte vad det gav dem att få ”stanna” upp och på allvar reflektera.

Tobias Björklund