AIs tysta kunskap
8 april 2025

I sin strävan att varna oss för överdrivna förhoppningar om AI:s möjligheter riskerar religionsfilosofen och Johan Eddebo i en debattartikel i DN att underskatta hur dagens avancerade stora språkmodeller fungerar, en fråga som är föremål för intensiv forskning.
Eddebo hävdar att utgångspunkten i AI-diskussionen bortser från ”vad tänkande egentligen är för någonting” och från ”den kunskapsteoretiska roll som medvetandet i sig spelar.” Han menar att den behaviouristiska ansatsen – att bedöma AI utifrån dess beteende snarare än dess inre egenskaper – leder till falska slutsatser om AIs förmågor.
Samtidigt tar Eddebo inte hänsyn till den forskning som faktiskt finns om AIs inre egenskaper eller ”tänkande”, bortom behaviourismen. För tvärtemot vad Eddebo tycks hävda vet vi inte hur detta artificiella tänkande fungerar. Nya metoder inom forskningsfältet tolkningsbar AI gör det dock möjligt för forskare att bokstavligen titta in i språkmodellernas ”svarta lådor” och kartlägga deras inre processer. Dessa metoder avslöjar överraskande mönster som utmanar våra föreställningar om vad som egentligen sker inne i dessa system, och kanske också vad tänkande, mänskligt och artificiellt, är.
Anthropic (företaget bakom språkmodellen Claude, i olika versioner) publicerade nyligen forskning som visar hur deras modeller utvecklar vad som kan liknas vid ”kretsar” – interna beräkningsstrukturer som processerar information på sätt som inte är direkt programmerade, utan som har utvecklats spontant under träningsprocessen. Dessa kretsar hanterar allt från språköversättning och matematisk problemlösning till poesiskrivande och flerstegstänkande.
En central del i Eddebos argumentation bygger på Michael Polanyis teorier om ”tacit knowledge” – vanligtvis översatt som ”tyst kunskap”. Polanyi, som dog för nästan 50 år sedan, menade, i Eddebos sammanfattning, att det finns aspekter av mänskligt tänkande som inte går att kvantifiera men som ändå är oumbärliga för vetenskap och annan kunskapsproduktion. Denna tysta kunskap, enligt Eddebo, ”bygger på omedelbara iakttagelser av komplexa helheter, ett slags direkt tillgång till mening som inte kan uppnås genom ett sammanfogande av informationsbitar steg för steg”.
Och här kommer det intressanta: Det verkar som om dagens språkmodeller spontant utvecklar strukturer som liknar denna tysta kunskap. De arbetar inte alls enbart genom att sammanfoga ”informationsbitar steg för steg” som Eddebo hävdar.
När Anthropics forskare studerade hur deras minst kapabla modell, Claude Haiku, hanterar översättning mellan språk, upptäckte de att modellen inte har separata ”språkmoduler” för varje språk. Istället har den på egen hand utvecklat ett delat begreppsligt utrymme – en sorts språköverskridande abstraktionsförmåga där begrepp existerar i en form som inte är knuten till något specifikt språk. När modellen ombeds översätta ”motsatsen till liten” till olika språk, aktiveras samma interna representationer för begreppen ”litenhet” och ”motsatthet”, vilka sedan triggar en representation av ”storhet” som översätts till det efterfrågade språket. Än mer fascinerande är att andelen delad ”begreppslig infrastruktur” mellan språk ökar med modellens storlek och sofistikering – mer avancerade modeller utvecklar mer universella begreppsstrukturer.
En annan utbredd missuppfattning, som Eddebo reproducerar, är att AI-modeller bara fokuserar på att förutsäga ”nästa ord” utan någon djupare förståelse eller planering. När forskare studerade hur Claude skriver rimmad poesi, förväntade de sig just att modellen skulle skriva ord för ord tills den nådde slutet av raden, där den skulle försöka hitta ett ord som rimmade.
Istället upptäckte de att modellen planerar framåt. Innan den ens börjar skriva den andra raden i en dikt, aktiveras interna representationer av potentiella ord som skulle kunna avsluta raden och som både ger mening och rimmar med föregående rad. Modellen håller flera sådana möjliga slutpunkter i åtanke medan den komponerar raden för att nå dit.
Detta är långt ifrån den mekaniska, enkelriktade process av att förutsäga nästa ord som kritiker ofta tillskriver AI. Det är en kreativ process med framförhållning, parallell bearbetning av flera möjliga vägar, och anpassningsförmåga när omständigheterna förändras – egenskaper som liknar mänsklig kreativitet i långt högre grad än vad de flesta AI-skeptiker brukar vara villiga att erkänna.
Ytterligare ett exempel på tyst kunskap framträdde när forskarna studerade hur modeller som Claude Haiku löser matematiska problem. Trots att den inte är utrustad med specifika algoritmiska verktyg för matematik, utan enbart tränats på text, kan Claude lösa enkla matematiska uppgifter.
När man undersökte hur Claude adderar tal som 36+59 fann man att modellen inte bara följer den algoritm som lärs ut i skolan. Istället har den utvecklat parallella beräkningsvägar – en som beräknar en ungefärlig summa och en annan som fokuserar på att exakt bestämma den sista siffran i svaret. Dessa vägar samverkar för att producera det slutliga svaret.
Det slående är att Claude själv verkar ”omedveten” om dessa sofistikerade interna strategier. Det är tyst kunskap. När den tillfrågas om hur den löste additionen, beskriver den den standardalgoritm vi människor använder, med ”minnessiffra” och allt.
Eddebo frågar sig ”när vi lagt över ansvaret för merparten av vårt vetenskapliga och kulturella utvecklingsarbete på AI-tekniken, och när den förslappande tilliten till teknologin gör att de flesta knappt kan sätta ihop ett rationellt argument utan att ’fråga chat GPT’, vem kan då bedöma ifall den allmänna utvecklingen ens är önskvärd?”
Detta är en legitim oro som förtjänar att tas på allvar inte minst inom forskning och utbildning. Men den uttrycker en onyanserad förståelse av relationen mellan mänsklig och artificiell intelligens. Man kan tänka sig en annan väg än att ”lägga över ansvaret” eller att ersätta mänskligt tänkande; att utforska nya former av samarbete mellan olika typer av intelligens.
Språkmodeller visar prov på både styrkor och svagheter. De kan göra misstag, ”hallucinera” fakta, och ibland ”resonera” bakvänt för att nå ett resultat. Men de kan också hantera enorma informationsmängder, hitta mönster och samband som människor missar, och hjälpa oss att se problem ur nya perspektiv.
Den skepticism som Eddebo efterlyser behöver gå åt båda håll. Kanske är vi människor inte så speciella i vårt tänkande när allt kommer omkring. Vi bör varken acceptera teknikevangelisternas överdrivna påståenden om AI:s magiska övermänskliga förmågor, eller fastna i en syn på AI som enbart ”simulerar” intelligens utan att besitta någon ”verklig” (läs unikt mänsklig) förståelse eller kunskap. Båda positionerna missar komplexiteten hos både människa och maskin och motverkar utforskandet av de nya möjligheter (och faror) som samspelet mellan de båda skapar.
Jonas Svensson