Se ai-fri.se för märkning av AI-fritt innehåll.
De är tomma men ändå märkvärdigt effektiva. Samtidigt fulla av risker och skadliga konsekvenser. Kan eller vill man inte avstå presenteras här också arbetssätt som försöker minska riskerna.

Felaktigt använda och vi kan urholkas — bländade inför maskinens glans. Riskera att hamna i en mental dunkelflaute; en glidning in i förståelsens skugga och tankens stiltje. Rätt använda och de sägs kunna spinna upp en mental medvind. Det handlar då inte om ersättning, utan om förstärkning, framväxten av en människa med utvidgad mental räckvidd.
Utan äkta förståelse genom egen ansträngning är klarheten oprövad och spröd. Kanske klarar man uppgiften, men förmågan att generalisera den saknas. Man kan svara på vad, men inte på hur.
AI kan redan "tänka" åt oss. Vi ser hur överlämningen smyger sig på inom vitt skilda områden. Samtidigt som världen blir varmare, kan vi behöva rädda oss själva från att glida in i en mental dunkelflaute, eller ännu värre, en mental istid.
I denna text introduceras TRANSP-principen, ett arbetssätt för öppen och ansvarsfull AI-produktion, AI-autonominivå, en gradering av hur stor del av tänkande och ansvar som överlåts till AI, samt AI-deklaration, ett kort redovisningssätt för AI-användning och autonominivå, till exempel i mejlfot.
AI transparency brukar syfta på insyn i systemets uppbyggnad och träning. I den här texten syftar vi i första hand på användarens öppenhet kring sin egen AI-användning.
Vi har ett ansvar att ange källor, också nu när källan allt oftare är en maskin. Utan transparens eroderar trovärdigheten och förvirring kan uppstå kring vem som står bakom innehållet.
Nivå A1-A2 (begränsat responsivt stöd)
För denna text har AI använts för viss informationssökning (t.ex. hitta källor/begrepp) och för att pröva resonemang. I mindre omfattning även som språkassistent och ibland som granskare. Initiativ, avgränsningar och ställningstaganden är oftast baserade på artiklar och böcker som jag läst utan AI-stöd. Idéer kring autonominivå, deklaration och arbetssätt är egna.
För CSS och sidans grafiska form har A3/A4 använts (endast layout/implementation).
Stora språkmodeller, LLM:er, är en gren inom AI-området maskininlärning med avsikt att bearbeta och generera mänskligt språk. En LLM består av ett djupt neuralt nätverk, en matematisk modell inspirerad av hjärnans neuroner, där noder är sammanlänkade med kopplingar av olika styrka (vikter) för att uppskatta hur språk brukar fortsätta.
När man säger att modellen tränas, är det vikterna som justeras. Och som de har tränats, på enorma informationsmängder, bland annat stora delar av internet, tidningar, böcker, videor och bilder. Många gånger även på upphovsrättsskyddat material.
För att modellerna inte ska bete sig illa behövs mänskligt RLHF-arbete, Reinforcement Learning from Human Feedback, där individer tränar upp ett digitalt innehållsfilter. Lågavlönade arbetare från bland annat Kenya granskar och märker hat, desinformation, våld och övergrepp, extremt material modellen tränats på men inte får visa. Det växande träningsmaterialet gjorde att man fick överge filtrering av indata och istället förlita sig på RLHF. Denna mänskliga sköld tjänar så lite som 1-2 USD per timme.
Givet en prompt, alltså frågor eller innehåll från en användare, svarar LLM:en med den statistiskt mest sannolika fortsättningen. Detta kallas autoregression. Den gör det med en token i taget, där en token oftast är ett ord eller annan liten enhet. Token läggs till aktuell text, vilken i sin tur skickas in i LLM:en på nytt. Genom att upprepa proceduren många gånger byggs det fullständiga svaret upp, ett ord i taget.

Den som använt ordbehandlare eller e-postprogram sedan 1990-talet känner igen autokomplettering: verktyget som föreslår hur texten kan fortsätta. Det görs genom uppslag i ordlistor eller med fasta regler. Med god vilja kan man säga att moderna språkmodeller bygger på samma grundprincip, men med ”listor” (läs: nätverk) som i praktiken består av inlärda mönster.
Hur fortsättningen väljs är alltså statistisk. Genom att tillåta ett visst mått av slump, temperatur, i valet av nästa token blir resultatet mindre deterministiskt och mer varierat, eller ska vi säga kreativt.
Eftersom nätverk tränats på stora delar av internet, inklusive stulna e-böcker och annat upphovsrättsskyddat material, har det svar på nästan alla frågor. Saknas ett svar löser den det också, med hallucinationer, vedertagen terminologi för när modellen far med osanning. Hallucinationer är inte en olyckshändelse utan en konsekvens av matematiken bakom generativa språkmodeller. De måste alltid producera nästa ord, även när säkert underlag saknas. Hallucinationerna kan minskas, men inte helt elimineras.
Modellen har inget tillförlitligt sätt att själv avgöra sanninghalt. Den saknar både förståelse och en intern kompass för korrekthet. I det vakuumet måste mottagaren ta över. Vi är dock själva skickliga på att tolka, välja ut och bekräfta det som passar vår egen bild, ett psykologiskt mönster kallat subjektiv validering (se också Forer-/Barnum-effekten).
Generella, plausibla utsagor kan kännas träffsäkra just för att vi själva fyller dem med mening. Och när vi har lagt tid på att formulera en fråga, eller byggt vidare på ett svar, förstärks intrycket: det känns mer värdefullt, mer genomtänkt, mer ”på riktigt”. Det uppstår en slags IKEA-effekt i tänkandet.
Hollis Robbins, professor i engelska vid University of Utah, beskriver i essän LLMs are lagging indicators, hur språkmodeller fungerar som konsensusarkiv, starka på det redan stabiliserade förflutna men sällan i framkant av kulturella skiften. Människan däremot, speciellt unga som ofta lever bland "rå och motsägelsefull data" på "kanterna av nätverk", har samtidskontakt och kan "upptäcka svaga signaler innan de har ett namn" – finna framtiden i bruset. Däri ligger det värdefulla, inte i ett förflutet som blir billigare och billigare.
Antropomorfismen, vår tendens att tillskriva mänskliga avsikter och känslor till icke-mänskliga ting, följer med in i tekniken. Bakom en sammanhängande språklig yta kan vi läsa in ett inre liv. Vi tycker oss skönja förståelse, empati eller intention.
Detta blev tydligt redan 1966, när Joseph Weizenbaum skapade ELIZA, ofta beskriven som en av de allra första AI-liknande dataprogrammen, utformad som en rogeriansk psykoterapeut. Weizenbaum blev chockad när hans egen sekreterare ville samtala med programmet i avskildhet, som om det fanns någon där.

Han beskrev senare ELIZA-effekten så här:
“What I had not realized is that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.”Källa: Joseph Weizenbaum, Computer Power and Human Reason: From Judgment to Calculation (San Francisco: W. H. Freeman, 1976). Läsbar som skannad bok här: Internet Archive
Weizenbaum blev på grund av dessa upplevelser en av de mest inflytelserika kritikerna av oreflekterad teknikoptimism och AI-ideologi. En aktivist för ansvarsfull och etisk datorisering. Han gick bort innan transformer-arkitekturen och dagens stora språkmodeller slog igenom.
I essän The LLMentalist Effect liknar den isländska författaren Baldur Bjarnason språkmodeller vid tankeläsare (mentalist). Precis som en tankeläsare använder cold reading – vaga påståenden med hög tolkningsfrihet, där mottagaren väljer den tolkning som passar och bortser från resten – producerar modellen språkligt sannolika svar som känns personliga och intelligenta. AI:n upplevs som förstående då den behärskar samma psykologiska grepp som bluffkonsten.

Systemet ger intryck av djup, men är bara en fasad. En övertygande yta utan något bakom. En stokastisk papegoja med potemkin-förståelse. Det vi upplever som intelligens är ett statistiskt trick. Den är tom, men ändå märkvärdigt effektiv.
Priset för själva genomförandet är nu ofta lågt, ibland nästan gratis, medan idéerna och urvalen fortfarande är dyra. När något känns gratis är det ofta bara för att kostnaden har flyttat: till energi, data, upphov, arbetsvillkor — och till vår uppmärksamhet. När utförandet blir billigt blir urvalet den verkliga kostnaden. Och om alla kan producera drunknar till slut smaken i bruset.
Fokus ligger här på hur språkmodeller påverkar tänkande och inlärning, hur trovärdighet och kommunikation förskjuts, samt vilka konsekvenser som uppstår för rättvisa, juridik, miljö och demokratiska processer.
Därutöver berörs effekter på arbetsplatsen, från förändrade arbetsroller och relationer till ökad alienation och press. Syftet är att synliggöra vissa mönster av förskjutningar av de mänskliga villkoren. Texten är på intet sätt djuplodande eller uttömmande. Utifrån en mindre riskinventering hoppas vi kunna dra slutsatser kring sunda arbetssätt.

Förståelse uppstår när slutsatser byggs upp genom ansträngning, prövning och internalisering. Vi behöver själva arbetsprocessen, inte resultatet. En maskin kan aldrig utföra denna internalisering åt oss.
Man brukar säga att skriva är att tänka. Inte som metafor, utan bokstavligt. Som Peter Naur, dansk datalogipionjär, formulerade det är arbetet med text eller kod ett teoribyggande, där förståelsen finns i människan och inte kan utvinnas enbart ur artefakten. När motståndet försvinner, när alternativa lösningar inte behöver övervägas och när arbetet outsourcas, riskerar tänkandet att sakta in.
LLM-svaren kan bli gatlyktans sken. De drar blicken dit det är lätt att söka och lätt att känna sig klar, även när nycklarna ligger någon annanstans, hos källor och egen prövning. Skenet bedrar när det snabba och snygga känns mer relevant än trögare vägar till sanning; en availability bias.
När modellen ofta räcker börjar den kännas som ett universalverktyg, en Maslows hammare. Då börjar vi vrida problemet tills det passar verktyget. Till slut optimerar vi kanske för det som är lätt att få fram istället för det som är viktigt.
När AI:n låter tvärsäker kan egen osäkerhet misstolkas som inkompetens. Då sjunker tilliten till det egna omdömet och vi får svårare att lokalisera vår okunskap och lättare att lämna över.
I samma anda som Naurs teoribyggande har vi Philip G. Armours teori om De fem nivåerna av okunskap. Om hur vi jobbar oss upp från den högsta nivån av okunskap, 4OI, till den lägsta, 0OI (Zero Order of Ignorance).
| 4OI | Meta-okunnighet — Du känner inte till själva modellen (”Five Orders of Ignorance”) och ser därför inte vilka sorters okunnighet som kan vara i spel. |
|---|---|
| 3OI | Saknar process — Du saknar en fungerande metod/process för att upptäcka och reducera din okunnighet (t.ex. hur du hittar luckorna). |
| 2OI | Okända okända — Du vet inte att du inte vet; du ser inte kunskapsluckan och ställer därför inte de frågor som behövs. Du är fast under gatlyktans sken. |
| 1OI | Kända okända — Du vet att du inte vet; du kan formulera rätt sorts frågor, söka rätt information och hitta hjälp. |
| 0OI | Inga okunnighetsproblem — Inget relevant kunskapsgap kvar i frågan; du vet vad du gör (i den här kontexten). |
Om AI används som en svarsmaskin kan en falsk känsla av att vi nått 0OI uppstå. LLM:er gör det särskilt billigt att svara på 1OI, kända okända. Tillsynes heltäckande och djupa svar kan också kamouflera 2OI, okända okända.
När AI serverar färdiga resonemang minskar utrymmet för egna upptäckter (jämför med 3OI). Lärande genom upptäckt ersätts av konsumtion av svar. Det som tidigare krävde tid, osäkerhet och frågor levereras nu utan friktion. Resultatet är minskat tålamod och en ytligare förståelse. Man vet vad, men inte hur.
Om vi, i stället för att uthärda osäkerhet och söka svar själva, rutinmässigt och tanklöst sträcker oss efter språkmodellen, ersätts förståelse med lagring (eller tomhet). I samma rörelse försvagas det kritiska tänkandet eftersom det inte längre tränas. Förmågan att hålla flera möjliga tolkningar i huvudet ersätts samtidigt av en vana att acceptera det första rimliga svaret.

Över tid riskerar detta att leda till fördumning. Knappast en intellektuell kollaps men väl en gradvis förflackning. Den som inte gjort arbetet själv saknar en mental karta för att orientera sig vidare. Jag gjorde det inte, men jag satte ihop det, skapar en känsla av ägande och förståelse som inte motsvaras av faktisk kompetens. Engagemanget minskar, samtidigt som självtilliten paradoxalt nog kan öka.
Svarens tyranni skapar ett beroende där reflektion upplevs som ineffektiv och nyfikenhet som onödig. Tystnad, tvekan och långsamhet blir störningsmoment. Samtidigt tystnar det mänskliga samtalet till en maskin som alltid svarar. Omedelbar belöning, individanpassning och känslan av flyt är svårt att motstå. AI fungerar då som digital skräpmat. Den mättar snabbt men ger lite näring.
Det uppstår lätt en falsk känsla av framsteg. När mycket händer runt omkring oss upplever vi rörelse som utveckling, trots att den egna förståelsen inte fördjupas. Studier visar till exempel att studenter som lyssnar på en karismatisk föreläsare ofta upplever sig ha lärt sig mer än de som ägnar sig åt aktivt, ansträngande självstudium, trots att tester visar det omvända. AI-assisterat arbete riskerar att förstärka samma illusion. Det känns som om det går fort, men det är aktiviteten som ökar, inte insikten eller resultaten.
Om priset för maskiner som förlänger människan är kroppslig förslappning, är då priset för artificiell intelligens mänsklig dumhet? Samtidigt har mindre fysiskt krävande arbete inte gjort oss entydigt svagare, utan möjliggjort ett bredare spektrum av fysisk förmåga. Vi får tid och ork att fäktas och dansa. Kanske gäller något liknande även kognitivt: att vissa färdigheter förtvinar, medan andra blir möjliga.
Steve Jobs kallade datorn en cykel för tanken, något som bär oss bortom våra förmågor. Nästa steg, människans synergi med språkmodeller, liknas ibland med en kentaur. Instrumentet nu förvandlat till människans återkopplande, integrerade enhet: närmare koppling, ännu längre räckvidd. Teknik- och digitalrättighetsaktivisten Cory Doctorow pratar istället om en omvänd kentaur (reverse-centaur), "en maskin assisterad av en människa förväntad att arbeta i maskinens takt" — gig-arbetare som styrs av algoritmer, lagerarbetare hos Amazon med handskannern som metronom, "meatspace workers" som hyr ut sig till AI på RentAHuman.ai eller språkmodeller som sätter rytmen, formar rösten, och gör människan till sin redaktör.
För att lyckas, och samtidigt vara lycklig, måste man vilja, kunna och äga. Råder oklarheter kring egen insats minskar eller uteblir tillfredsställelsen. Delegeras nyttiga ansträngningar förloras en chans till egen utveckling. I värsta fall uppstår självklandrande. I bästa fall: stolthet — men med en sur eftersmak för den samvetsgranne.
De vet mer än vi, är snabbare och behöver aldrig vila.
Används AI är det lätt att förhandla ner sitt eget bidrag.
Används inte AI kan arbetet kännas som en omväg. En snabb lösning är ju bara några knapptryckningar bort.
I samma ögonblick vi slutar äga kedjan av mål → ansträngning → måluppnåelse, ofta kallad maktprocessen (The Power Process), tappar vi också en stor del av belöningen. Avstår man helt riskerar man att tappa tempo och räckvidd – en känsla av att stå vid sidan kan infinna sig. I ett liv under denna paradox är risken för likgiltighet och tappad lust stor.
SOLO och Blooms (reviderade) taxonomier är etablerade och använda pedagogiska ramverk för att beskriva progression i lärande och förståelse. De används brett inom utbildning, bedömning och didaktisk design. De utgör två närliggande axlar. Bloom kan beskrivas som processen minnas → förstå → tillämpa → analysera → värdera → skapa och SOLO som förståelsekedjan förvirring → enkel → flera → helhet → abstraktion.
När AI tar över för mycket av “göra”-delen kan vi fortfarande producera mer — men vi tränar mindre på modellbygget och på att hitta egna kunskapsglapp. Förståelse, istället för att växa, glider oss ur händerna: mer innehåll, mindre ägarskap.
När AI används för att slipa på eller ersätta det skrivna ordet suddas gränsen ut mellan mänskligt uttryck och maskinell produktion. Texten kan vara korrekt, välformulerad och övertygande, men den bär inte längre samma tydliga avsändare. Det skrivna ordet försvagas när vi inte vet vem som står bakom, eller om någon alls gör det i meningsfull bemärkelse.
I Dan Arielys, Duke-professor i psykologi och beteendeekonomi, experiment med Lego, där deltagarna får se sina legoalster plockas sönder, syns en enkel (och självklar) mekanism: när arbetet upplevs som “utraderat” minskar viljan att fortsätta. Den effekten behöver inte bara handla om att någon plockar isär det du byggt; den kan lika gärna uppstå när andra mentalt plockar isär din insats. Om omgivningen antar att en maskin gjort grovjobbet blir din möda osynlig, och därmed också din belöning i form av erkännande och yrkesstolthet. Skrivandet börjar kännas som Sisyfosarbete. Även genuint skickligt arbete riskerar att mötas med ett tyst “jaja, ChatGPT...”.
Samtidigt uppstår en inflation i innehåll och en deflation i värde: fler texter, fler ord, fler sammanfattningar, sannolikt också fler fel; men allt mindre vikt på att tänka, formulera och stå för det man skriver. Slop och överflöd ökar. När produktionen av text och innehåll blir nästan kostnadsfri fylls det gemensamma rummet snabbt av det som är lättast att generera och konsumera. Kvalitet ersätts av kvantitet.
Det som är bekvämt och eftersökt får företräde framför det som är sant, originellt eller välgrundat. Det var i och för sig sant i denna sensationsdrivna värld redan innan språkmodellerna kom; men riskerar att bli än värre. I denna miljö förstärks stereotyper: formuleringar, perspektiv och tankemönster som redan är vanliga blir ännu vanligare, medan det avvikande och personliga jämnas ut. Vi får ett snävare tankelandskap.

När AI används som genväg i kommunikation kan mottagaren uppleva det respektlöst, som att tiden, uppmärksamheten eller mödan inte varit värd att investera. I andra fall tolkas det som lathet, brist på omdöme eller brist på faktisk förståelse bakom en välputsad yta. Det som var tänkt som hjälp riskerar därmed att signalera ointresse, oförmåga, respektlöshet eller ansvarsflykt. När detta blir vanligt utarmas det sociala kontraktet kring kunskap och arbete. Ansträngning och närvaro blir svårare att läsa ut ur det delade.
Vårt mimetiska beteende har vetenskapligt stöd även mot maskiner och ökar risken att den egna rösten tunnas ut. Sätt att uttrycka sig och ord som gärna används av språkmodeller anammas av oss. Ökad mänsklig användning av typiska maskinord har redan påvisats. Enligt René Girards teori mimetiskt begär leder dessutom imitation till konflikter och syndabockstänk. Vad innebär det i en tid med språkmodeller?
Insikter går förlorade när texter inte längre läses i sin helhet, utan filtreras genom sammanfattningar och parafraseringar. Samtidigt kan kompetens maskeras. När en fråga språkligt förstärks med hjälp av AI blir det svårare att bedöma frågeställarens faktiska nivå. Detta kan leda till förenklade svar även på avancerade problem.
Människor kan oskyldigt anklagas för AI-användning, eller misstänkliggöras just för att deras arbete liknar det maskinellt förväntade. Mönstret är att tidigare signaler för att tolka kunskap, förmåga och avsikt gradvis tappar sin tillförlitlighet.
Utvecklingen präglas av att nya kunskapsgränssnitt tränger undan tidigare. Förskjutningen påminner om när Encyclopædia Britannica trängdes undan av Wikipedia, men sker nu betydligt snabbare och med den ironiska följden att Wikipedia själv påverkas av samma mekanism när LLM:er nu levererar svar direkt utan att leda vidare till källan.
Även minimal AI-användning kontaminerar texten. Även om innehållet i sig inte är fel så införs en osäkerhet kring upphov. Detta är dock inte unikt för AI; även mänsklig hjälp förskjuter gränserna för författarskap. Skillnaden ligger i skalan och i ogenomskinligheten. I en miljö där AI är närvarande överallt blir full transparens ett ouppnåeligt ideal. Det enda helt säkra vore att inte använda AI alls. Ändå räcker inte ens det, eftersom frånvaron inte kan bevisas.
Affärsmodellen bakom stora språkmodeller bygger till stor del på systematisk insamling och exploatering av andras arbete, ofta utan samtycke, ersättning eller tydlig rättslig grund. Att detta i efterhand av företagen motiveras som ”fair use” förändrar inte det faktum att värde extraheras från upphovspersoner utan avtal. Många menar att det i praktiken liknar stöld.
Samtidigt är rättighetsläget för det som genereras oklart. Vem äger texten, bilden eller koden när modellen tränats på material som aldrig lagligen upplåtits? Denna oklarhet skapar ett rättsligt gränsland där ansvar löses upp, medan risker och kostnader ofta skjuts över på användare.
Språkmodeller utgör också ett hot mot demokrati och rättvisa. Många osäkra väljare kommer att vända sig till AI för vägledning i politiska frågor, inte minst därför att den upplevs som kunnig, neutral, rationell och tillgänglig. Men varje modell bär värderingar och inbyggda prioriteringar som ytterst kontrolleras av dess skapare och ägare.
Detta ger en orimlig koncentration av inflytande över åsiktsbildning, jämförbar med, men potentiellt kraftfullare än, tidigare skandaler kring riktad politisk påverkan via sociala medier (se Facebook och Cambridge Analytica inför valet 2016 i USA). Skillnaden är att påverkan nu sker i dialogform, anpassad till individen och svår att granska i efterhand.
Formen för påverkan behöver inte vara grov eller direkt. Slopaganda verkar genom överflöd, upprepning och subtil vinkling. Genom att forma det informationslandskap som användaren rör sig i påverkas också vilka beslut som framstår som rimliga eller möjliga. Denna påverkan är sällan binär utan sker gradvis. Makt förskjuts långsamt från individen till systemet, i takt med att omdöme, ansvar och initiativ externaliseras.

AI innebär också en omvälvning av arbetsmarknaden. Vissa yrken trängs undan, andra omformas, ofta snabbare än människor hinner anpassa sig. Samtidigt bygger systemen på arbete som sällan syns. För att filtrera bort våld, övergrepp och hat utsätts människor, ofta i låglöneländer, för extremt material under omänskliga villkor.
Därtill förstärks befintliga ojämlikheter genom att diskriminering och bias kan skalas upp, medan expertis, kapital och beslutsmakt koncentreras till en liten, icke-representativ grupp. Vinsterna privatiseras, kostnaderna socialiseras.
AI försvårar också arbetet med att nå klimatmål. Träning och drift av stora modeller kräver enorma mängder energi och vatten, ofta i konkurrens med andra samhällsbehov.
Samtidigt riskerar fokuset på hypotetiska existentiella hot från framtida AGI att skymma de mer konkreta och akuta problem som redan är här. När beslut delegeras till system som upplevs som för komplexa för att ifrågasättas försvåras möjligheten att ingripa eller stänga av. Ansvar ersätts av hänvisningar till teknisk nödvändighet.
Till sist finns frågan om spårning och kontroll. AI-företag samlar inte bara våra texter, de kartlägger också våra preferenser och sätt att tänka. I takt med att fler funktioner medieras genom dessa system växer en detaljerad bild av vilka vi är. Denna kunskap koncentreras till ett fåtal aktörer och kan i framtiden missbrukas både politiskt och ekonomiskt. Resultatet är en förskjutning mot centraliserad makt och en starkare teknokrati, där demokratiskt inflytande försvagas just där systemen blir som mest avgörande.
Förutom rena förlorade tjänster sker en tystare förskjutning, där roller urlakas och yrkesskicklighet ersätts av verktygsanvändning. När verktyg som påstås förstärka mänsklig förmåga i praktiken ersätter centrala moment i arbetet försvagas känslan av förmåga, ägande och ansvar. Arbetet blir något man övervakar snarare än utför.
Samtidigt uppstår en tvingad anpassning. Den som inte använder verktygen hamnar snabbt på efterkälken, inte nödvändigtvis för att arbetet blir sämre, utan för att tempot och förväntningarna sätts av tekniken. Precis som få är villiga att betala extra för en hantverkare som inte nyttjar elektriska verktyg kommer få att betala mer för AI-fri programvara.
Då stora delar av arbetet lämnas över till AI blir djup institutionell kunskap, tyst kunskap, omdöme, förmågan att analysera samt färdigheterna att samarbeta med AI allt viktigare. Personer med lång och djup erfarenhet kan ha en närmast övernaturlig förmåga att snabbt se vad som fungerar och hur något bör genomföras. Denna systemförståelse kräver internaliserad kunskap och djup förståelse. Erfarna professionella kommer att få ännu större konkurrensfördelar än i dag — då AI ger en hävstångseffekt som ökar klyftan gentemot mindre erfarna. Språkmodellerna kan ännu inte ersätta de mest kompetenta. AI-företagen betalar fortfarande dyrt för talanger, deras egna språkmodeller räcker inte till.
Om slop cirkulerar i organisationen uppstår också sociala friktioner. En kompispassning av AI-genererat material sätter mottagaren i en obekväm situation. Ska kollegan ifrågasätta, korrigera eller lägga tid på att reda ut vad som faktiskt håller? Polerade formuleringar kan dölja brister, vilket flyttar ansträngningen från avsändaren till mottagaren.
Brandolinis lag säger att det krävs avsevärt mer energi att bemöta och motbevisa nonsens än att producera det. Problemet uppstår inom vitt skilda områden, patienten som vägrar medicin p.g.a. hallucinerad bieffekt, matematikstudentens till ytan polerade bevis, i själva verket fullt av inkonsekvenser, eller projektet med öppen källkod som bombaderas av AI-genererade och ofta felaktiga lösningar i hopp om en bug-bounty (Death by thousand slops, video och The end of the curl bug-bounty).
Samtidigt riskerar den dagliga användningen av AI öka den sociala isoleringen på jobbet. När problemlösning, bollande och stöd flyttas från kollegiala samtal till individuella dialoger med en maskin minskar de mänskliga kontaktytorna. AI:n erbjuder omedelbar respons, bekräftelse och känslan av kompetens. Tröskeln för att ”bara fråga modellen” blir låg, medan tröskeln för att be en kollega om hjälp höjs. På sikt riskerar detta att urholka både det kritiska tänkandet och de sociala strukturer som gör arbete meningsfullt och hållbart.
Experter som använder AI inom sitt område är förvånade över hur ofta det blir fel. Deras bakgrund ger dem förutsättningar att upptäcka felen. Samma expert har begränsade möjligheter att verfiera AI-svar inom andra områden. Samtidigt är AI en tröskelsänkare, den gör områden och problem tidigare utom räckhåll nåbara.
Energisnåla lampor gjorde ljus billigare, då skaffade vi mer ljus. På samma sätt leder kraftfullare arbetsverktyg sällan till mindre arbete, utan till högre tempo, ökade krav och tätare konkurrens. Jevons paradox gäller alltså även här. När produktiviteten ökar justeras normen uppåt. Det som nyss var imponerande blir snabbt förväntat. Resultatet blir att allt mer krävs av arbetaren.
Programmerare rapporterar att arbetet med AI-stöd gör dem mer utmattade än utan. Fler uppgifter per dag ger fler kostsamma kontextbyten. Samma problematik uppstår inom andra yrken. En reducerad produktionskostnad till priset av ökade kostnader för koordinering, granskning och beslutstagande. Vilka alla helt faller på människan.
Skapande och granskande är psykologiskt olika lägen. Kreativitet beskrivs ofta som generativ fas (idéproduktion) och evaluativ fas (bedömning/urval). Skapande tenderar att ge energi och “drar in dig” (flow). Evaluering/granskning känns oftare dränerande på grund av tätare val och jämförelser (decision fatigue/evaluation apprehension). AI-stöd kan flytta tyngdpunkten från skapande till granskning, och därmed göra arbetet mindre energigivande.
Följande arbetssätt har byggts utifrån tidigare identifierade risker. Några övergripande metoder adresserar tillsammans de vanligaste riskerna.
TRANSP-principen ger generella förhållningssätt med en enkel minnesregel. Avsnittet Arbetskontext rekommenderar högsta lämpliga AI-inblandning i varje arbetsfas för olika kategorier av textarbete. När och hur? — Tre grafer tittar på när AI inte bör användas utifrån lärandebehov, risk- och sanningsförhållanden, där dimensioner så som nytta och okunskap jämförs. Tillsammans täcker dessa principer, tillämpning och beslutsstöd.
Alternativet är att bara köra på: låta AI vara med överallt och slippa regler, nivåer och faser. Det kanske är snabbast och känns enklast. Men priset är att man samtidigt ger upp en hel del kontroll: riskerna blir en del av arbetsmetoden, avsändaren blir mer oklar, det blir också svårare att veta vad som faktiskt är ditt eget arbete.

En miniräknare ökar inte kreativiteten, men den frigör resurser som kan användas för kreativitet.
TRANSP-principen sammanfattar ett försiktigt och ansvarsfullt förhållningssätt till AI-användning. Principerna är inte tänkta som detaljerade regler eller en fullständig etisk kod, men väl praktiska riktlinjer för att minska kända risker. De adresserar frågor om trovärdighet, ansvar, kognitiv påverkan och maktförskjutning, och syftar till att behålla mänskligt omdöme, förståelse och ansvar även när kraftfulla verktyg används.
| Princip | Syfte / Riskreduktion |
|---|---|
| Transparens | Redovisa om, hur och i vilken omfattning AI har använts. |
| Respekt | Visa respekt för källor, mottagare, upphovsrätt och licenser. |
| Ansvar | Ta ansvar för innehållets korrekthet och konsekvenser. Ta ansvar för din egen okunskap, dela inte resultat du inte förstår. |
| Nonsens | Var vaksam mot hallucinationer, fel och skenbar kvalitet. |
| Självständighet | Bevara din egen röst, ditt omdöme och din förståelse. |
| Pilot | Du är piloten. Behåll kontrollen. AI ska assistera, inte styra. Instruera: ingen känsloemulering. Om den kommer, ignorera den. |
Var tydlig med om, hur och i vilken omfattning AI har använts. Transparens minskar risken för felaktiga tolkningar och urholkad tillit.
Visa respekt för källor, upphovspersoner och mottagare. AI får inte användas som en genväg runt upphovsrätt, licenser eller mänsklig möda. Undvik att använda AI som proxy för arbete, förståelse eller omdöme som egentligen förväntas av dig själv.
Du är ansvarig för det du presenterar, oavsett om AI varit inblandad eller inte. Att något är maskinellt genererat befriar inte från ansvar för korrekthet, rimlighet eller konsekvenser. Användning av AI får aldrig bli ett sätt att skjuta över ansvar på ett system. Endast med stor försiktighet, och när verifiering är möjlig, bör genererande AI användas inom obekanta områden.
Du måste också ta ansvar för dina egna begränsningar och din okunskap. Förmedla inte resultat du inte förstår. Detta är skadligt både för dig själv och mottagaren.
Var vaksam mot hallucinationer, slop och skenbar kvalitet. AI-genererat innehåll kan låta övertygande utan att vara korrekt eller relevant. Ju lättare det är att producera innehåll, desto större ansvar ligger på dig att granska, ifrågasätta och förkasta.
Bevara din egen röst, ditt omdöme och din kompetens över tid. Använd inte AI på ett sätt som ersätter det tänkande du bör utveckla själv. Instruera AI:n att vara saklig och avstå från känsloemulering; om den ändå smyger in, ignorera den.
Detta handlar inte om vem som styr verktyget, utan om vad verktyget gör med dig.
Behåll operativ kontroll. AI ska assistera, inte styra. Du ansvarar för riktning, beslut och slutligt resultat. Håll hårt i kopplet.
Detta handlar inte om vem du är som tänkare, utan om vem som fattar beslutet.

Här är exempel på arbetskontexter och en enkel rekommendation för vilka arbetsfaser och autonominivåer (A0–A4) som kan vara rimliga.
Autonominivåer A0–A4 beskriver hur AI används – från ingen inblandning till full delegering.
| Nivå | Kort sammanfattning |
|---|---|
| A0 | Helt AI-fritt. |
| A1, A1s | AI som källa/uppslag: fakta. Tänk lexikon/böcker/andra källor. |
| A2, A2s | AI som responsiv expert som kommenterar och utvärderar dina idéer. |
| A3 | Genererar förslag (idéer, argument, disposition) och kan styra riktning. |
| A4 | Delegation: AI levererar färdiga resultat. |
| -s | Språkhjälp som kan skriva om meningar och påverka uttryck och röst. |
Mer utförliga definitioner och gränsdragningar finns längre ner i avsnittet Autonominivåer.
Arbetskontexterna kan ofta delas upp i två grundlägen:
Människan skriver (AI research-only):
AI används som källa/handledare (A1–A2), men själva formuleringen och avslutet är AI-fritt (A0). Eventuell feedback sker som A2 utan omskrivning.
AI producerar under grindar (verifierbart):
AI kan generera förslag, utkast eller färdiga lösningar (A3–A4), men endast där resultatet kan testas/granskas. Människan avslutar genom verifiering och beslut.
Några vanliga arbetskontexter är:
Källfas A1–A2 → Eget försök A0 → Feedback på ditt resultat A2
AI efteråt, på ditt försök. Undvik A3–A4 före, eftersom det kortsluter skriv- och tänkträningen.
Källfas A1–A2 → Skrivfas A0 → Faktakoll A1
Research-only i praktiken: A1 för uppslag/ord/terminologi, A2 för “intervju/expert”. Inget språkstöd (A1s, A2s) i skrivfasen.
Källfas A1 (ev. A2 sparsamt) → Skrivfas A0
Röstkänsligt. Språkstöd A1s–A2s riskerar röstfärgning även om målet bara är “snyggare språk”.
Underlag/uppslag A1–A2 → Utkast A3–A4 (om verifierbart) → Verifiering A0 → Språkpolish A1s
A3–A4 kan vara effektivt om varje påstående går att testa. A3 sist är ofta okej, men granska att innehållet inte förändras.
Källfas A1–A2 → Struktur/avvägning A2 → Formulering A0 (ev. A1s mycket restriktivt)
Hög insats. Undvik A3–A4: AI-genererade upplägg kan bära dolda antaganden. Om A1s: endast minimal språkvård, aldrig omskrivning som kan ändra juridisk innebörd.
Insamling A0 → Strukturering A2 → Sluttext A0 (ev. A1s vid låg insats)
A2 funkar som “sakexpert” för att hitta luckor och otydligheter. Om A1s används: begränsa till språkvård och kontrollera att betydelsen inte glider.
Översätt A4 → Betydelsekontroll A0 → Faktakoll (vid behov) A1
Översättning är en leverans av en ny text och hamnar därför på A4. Mänsklig kontroll behövs för ton, facktermer, implikationer och att inget “småglider”.
Granska/förbättra språk A1s → Slutkontroll A0 → Faktakoll (vid behov) A1
Språkstöd A1s passar när du vill förbättra flyt, stavning och formuleringar men själv behålla innehåll, (röst) och slutansvar.
Underlag/design: A2–A3 → Kod: A3 (ev. A4 i små isolerade bitar) → Test/CI/Review: A0–A2
A4 endast där du har hårda skyddsräcken (tester, kodgranskning, statisk analys) och begränsad “blast radius”.
Underlag/design A1–A2 → Kod max A3 → Slutgrind A0
Hög insats + svår verifiering. A4 bör i praktiken vara “nej”, eller starkt begränsat och granskat.
Idé/alternativ A3 → Kodproduktion A4 → Review/felsök A2 → Slutval A0
“Generativ-A4” är rimligt här. Behåll en mänsklig grind: kör, mät, testa och förstå vad som skeppas.
Rekommendationerna anger maxnivå per fas; lägre nivå är alltid ok.
Gäller främst i: lärande/studier, källfas i skrivprojekt, samt tidig analys/design.
Typiskt: A1–A2 (ibland A1s som ren språkvård i låg-insats-sammanhang).
Ej avsett för: skrivfas i “research-only” (A0), eller när du uttryckligen vill undvika röstfärgning.
För att kunna lära sig något krävs tillgång till information och möjlighet att ställa frågor (även en bok kan svara på frågor). Ofta ger tillgång till en kunnig handledare snabbare lärande (Nickow, Oreopoulos & Quan 2020)1. I den meningen kan AI fungera som en ovanligt tillgänglig kunskapsresurs, med räckvidd över många områden och med tålamod att svara på frågor om och om igen. Använda på rätt sätt kan språkmodeller sänka trösklar och ge stöd.
Skillnaden ligger i rollen vi tilldelar systemet. När AI används som lärare snarare än ersättare, som samtalspartner snarare än leverantör av färdiga svar, kan den förstärka lärande i stället för att underminera det. Förutsättningen är att ansträngningen, frågorna och slutsatserna förblir våra egna. Att vi använder verktyget för att utmana vårt tänkande, inte för att kringgå det. I lärandekontext vill vi normalt undvika A3–A4, eftersom de ersätter tänkande.
Eftersom även A1–A2 kan ge fel behöver man metoder för validering. Det kan vara att undersöka källor, skapa tester till ett program, etc. Se senare avsnitt.

Nedan exempel på instruktioner för att styra mot förståelse. Bäst är att skriva egna instruktioner. Lägg in kontraktets text i din LLM:s inställningar för anpassade instruktioner / systeminstruktioner (namnet varierar mellan tjänster). Användbart när du använder AI som lärare/expert (A1–A2), särskilt i lärandekontext eller källfas.
| Kontrakt | Syfte |
|---|---|
| Förståelsekontrakt FÖRSTÅELSE_KONTRAKT.md | Styr modellen mot aktivt lärande: frågor, resonemang, antaganden och validering; snarare än genvägar och kopiera/klistra. (AI-genererat kontrakt) |
Dessa tre grafer kan, utifrån perspektiven lärande, risk och sanning, underlätta att svara på om och hur AI bör användas.
Graf I – lärande
nytta × okunskap
När bör du avstå AI för att lära?
Graf II – risk
komplexitet × reversibilitet
Hur försiktig måste du vara?
Graf III – sanning
verifierbarhet × tolkningsfrihet
Hur mycket kan vi lita på resultatet?
AI:s roll ska inte bestämmas av dess kapacitet. Det ledsagande är vad situationen kräver av dig i form av lärande, ansvar och omdöme.
nytta × okunskap
Beskriver hur varaktig personlig nytta du kan få av att själv lösa problemet, givet din nuvarande okunskap.
Nyckelinsikt: där hög nytta sammanfaller med hög okunskap finns maximal lärandepotential – och där bör AI hållas tillbaka.
Avstå AI där den kortsluter lärande som ger varaktig nytta. AI får vara stödjande (frågor, struktur), inte lösande.
| Låg okunskap | Hög okunskap | |
|---|---|---|
| Hög nytta | Kör på AI som accelerator • Snabba varianter • Påminnelser, checklistor • Kvalitetsgranskning Du kan redan detta – AI sparar tid utan att urholka förståelsen. | Bromsa AI hålls tillbaka • Lös själv först • Använd AI efteråt för jämförelse Här byggs förståelse som du kommer att ha nytta av. |
| Låg nytta | Kör på AI fritt tillåten • Automatisera • Outsourca rutinuppgifter Varken lärande eller kvalitet står på spel. | Kör på AI som genväg • Sammanfattningar • Snabba svar Ingen större förlust om förståelsen blir ytlig. |
komplexitet × reversibilitet
Beskriver hur dyrt det är att ha fel, givet problemets komplexitet och möjligheten att backa eller rätta.
Nyckelinsikt: komplexa problem är inte farliga i sig – det är irreversibla misstag som är farliga.
Ju mindre reversibelt ett problem är, desto mer måste AI:s roll begränsas till stöd och granskning. AI kan generera förslag när misstag är billiga, men ska aldrig ensam driva beslut när de är dyra.
| Låg reversibilitet (dyrt att ha fel) | Hög reversibilitet (lätt att backa) | |
|---|---|---|
| Hög komplexitet | Bromsa AI som granskare • Identifiera risker • Föreslå testfall • Peka på okända antaganden Människan behåller beslutsmakten. | Kör på AI som experimentmotor • Generera idéer • Utforska alternativ • “Tänk om?”-resonemang Lärande genom snabb återkoppling. |
| Låg komplexitet | Försiktigt AI med försiktighet • Endast dubbelkontroll • Aldrig som ensam källa Fel är dyra även om uppgiften är enkel. | Kör på AI fritt tillåten • Automatisering • Snabba lösningar Billiga misstag, låg friktion. |
verifierbarhet × tolkningsfrihet
Beskriver i vilken grad du kan avgöra om en lösning är korrekt, och hur mycket som bygger på omdöme snarare än entydiga kriterier.
Tolkningsfrihet är att veta var pilen ska träffa; verifierbarhet är att se var pilen träffade.
Nyckelinsikt: det farligaste läget är inte när AI har fel, utan när du inte kan veta om den har fel.
AI får aldrig ha större epistemisk auktoritet än din egen förmåga att avgöra om något är sant eller rimligt. I lågt verifierbara sammanhang ska AI vara samtalspartner, inte avsändare.
| Låg tolkningsfrihet (rätt/fel tydligt) | Hög tolkningsfrihet (omdöme, värdering) | |
|---|---|---|
| Hög verifierbarhet | Kör på AI som problemlösare • Generera lösningar • Optimera • Debugga Du kan själv avgöra om svaret är korrekt. | Försiktigt AI som hypotesgenerator • Visa alternativa tolkningar • Synliggöra antaganden AI breddar men avgör inte. |
| Låg verifierbarhet | Försiktigt AI som checklistverktyg • Vad kan gå fel? • Vilka antaganden görs? Hög risk för skenbar korrekthet. | Bromsa AI som samtalspartner • Spegla resonemang • Ställa frågor AI får aldrig vara avsändare. |
Eftersom AI kan ha fel behövs verifiering. Här är tre enkla standardverktyg som passar olika typer av innehåll:
Källkontroll
Passar för fakta och påståenden. Gå till primärkälla, eller bekräfta via två oberoende källor.
Test
Passar för kod, beräkningar och instruktioner. Kör tester, prova specialfall, mät och jämför mot förväntat beteende.
Motfrågor
Passar för resonemang, argument och slutsatser. Leta motexempel, synliggör antaganden och pröva alternativa tolkningar.
Verifierbarhet styr också vilken autonominivå som är rimlig: ju svårare att kontrollera, desto lägre maxnivå.
Några återkommande sätt som AI-användning kan gå snett, även när man har goda intentioner:
A2 blir “auktoritet”
Man slutar ifrågasätta eftersom svaret låter kunnigt och sammanhängande. Motmedel: ställ motfrågor och kräv verifiering.
A1s slipar bort röst och nyanser
Språkhjälp kan jämna ut idiolekt och subtila poänger. Motmedel: använd A1s restriktivt och jämför mot originalformuleringen.
A3 flyttar problemformuleringen
Förslag kan smyga in nya mål, antaganden eller prioriteringar utan att det märks. Motmedel: skriv egen problemformulering först och granska vilka antaganden som ändrats.
A4 ger “kompetensillusion”
Resultatet kan fungera, men förståelsen och ägarskapet uteblir. Motmedel: kräva test, egen genomgång och att du kan förklara lösningen utan AI.
Metoder för att begränsa AI-användning och vårda hjärnan.
AI-deklarationen redovisar kortfattat till vilken grad AI har använts.
| Nivå | Betydelse |
|---|---|
| A0 AI-fri | Ingen AI. |
| A1, A1s källa | Källa/uppslagsverk. |
| A2, A2s expert | Responsiv expert: frågor, bedömning, utvärdering av dina idéer. |
| A3 förslag | Genererar innehållsliga förslag: idéer, argument, disposition. |
| A4 utförare | Utförare: levererar färdiga resultat. Text/kod/bild. |
| -s språkhjälp | Omskrivning av meningar/stycken: kan påverka röst, normalt ej innebörd. |
AI-fri (A0)
https://ai-transparens.se/deklarationKällor A2 expert · Text AI-fri
https://ai-transparens.se/deklarationKällor A2 expert · Text endast A3 språkhjälp
https://ai-transparens.se/deklarationKällor A2 expert · Text A4 förslag
https://ai-transparens.se/deklarationKod A4 förslag · Verifiering AI-fri
https://ai-transparens.se/deklarationKod A5 delegering · Verifiering AI-fri
https://ai-transparens.se/deklarationEn deklaration kan t.ex. placeras i en mejlfot.
Här beskrivs AI-autonominivå, en gradering av hur stor del av tänkande och ansvar som överlåts till AI i en uppgift.
| Nivå | Kort beskrivning | Ansvar & risk |
|---|---|---|
| AI-fri A0 fri | Ingen hjälp från AI. | Lägst risk. |
| A1, A1s källa Informationsassistent | Slår upp och återger befintlig information. Jämförbart med lexikon/böcker. | Låg risk. Fel kan förekomma men är oftast lätta att upptäcka. |
| A2, A2s initiativ responsivt Expert | Reagerar på och utvärderar användarens idéer, resonemang eller utkast. Jämförbart med att fråga/intervjua en kunnig kollega eller expert | Låg/måttlig risk. AI:n kan påverka riktning och bedömningar, men användaren fattar besluten. |
| A3 initiativ generativt Förslagsgivare | Genererar innehållsliga förslag: idéer, dispositioner, argument, angreppssätt eller lösningsalternativ. Jämförbart med att be någon annan lägga fram förslag – du väljer, väger och förkastar. | Förhöjd risk. AI:n kan styra problemformulering, prioriteringar och slutsatser. Risk för “falsk rimlighet” och att ditt tänkande ersätts delvis. Användaren ansvarar för urval, verifiering och slutlig formulering. |
| A4 delegation Utförare | Utför hela uppgifter självständigt och levererar färdiga produkter (t.ex. texter eller källkod). | Hög risk. Utförande och detaljer överlåts till AI:n; användaren ansvarar för granskning. |
| -s responsivt (generativt) Språkhjälp | Ger språklig hjälp (inkl. omskrivning): stavning, ordval, grammatik, flyt. Omskrivning av meningar/stycken. | Måttlig risk. Risk för röstfärgning, minskad skrivträning, subtilt ändrad betydelse. Men användaren har fortfarande full kontroll och ansvar. |
Skillnaden mellan nivåerna handlar inte om huruvida AI:n ”agerar”. De handlar om graden av initiativ och delegering – från reaktivt stöd, via kognitivt initiativ, till fullständigt utförandeansvar.
Riskerna ökar med högre nivåer. Inom nivåerna A1–A2 är riskerna låga. Upp till och med A2/A2s är det fortfarande användaren som gör huvuddelen av arbetet och behåller kontrollen.
Arbete med AI innebär ofta att man rör sig mellan nivåer. I slutändan är det dock alltid användaren som avgör graden av överlämnande.
Indelningen kan jämföras med SAE-nivåerna för självkörande fordon, där fokus ligger på när ansvar och kontroll gradvis övergår från människa till system. På motsvarande sätt beskriver denna modell ökande kognitivt initiativ och delegation till AI.
Skillnaden mellan A2 och A3:| Dimension | A2 | A3 |
|---|---|---|
| Utgångspunkt | Användarens idéer | Problemet i sig |
| Initiativ | Responsivt | Generativt |
| Struktur | Följer användarens | Skapar egen |
| Ägarskap | Användaren | Delat (börjar glida) |
För kännetecken som kan avslöja om en text är AI-skriven, se t.ex. Hollis Robbins, Tom White (White Noise) eller verktyget Unaiify.
Texten har vuxit fram under det senaste året i flera omgångar, genom ett iterativt arbete, till största delen helt för hand, med formuleringar och perspektiv. Urval, läsning och tolkning av artiklar har gjorts utan AI-stöd, liksom kategorisering och strukturering av riskerna, deras fokus och innehåll, samt kopplingar och övergångar mellan dem. TRANSP-principerna (som bygger på riskerna), autonominivåerna, idéerna kring deklarationen och arbetskontexten, samt de tre graferna är också framtagna utan AI.
Språkmodeller har använts i begränsad omfattning för viss informationssökning, för att pröva resonemang och ibland för granskning. De har använts för att hitta synonymer, närliggande termer och kopplingar till etablerade idéer (t.ex. Five Orders of Ignorance). Undantagsvis har de också gett råd om ton (mindre dömande, mer subtilt), rytm och grad av agentivitet (t.ex. hitta mer passiva formuleringar).
Det jag inte kan skapa [själv], kan jag inte förstå.