AI—transparens

Se ai-fri.se för märkning av AI-fritt innehåll.

De är tomma men ändå märkvärdigt effektiva. Samtidigt fulla av risker och skadliga konsekvenser. Kan eller vill man inte avstå presenteras här också arbetssätt som försöker minska riskerna.

Bild: En jägare kämpar liggande i snön medan en spöklik gestalt går därifrån; mörk, desorienterande stämning.
The Phantom Hunter (1888) – William Blair Bruce. Public domain. *

Felaktigt använda och vi kan urholkas — bländade inför maskinens glans. Riskera att hamna i en mental dunkelflaute; en glidning in i förståelsens skugga och tankens stiltje. Rätt använda och de sägs kunna spinna upp en mental medvind. Det handlar då inte om ersättning, utan om förstärkning, framväxten av en människa med utvidgad mental räckvidd.

Utan äkta förståelse genom egen ansträngning är klarheten oprövad och spröd. Kanske klarar man uppgiften, men förmågan att generalisera den saknas. Man kan svara på vad, men inte på hur.

AI kan redan "tänka" åt oss. Vi ser hur överlämningen smyger sig på inom vitt skilda områden. Samtidigt som världen blir varmare, kan vi behöva rädda oss själva från att glida in i en mental dunkelflaute, eller ännu värre, en mental istid.

I denna text introduceras TRANSP-principen, ett arbetssätt för öppen och ansvarsfull AI-produktion, AI-autonominivå, en gradering av hur stor del av tänkande och ansvar som överlåts till AI, samt AI-deklaration, ett kort redovisningssätt för AI-användning och autonominivå, till exempel i mejlfot.

AI transparency brukar syfta på insyn i systemets uppbyggnad och träning. I den här texten syftar vi i första hand på användarens öppenhet kring sin egen AI-användning.

Öppenhet och ansvar vid AI-användning

Vi har ett ansvar att ange källor, också nu när källan allt oftare är en maskin. Utan transparens eroderar trovärdigheten och förvirring kan uppstå kring vem som står bakom innehållet.

AI-deklaration

Nivå A1-A2 (begränsat responsivt stöd)
För denna text har AI använts för viss informationssökning (t.ex. hitta källor/begrepp) och för att pröva resonemang. I mindre omfattning även som språkassistent och ibland som granskare. Initiativ, avgränsningar och ställningstaganden är oftast baserade på artiklar och böcker som jag läst utan AI-stöd. Idéer kring autonominivå, deklaration och arbetssätt är egna.
För CSS och sidans grafiska form har A3/A4 använts (endast layout/implementation).

Statistisk illusion, inte intelligens

Stora språkmodeller, LLM:er, är en gren inom AI-området maskininlärning med avsikt att bearbeta och generera mänskligt språk. En LLM består av ett djupt neuralt nätverk, en matematisk modell inspirerad av hjärnans neuroner, där noder är sammanlänkade med kopplingar av olika styrka (vikter) för att uppskatta hur språk brukar fortsätta.

När man säger att modellen tränas, är det vikterna som justeras. Och som de har tränats, på enorma informationsmängder, bland annat stora delar av internet, tidningar, böcker, videor och bilder. Många gånger även på upphovsrättsskyddat material.


Bild: Detaljerad och komplex schematisk bild beskriver funktionella och ekonomiska samband vid träning och användning av stora språkmodeller.
Källa: Cartography of generative AI (2024) – Estampa – cartography-of-generative-ai.net – Klicka på bild för fullständig kartografi som länkad svensk pdf (8 Mb)

För att modellerna inte ska bete sig illa behövs mänskligt RLHF-arbete, Reinforcement Learning from Human Feedback, där individer tränar upp ett digitalt innehållsfilter. Lågavlönade arbetare från bland annat Kenya granskar och märker hat, desinformation, våld och övergrepp, extremt material modellen tränats på men inte får visa. Det växande träningsmaterialet gjorde att man fick överge filtrering av indata och istället förlita sig på RLHF. Denna mänskliga sköld tjänar så lite som 1-2 USD per timme.

Givet en prompt, alltså frågor eller innehåll från en användare, svarar LLM:en med den statistiskt mest sannolika fortsättningen. Detta kallas autoregression. Den gör det med en token i taget, där en token oftast är ett ord eller annan liten enhet. Token läggs till aktuell text, vilken i sin tur skickas in i LLM:en på nytt. Genom att upprepa proceduren många gånger byggs det fullständiga svaret upp, ett ord i taget.

Bild: En alkemist upptäcker fosfor.
The Alchemist Discovering Phosphorus (1771) – Joseph Wright of Derby. Public domain.

Den som använt ordbehandlare eller e-postprogram sedan 1990-talet känner igen autokomplettering: verktyget som föreslår hur texten kan fortsätta. Det görs genom uppslag i ordlistor eller med fasta regler. Med god vilja kan man säga att moderna språkmodeller bygger på samma grundprincip, men med ”listor” (läs: nätverk) som i praktiken består av inlärda mönster.

Hur fortsättningen väljs är alltså statistisk. Genom att tillåta ett visst mått av slump, temperatur, i valet av nästa token blir resultatet mindre deterministiskt och mer varierat, eller ska vi säga kreativt.

Eftersom nätverk tränats på stora delar av internet, inklusive stulna e-böcker och annat upphovsrättsskyddat material, har det svar på nästan alla frågor. Saknas ett svar löser den det också, med hallucinationer, vedertagen terminologi för när modellen far med osanning. Hallucinationer är inte en olyckshändelse utan en konsekvens av matematiken bakom generativa språkmodeller. De måste alltid producera nästa ord, även när säkert underlag saknas. Hallucinationerna kan minskas, men inte helt elimineras.

Modellen har inget tillförlitligt sätt att själv avgöra sanninghalt. Den saknar både förståelse och en intern kompass för korrekthet. I det vakuumet måste mottagaren ta över. Vi är dock själva skickliga på att tolka, välja ut och bekräfta det som passar vår egen bild, ett psykologiskt mönster kallat subjektiv validering (se också Forer-/Barnum-effekten).

Generella, plausibla utsagor kan kännas träffsäkra just för att vi själva fyller dem med mening. Och när vi har lagt tid på att formulera en fråga, eller byggt vidare på ett svar, förstärks intrycket: det känns mer värdefullt, mer genomtänkt, mer ”på riktigt”. Det uppstår en slags IKEA-effekt i tänkandet.

Hollis Robbins, professor i engelska vid University of Utah, beskriver i essän LLMs are lagging indicators, hur språkmodeller fungerar som konsensusarkiv, starka på det redan stabiliserade förflutna men sällan i framkant av kulturella skiften. Människan däremot, speciellt unga som ofta lever bland "rå och motsägelsefull data""kanterna av nätverk", har samtidskontakt och kan "upptäcka svaga signaler innan de har ett namn" – finna framtiden i bruset. Däri ligger det värdefulla, inte i ett förflutet som blir billigare och billigare.

Antropomorfismen, vår tendens att tillskriva mänskliga avsikter och känslor till icke-mänskliga ting, följer med in i tekniken. Bakom en sammanhängande språklig yta kan vi läsa in ett inre liv. Vi tycker oss skönja förståelse, empati eller intention.

Detta blev tydligt redan 1966, när Joseph Weizenbaum skapade ELIZA, ofta beskriven som en av de allra första AI-liknande dataprogrammen, utformad som en rogeriansk psykoterapeut. Weizenbaum blev chockad när hans egen sekreterare ville samtala med programmet i avskildhet, som om det fanns någon där.

Bild: Joseph Weizenbaum porträtt
Joseph Weizenbaum – Källa: Ulrich Hansen, Germany (Journalist)., CC BY-SA 3.0 via Wikimedia Commons

Han beskrev senare ELIZA-effekten så här:

”Vad jag inte hade insett är att ytterst korta kontakter med ett relativt enkelt datorprogram kan framkalla starka villfarelser hos helt normala människor.”
— Joseph Weizenbaum (övers. Mats Dannewitz Linder), Datorkraft och mänskligt förnuft, Centraltryckeriet AB, Borås 1985, s. 21 (första stycket)
“What I had not realized is that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.”

Källa: Joseph Weizenbaum, Computer Power and Human Reason: From Judgment to Calculation (San Francisco: W. H. Freeman, 1976). Läsbar som skannad bok här: Internet Archive

Weizenbaum blev på grund av dessa upplevelser en av de mest inflytelserika kritikerna av oreflekterad teknikoptimism och AI-ideologi. En aktivist för ansvarsfull och etisk datorisering. Han gick bort innan transformer-arkitekturen och dagens stora språkmodeller slog igenom.

I essän The LLMentalist Effect liknar den isländska författaren Baldur Bjarnason språkmodeller vid tankeläsare (mentalist). Precis som en tankeläsare använder cold reading – vaga påståenden med hög tolkningsfrihet, där mottagaren väljer den tolkning som passar och bortser från resten – producerar modellen språkligt sannolika svar som känns personliga och intelligenta. AI:n upplevs som förstående då den behärskar samma psykologiska grepp som bluffkonsten.

Bild: En flygande matta.
Flying Carpet (1880) – Viktor Mihailovitš Vasnetsov. Public domain.

Systemet ger intryck av djup, men är bara en fasad. En övertygande yta utan något bakom. En stokastisk papegoja med potemkin-förståelse. Det vi upplever som intelligens är ett statistiskt trick. Den är tom, men ändå märkvärdigt effektiv.

Priset för själva genomförandet är nu ofta lågt, ibland nästan gratis, medan idéerna och urvalen fortfarande är dyra. När något känns gratis är det ofta bara för att kostnaden har flyttat: till energi, data, upphov, arbetsvillkor — och till vår uppmärksamhet. När utförandet blir billigt blir urvalet den verkliga kostnaden. Och om alla kan producera drunknar till slut smaken i bruset.

Risker

Fokus ligger här på hur språkmodeller påverkar tänkande och inlärning, hur trovärdighet och kommunikation förskjuts, samt vilka konsekvenser som uppstår för rättvisa, juridik, miljö och demokratiska processer.

Därutöver berörs effekter på arbetsplatsen, från förändrade arbetsroller och relationer till ökad alienation och press. Syftet är att synliggöra vissa mönster av förskjutningar av de mänskliga villkoren. Texten är på intet sätt djuplodande eller uttömmande. Utifrån en mindre riskinventering hoppas vi kunna dra slutsatser kring sunda arbetssätt.

Bild: Lava väller ur vulkanen Vesuvios. Två män står nära på bergsidan och tittar på.
Eruption of the Volcano Vesuvius (1821) – Johan Christian Dahl. Public domain.
Mental passivitet och kognitiva förändringar
  • Mental passivitet
  • Försvagat kritiskt tänkande
  • Minskat tålamod och försämrad förståelse
  • Färre egna upptäckter
  • Svarens tyranni
  • Falska framsteg
  • Informationsnihilism
Trovärdighet och kommunikation
  • Urholkning av autenticiteten
  • Det skrivna ordet försvagas
  • Inflation i innehåll, deflation i värde
  • Oskyldigt anklagad för AI-användning
  • Förlorade insikter p.g.a. mediering och snuttifiering
  • Tillgången till källmaterialet förskjuts när allt filtreras genom LLM:er
  • Kompetensmaskering kan ge dumma svar på smarta frågor
Rättvisa, juridik och miljö
  • Affärsmodellen bygger delvis på stöld
  • Oklara rättigheter/licenser för genererat material
  • Tveksamma arbetsförhållanden
  • Gör det svårare att nå klimatmål
  • Ansvar och gradvis förlust av makt (gradual disempowerment)
  • Hot mot demokrati och rättvisa
  • Före-LLM kan bli en kvalitetsstämpel
Arbetsplatsen
  • Arbetsalienation
  • Kraftfullare verktyg ställer högre krav - Jevons paradox
  • Tvingad anpassning och teknologisk determinism
  • Slop skjuter över ansträngningen från avsändaren till mottagaren
  • Beteendemönster typiska för beroende
  • Ökad social isolering

Mental passivitet och kognitiva förändringar

Förståelse uppstår när slutsatser byggs upp genom ansträngning, prövning och internalisering. Vi behöver själva arbetsprocessen, inte resultatet. En maskin kan aldrig utföra denna internalisering åt oss.

Man brukar säga att skriva är att tänka. Inte som metafor, utan bokstavligt. Som Peter Naur, dansk datalogipionjär, formulerade det är arbetet med text eller kod ett teoribyggande, där förståelsen finns i människan och inte kan utvinnas enbart ur artefakten. När motståndet försvinner, när alternativa lösningar inte behöver övervägas och när arbetet outsourcas, riskerar tänkandet att sakta in.

LLM-svaren kan bli gatlyktans sken. De drar blicken dit det är lätt att söka och lätt att känna sig klar, även när nycklarna ligger någon annanstans, hos källor och egen prövning. Skenet bedrar när det snabba och snygga känns mer relevant än trögare vägar till sanning; en availability bias.

När modellen ofta räcker börjar den kännas som ett universalverktyg, en Maslows hammare. Då börjar vi vrida problemet tills det passar verktyget. Till slut optimerar vi kanske för det som är lätt att få fram istället för det som är viktigt.

När AI:n låter tvärsäker kan egen osäkerhet misstolkas som inkompetens. Då sjunker tilliten till det egna omdömet och vi får svårare att lokalisera vår okunskap och lättare att lämna över.

I samma anda som Naurs teoribyggande har vi Philip G. Armours teori om De fem nivåerna av okunskap. Om hur vi jobbar oss upp från den högsta nivån av okunskap, 4OI, till den lägsta, 0OI (Zero Order of Ignorance).

4OIMeta-okunnighet — Du känner inte till själva modellen (”Five Orders of Ignorance”) och ser därför inte vilka sorters okunnighet som kan vara i spel.
3OISaknar process — Du saknar en fungerande metod/process för att upptäcka och reducera din okunnighet (t.ex. hur du hittar luckorna).
2OIOkända okända — Du vet inte att du inte vet; du ser inte kunskapsluckan och ställer därför inte de frågor som behövs. Du är fast under gatlyktans sken.
1OIKända okända — Du vet att du inte vet; du kan formulera rätt sorts frågor, söka rätt information och hitta hjälp.
0OIInga okunnighetsproblem — Inget relevant kunskapsgap kvar i frågan; du vet vad du gör (i den här kontexten).

Om AI används som en svarsmaskin kan en falsk känsla av att vi nått 0OI uppstå. LLM:er gör det särskilt billigt att svara på 1OI, kända okända. Tillsynes heltäckande och djupa svar kan också kamouflera 2OI, okända okända.

När AI serverar färdiga resonemang minskar utrymmet för egna upptäckter (jämför med 3OI). Lärande genom upptäckt ersätts av konsumtion av svar. Det som tidigare krävde tid, osäkerhet och frågor levereras nu utan friktion. Resultatet är minskat tålamod och en ytligare förståelse. Man vet vad, men inte hur.

Om vi, i stället för att uthärda osäkerhet och söka svar själva, rutinmässigt och tanklöst sträcker oss efter språkmodellen, ersätts förståelse med lagring (eller tomhet). I samma rörelse försvagas det kritiska tänkandet eftersom det inte längre tränas. Förmågan att hålla flera möjliga tolkningar i huvudet ersätts samtidigt av en vana att acceptera det första rimliga svaret.

Bild: En kvinna ser sig själv i spegeln.
The Mirror (1900) – William Merritt Chase. Public domain.

Över tid riskerar detta att leda till fördumning. Knappast en intellektuell kollaps men väl en gradvis förflackning. Den som inte gjort arbetet själv saknar en mental karta för att orientera sig vidare. Jag gjorde det inte, men jag satte ihop det, skapar en känsla av ägande och förståelse som inte motsvaras av faktisk kompetens. Engagemanget minskar, samtidigt som självtilliten paradoxalt nog kan öka.

Svarens tyranni skapar ett beroende där reflektion upplevs som ineffektiv och nyfikenhet som onödig. Tystnad, tvekan och långsamhet blir störningsmoment. Samtidigt tystnar det mänskliga samtalet till en maskin som alltid svarar. Omedelbar belöning, individanpassning och känslan av flyt är svårt att motstå. AI fungerar då som digital skräpmat. Den mättar snabbt men ger lite näring.

Det uppstår lätt en falsk känsla av framsteg. När mycket händer runt omkring oss upplever vi rörelse som utveckling, trots att den egna förståelsen inte fördjupas. Studier visar till exempel att studenter som lyssnar på en karismatisk föreläsare ofta upplever sig ha lärt sig mer än de som ägnar sig åt aktivt, ansträngande självstudium, trots att tester visar det omvända. AI-assisterat arbete riskerar att förstärka samma illusion. Det känns som om det går fort, men det är aktiviteten som ökar, inte insikten eller resultaten.

Om priset för maskiner som förlänger människan är kroppslig förslappning, är då priset för artificiell intelligens mänsklig dumhet? Samtidigt har mindre fysiskt krävande arbete inte gjort oss entydigt svagare, utan möjliggjort ett bredare spektrum av fysisk förmåga. Vi får tid och ork att fäktas och dansa. Kanske gäller något liknande även kognitivt: att vissa färdigheter förtvinar, medan andra blir möjliga.

Steve Jobs kallade datorn en cykel för tanken, något som bär oss bortom våra förmågor. Nästa steg, människans synergi med språkmodeller, liknas ibland med en kentaur. Instrumentet nu förvandlat till människans återkopplande, integrerade enhet: närmare koppling, ännu längre räckvidd. Teknik- och digitalrättighetsaktivisten Cory Doctorow pratar istället om en omvänd kentaur (reverse-centaur), "en maskin assisterad av en människa förväntad att arbeta i maskinens takt" — gig-arbetare som styrs av algoritmer, lagerarbetare hos Amazon med handskannern som metronom, "meatspace workers" som hyr ut sig till AI på RentAHuman.ai eller språkmodeller som sätter rytmen, formar rösten, och gör människan till sin redaktör.

För att lyckas, och samtidigt vara lycklig, måste man vilja, kunna och äga. Råder oklarheter kring egen insats minskar eller uteblir tillfredsställelsen. Delegeras nyttiga ansträngningar förloras en chans till egen utveckling. I värsta fall uppstår självklandrande. I bästa fall: stolthet — men med en sur eftersmak för den samvetsgranne.

De vet mer än vi, är snabbare och behöver aldrig vila.

Används AI är det lätt att förhandla ner sitt eget bidrag.
Används inte AI kan arbetet kännas som en omväg. En snabb lösning är ju bara några knapptryckningar bort.

I samma ögonblick vi slutar äga kedjan av mål → ansträngning → måluppnåelse, ofta kallad maktprocessen (The Power Process), tappar vi också en stor del av belöningen. Avstår man helt riskerar man att tappa tempo och räckvidd – en känsla av att stå vid sidan kan infinna sig. I ett liv under denna paradox är risken för likgiltighet och tappad lust stor.

SOLO och Blooms (reviderade) taxonomier är etablerade och använda pedagogiska ramverk för att beskriva progression i lärande och förståelse. De används brett inom utbildning, bedömning och didaktisk design. De utgör två närliggande axlar. Bloom kan beskrivas som processen minnas → förstå → tillämpa → analysera → värdera → skapa och SOLO som förståelsekedjan förvirring → enkel → flera → helhet → abstraktion.

När AI tar över för mycket av “göra”-delen kan vi fortfarande producera mer — men vi tränar mindre på modellbygget och på att hitta egna kunskapsglapp. Förståelse, istället för att växa, glider oss ur händerna: mer innehåll, mindre ägarskap.

Trovärdighet och kommunikation

När AI används för att slipa på eller ersätta det skrivna ordet suddas gränsen ut mellan mänskligt uttryck och maskinell produktion. Texten kan vara korrekt, välformulerad och övertygande, men den bär inte längre samma tydliga avsändare. Det skrivna ordet försvagas när vi inte vet vem som står bakom, eller om någon alls gör det i meningsfull bemärkelse.

I Dan Arielys, Duke-professor i psykologi och beteendeekonomi, experiment med Lego, där deltagarna får se sina legoalster plockas sönder, syns en enkel (och självklar) mekanism: när arbetet upplevs som “utraderat” minskar viljan att fortsätta. Den effekten behöver inte bara handla om att någon plockar isär det du byggt; den kan lika gärna uppstå när andra mentalt plockar isär din insats. Om omgivningen antar att en maskin gjort grovjobbet blir din möda osynlig, och därmed också din belöning i form av erkännande och yrkesstolthet. Skrivandet börjar kännas som Sisyfosarbete. Även genuint skickligt arbete riskerar att mötas med ett tyst “jaja, ChatGPT...”.

Samtidigt uppstår en inflation i innehåll och en deflation i värde: fler texter, fler ord, fler sammanfattningar, sannolikt också fler fel; men allt mindre vikt på att tänka, formulera och stå för det man skriver. Slop och överflöd ökar. När produktionen av text och innehåll blir nästan kostnadsfri fylls det gemensamma rummet snabbt av det som är lättast att generera och konsumera. Kvalitet ersätts av kvantitet.

Det som är bekvämt och eftersökt får företräde framför det som är sant, originellt eller välgrundat. Det var i och för sig sant i denna sensationsdrivna värld redan innan språkmodellerna kom; men riskerar att bli än värre. I denna miljö förstärks stereotyper: formuleringar, perspektiv och tankemönster som redan är vanliga blir ännu vanligare, medan det avvikande och personliga jämnas ut. Vi får ett snävare tankelandskap.

Bild: En kraftig trädhuggare går våldsamt lös med yxan. Det är mestadels endast stubbar kvar. Snart är allt nedhugget.
Der Holzfäller (1910) – Ferdinand Hodler. Public domain.

När AI används som genväg i kommunikation kan mottagaren uppleva det respektlöst, som att tiden, uppmärksamheten eller mödan inte varit värd att investera. I andra fall tolkas det som lathet, brist på omdöme eller brist på faktisk förståelse bakom en välputsad yta. Det som var tänkt som hjälp riskerar därmed att signalera ointresse, oförmåga, respektlöshet eller ansvarsflykt. När detta blir vanligt utarmas det sociala kontraktet kring kunskap och arbete. Ansträngning och närvaro blir svårare att läsa ut ur det delade.

Vårt mimetiska beteende har vetenskapligt stöd även mot maskiner och ökar risken att den egna rösten tunnas ut. Sätt att uttrycka sig och ord som gärna används av språkmodeller anammas av oss. Ökad mänsklig användning av typiska maskinord har redan påvisats. Enligt René Girards teori mimetiskt begär leder dessutom imitation till konflikter och syndabockstänk. Vad innebär det i en tid med språkmodeller?

Insikter går förlorade när texter inte längre läses i sin helhet, utan filtreras genom sammanfattningar och parafraseringar. Samtidigt kan kompetens maskeras. När en fråga språkligt förstärks med hjälp av AI blir det svårare att bedöma frågeställarens faktiska nivå. Detta kan leda till förenklade svar även på avancerade problem.

Människor kan oskyldigt anklagas för AI-användning, eller misstänkliggöras just för att deras arbete liknar det maskinellt förväntade. Mönstret är att tidigare signaler för att tolka kunskap, förmåga och avsikt gradvis tappar sin tillförlitlighet.

Utvecklingen präglas av att nya kunskapsgränssnitt tränger undan tidigare. Förskjutningen påminner om när Encyclopædia Britannica trängdes undan av Wikipedia, men sker nu betydligt snabbare och med den ironiska följden att Wikipedia själv påverkas av samma mekanism när LLM:er nu levererar svar direkt utan att leda vidare till källan.

Även minimal AI-användning kontaminerar texten. Även om innehållet i sig inte är fel så införs en osäkerhet kring upphov. Detta är dock inte unikt för AI; även mänsklig hjälp förskjuter gränserna för författarskap. Skillnaden ligger i skalan och i ogenomskinligheten. I en miljö där AI är närvarande överallt blir full transparens ett ouppnåeligt ideal. Det enda helt säkra vore att inte använda AI alls. Ändå räcker inte ens det, eftersom frånvaron inte kan bevisas.

Rättvisa, juridik och miljö

Affärsmodellen bakom stora språkmodeller bygger till stor del på systematisk insamling och exploatering av andras arbete, ofta utan samtycke, ersättning eller tydlig rättslig grund. Att detta i efterhand av företagen motiveras som ”fair use” förändrar inte det faktum att värde extraheras från upphovspersoner utan avtal. Många menar att det i praktiken liknar stöld.

Samtidigt är rättighetsläget för det som genereras oklart. Vem äger texten, bilden eller koden när modellen tränats på material som aldrig lagligen upplåtits? Denna oklarhet skapar ett rättsligt gränsland där ansvar löses upp, medan risker och kostnader ofta skjuts över på användare.

Språkmodeller utgör också ett hot mot demokrati och rättvisa. Många osäkra väljare kommer att vända sig till AI för vägledning i politiska frågor, inte minst därför att den upplevs som kunnig, neutral, rationell och tillgänglig. Men varje modell bär värderingar och inbyggda prioriteringar som ytterst kontrolleras av dess skapare och ägare.

Detta ger en orimlig koncentration av inflytande över åsiktsbildning, jämförbar med, men potentiellt kraftfullare än, tidigare skandaler kring riktad politisk påverkan via sociala medier (se Facebook och Cambridge Analytica inför valet 2016 i USA). Skillnaden är att påverkan nu sker i dialogform, anpassad till individen och svår att granska i efterhand.

Formen för påverkan behöver inte vara grov eller direkt. Slopaganda verkar genom överflöd, upprepning och subtil vinkling. Genom att forma det informationslandskap som användaren rör sig i påverkas också vilka beslut som framstår som rimliga eller möjliga. Denna påverkan är sällan binär utan sker gradvis. Makt förskjuts långsamt från individen till systemet, i takt med att omdöme, ansvar och initiativ externaliseras.

Bild: En boxare stor med garden uppe utomhus på ett fält. Knytnävarna och blicken är riktade snett uppåt mot ett osynligt mål.
Richard Humphreys, the Boxer – John Hoppner. Public domain.

AI innebär också en omvälvning av arbetsmarknaden. Vissa yrken trängs undan, andra omformas, ofta snabbare än människor hinner anpassa sig. Samtidigt bygger systemen på arbete som sällan syns. För att filtrera bort våld, övergrepp och hat utsätts människor, ofta i låglöneländer, för extremt material under omänskliga villkor.

Därtill förstärks befintliga ojämlikheter genom att diskriminering och bias kan skalas upp, medan expertis, kapital och beslutsmakt koncentreras till en liten, icke-representativ grupp. Vinsterna privatiseras, kostnaderna socialiseras.

AI försvårar också arbetet med att nå klimatmål. Träning och drift av stora modeller kräver enorma mängder energi och vatten, ofta i konkurrens med andra samhällsbehov.

Samtidigt riskerar fokuset på hypotetiska existentiella hot från framtida AGI att skymma de mer konkreta och akuta problem som redan är här. När beslut delegeras till system som upplevs som för komplexa för att ifrågasättas försvåras möjligheten att ingripa eller stänga av. Ansvar ersätts av hänvisningar till teknisk nödvändighet.

Till sist finns frågan om spårning och kontroll. AI-företag samlar inte bara våra texter, de kartlägger också våra preferenser och sätt att tänka. I takt med att fler funktioner medieras genom dessa system växer en detaljerad bild av vilka vi är. Denna kunskap koncentreras till ett fåtal aktörer och kan i framtiden missbrukas både politiskt och ekonomiskt. Resultatet är en förskjutning mot centraliserad makt och en starkare teknokrati, där demokratiskt inflytande försvagas just där systemen blir som mest avgörande.

Arbetsplatsen

Förutom rena förlorade tjänster sker en tystare förskjutning, där roller urlakas och yrkesskicklighet ersätts av verktygsanvändning. När verktyg som påstås förstärka mänsklig förmåga i praktiken ersätter centrala moment i arbetet försvagas känslan av förmåga, ägande och ansvar. Arbetet blir något man övervakar snarare än utför.

Samtidigt uppstår en tvingad anpassning. Den som inte använder verktygen hamnar snabbt på efterkälken, inte nödvändigtvis för att arbetet blir sämre, utan för att tempot och förväntningarna sätts av tekniken. Precis som få är villiga att betala extra för en hantverkare som inte nyttjar elektriska verktyg kommer få att betala mer för AI-fri programvara.

Då stora delar av arbetet lämnas över till AI blir djup institutionell kunskap, tyst kunskap, omdöme, förmågan att analysera samt färdigheterna att samarbeta med AI allt viktigare. Personer med lång och djup erfarenhet kan ha en närmast övernaturlig förmåga att snabbt se vad som fungerar och hur något bör genomföras. Denna systemförståelse kräver internaliserad kunskap och djup förståelse. Erfarna professionella kommer att få ännu större konkurrensfördelar än i dag — då AI ger en hävstångseffekt som ökar klyftan gentemot mindre erfarna. Språkmodellerna kan ännu inte ersätta de mest kompetenta. AI-företagen betalar fortfarande dyrt för talanger, deras egna språkmodeller räcker inte till.

Om slop cirkulerar i organisationen uppstår också sociala friktioner. En kompispassning av AI-genererat material sätter mottagaren i en obekväm situation. Ska kollegan ifrågasätta, korrigera eller lägga tid på att reda ut vad som faktiskt håller? Polerade formuleringar kan dölja brister, vilket flyttar ansträngningen från avsändaren till mottagaren.

Brandolinis lag säger att det krävs avsevärt mer energi att bemöta och motbevisa nonsens än att producera det. Problemet uppstår inom vitt skilda områden, patienten som vägrar medicin p.g.a. hallucinerad bieffekt, matematikstudentens till ytan polerade bevis, i själva verket fullt av inkonsekvenser, eller projektet med öppen källkod som bombaderas av AI-genererade och ofta felaktiga lösningar i hopp om en bug-bounty (Death by thousand slops, video och The end of the curl bug-bounty).

Samtidigt riskerar den dagliga användningen av AI öka den sociala isoleringen på jobbet. När problemlösning, bollande och stöd flyttas från kollegiala samtal till individuella dialoger med en maskin minskar de mänskliga kontaktytorna. AI:n erbjuder omedelbar respons, bekräftelse och känslan av kompetens. Tröskeln för att ”bara fråga modellen” blir låg, medan tröskeln för att be en kollega om hjälp höjs. På sikt riskerar detta att urholka både det kritiska tänkandet och de sociala strukturer som gör arbete meningsfullt och hållbart.

Experter som använder AI inom sitt område är förvånade över hur ofta det blir fel. Deras bakgrund ger dem förutsättningar att upptäcka felen. Samma expert har begränsade möjligheter att verfiera AI-svar inom andra områden. Samtidigt är AI en tröskelsänkare, den gör områden och problem tidigare utom räckhåll nåbara.

Energisnåla lampor gjorde ljus billigare, då skaffade vi mer ljus. På samma sätt leder kraftfullare arbetsverktyg sällan till mindre arbete, utan till högre tempo, ökade krav och tätare konkurrens. Jevons paradox gäller alltså även här. När produktiviteten ökar justeras normen uppåt. Det som nyss var imponerande blir snabbt förväntat. Resultatet blir att allt mer krävs av arbetaren.

Programmerare rapporterar att arbetet med AI-stöd gör dem mer utmattade än utan. Fler uppgifter per dag ger fler kostsamma kontextbyten. Samma problematik uppstår inom andra yrken. En reducerad produktionskostnad till priset av ökade kostnader för koordinering, granskning och beslutstagande. Vilka alla helt faller på människan.

Skapande och granskande är psykologiskt olika lägen. Kreativitet beskrivs ofta som generativ fas (idéproduktion) och evaluativ fas (bedömning/urval). Skapande tenderar att ge energi och “drar in dig” (flow). Evaluering/granskning känns oftare dränerande på grund av tätare val och jämförelser (decision fatigue/evaluation apprehension). AI-stöd kan flytta tyngdpunkten från skapande till granskning, och därmed göra arbetet mindre energigivande.

Arbetssätt

Följande arbetssätt har byggts utifrån tidigare identifierade risker. Några övergripande metoder adresserar tillsammans de vanligaste riskerna.

TRANSP-principen ger generella förhållningssätt med en enkel minnesregel. Avsnittet Arbetskontext rekommenderar högsta lämpliga AI-inblandning i varje arbetsfas för olika kategorier av textarbete. När och hur? — Tre grafer tittar på när AI inte bör användas utifrån lärandebehov, risk- och sanningsförhållanden, där dimensioner så som nytta och okunskap jämförs. Tillsammans täcker dessa principer, tillämpning och beslutsstöd.

Alternativet är att bara köra på: låta AI vara med överallt och slippa regler, nivåer och faser. Det kanske är snabbast och känns enklast. Men priset är att man samtidigt ger upp en hel del kontroll: riskerna blir en del av arbetsmetoden, avsändaren blir mer oklar, det blir också svårare att veta vad som faktiskt är ditt eget arbete.

Bild: En enkel smal träbro leder över en liten å. Den fortsatta vägen försvinner i horisonten. Vacker och lugn omgivning med gröna fält och prunkande växter.
Bridge Over a Stream in Assens, Funen (1842) – Dankvart Dreyer. Public domain.

En miniräknare ökar inte kreativiteten, men den frigör resurser som kan användas för kreativitet.

TRANSP-principen

TRANSP-principen sammanfattar ett försiktigt och ansvarsfullt förhållningssätt till AI-användning. Principerna är inte tänkta som detaljerade regler eller en fullständig etisk kod, men väl praktiska riktlinjer för att minska kända risker. De adresserar frågor om trovärdighet, ansvar, kognitiv påverkan och maktförskjutning, och syftar till att behålla mänskligt omdöme, förståelse och ansvar även när kraftfulla verktyg används.

PrincipSyfte / Riskreduktion
TransparensRedovisa om, hur och i vilken omfattning AI har använts.
RespektVisa respekt för källor, mottagare, upphovsrätt och licenser.
AnsvarTa ansvar för innehållets korrekthet och konsekvenser. Ta ansvar för din egen okunskap, dela inte resultat du inte förstår.
NonsensVar vaksam mot hallucinationer, fel och skenbar kvalitet.
SjälvständighetBevara din egen röst, ditt omdöme och din förståelse.
PilotDu är piloten. Behåll kontrollen. AI ska assistera, inte styra. Instruera: ingen känsloemulering. Om den kommer, ignorera den.

T — Transparens

Var tydlig med om, hur och i vilken omfattning AI har använts. Transparens minskar risken för felaktiga tolkningar och urholkad tillit.

R — Respekt

Visa respekt för källor, upphovspersoner och mottagare. AI får inte användas som en genväg runt upphovsrätt, licenser eller mänsklig möda. Undvik att använda AI som proxy för arbete, förståelse eller omdöme som egentligen förväntas av dig själv.

A — Ansvar

Du är ansvarig för det du presenterar, oavsett om AI varit inblandad eller inte. Att något är maskinellt genererat befriar inte från ansvar för korrekthet, rimlighet eller konsekvenser. Användning av AI får aldrig bli ett sätt att skjuta över ansvar på ett system. Endast med stor försiktighet, och när verifiering är möjlig, bör genererande AI användas inom obekanta områden.

Du måste också ta ansvar för dina egna begränsningar och din okunskap. Förmedla inte resultat du inte förstår. Detta är skadligt både för dig själv och mottagaren.

N — Nonsens

Var vaksam mot hallucinationer, slop och skenbar kvalitet. AI-genererat innehåll kan låta övertygande utan att vara korrekt eller relevant. Ju lättare det är att producera innehåll, desto större ansvar ligger på dig att granska, ifrågasätta och förkasta.

S — Självständighet

Bevara din egen röst, ditt omdöme och din kompetens över tid. Använd inte AI på ett sätt som ersätter det tänkande du bör utveckla själv. Instruera AI:n att vara saklig och avstå från känsloemulering; om den ändå smyger in, ignorera den.
Detta handlar inte om vem som styr verktyget, utan om vad verktyget gör med dig.

P — Pilot

Behåll operativ kontroll. AI ska assistera, inte styra. Du ansvarar för riktning, beslut och slutligt resultat. Håll hårt i kopplet.
Detta handlar inte om vem du är som tänkare, utan om vem som fattar beslutet.


Bild: En kvinna ror en eka i midnattsolen. Ansiktet är bortvänt och hon tittar på något utanför bild.
Midnatt (1891) – Anders Zorn. Public domain.

Arbetskontext

Här är exempel på arbetskontexter och en enkel rekommendation för vilka arbetsfaser och autonominivåer (A0–A4) som kan vara rimliga.

Autonominivåer A0–A4 beskriver hur AI används – från ingen inblandning till full delegering.

NivåKort sammanfattning
A0Helt AI-fritt.
A1, A1sAI som källa/uppslag: fakta. Tänk lexikon/böcker/andra källor.
A2, A2sAI som responsiv expert som kommenterar och utvärderar dina idéer.
A3Genererar förslag (idéer, argument, disposition) och kan styra riktning.
A4Delegation: AI levererar färdiga resultat.
-sSpråkhjälp som kan skriva om meningar och påverka uttryck och röst.

Mer utförliga definitioner och gränsdragningar finns längre ner i avsnittet Autonominivåer.

Arbetskontexterna kan ofta delas upp i två grundlägen:

Människan skriver (AI research-only):
AI används som källa/handledare (A1–A2), men själva formuleringen och avslutet är AI-fritt (A0). Eventuell feedback sker som A2 utan omskrivning.

AI producerar under grindar (verifierbart):
AI kan generera förslag, utkast eller färdiga lösningar (A3–A4), men endast där resultatet kan testas/granskas. Människan avslutar genom verifiering och beslut.

Några vanliga arbetskontexter är:

1) Lärande / studier / färdighetsträning

Källfas A1–A2  →  Eget försök A0  →  Feedback på ditt resultat A2
AI efteråt, på ditt försök. Undvik A3–A4 före, eftersom det kortsluter skriv- och tänkträningen.

2) Essä / artikel / uppsats

Källfas A1–A2  →  Skrivfas A0  →  Faktakoll A1
Research-only i praktiken: A1 för uppslag/ord/terminologi, A2 för “intervju/expert”. Inget språkstöd (A1s, A2s) i skrivfasen.

4) Opinion / personlig text / mejl / “min röst”

Källfas A1 (ev. A2 sparsamt)  →  Skrivfas A0
Röstkänsligt. Språkstöd A1s–A2s riskerar röstfärgning även om målet bara är “snyggare språk”.

5) Teknisk dokumentation

Underlag/uppslag A1–A2  →  Utkast A3–A4 (om verifierbart)  →  Verifiering A0  →  Språkpolish A1s
A3–A4 kan vara effektivt om varje påstående går att testa. A3 sist är ofta okej, men granska att innehållet inte förändras.

6) Kravspec / upphandling / avtal / policy

Källfas A1–A2  →  Struktur/avvägning A2  →  Formulering A0 (ev. A1s mycket restriktivt)
Hög insats. Undvik A3–A4: AI-genererade upplägg kan bära dolda antaganden. Om A1s: endast minimal språkvård, aldrig omskrivning som kan ändra juridisk innebörd.

7) Referat / mötesanteckningar / protokoll

Insamling A0  →  Strukturering A2  →  Sluttext A0 (ev. A1s vid låg insats)
A2 funkar som “sakexpert” för att hitta luckor och otydligheter. Om A1s används: begränsa till språkvård och kontrollera att betydelsen inte glider.

8) Översättning (färdig översatt text)

Översätt A4  →  Betydelsekontroll A0  →  Faktakoll (vid behov) A1
Översättning är en leverans av en ny text och hamnar därför på A4. Mänsklig kontroll behövs för ton, facktermer, implikationer och att inget “småglider”.

9) Språkgranskning / språkvård (befintlig text)

Granska/förbättra språk A1s  →  Slutkontroll A0  →  Faktakoll (vid behov) A1
Språkstöd A1s passar när du vill förbättra flyt, stavning och formuleringar men själv behålla innehåll, (röst) och slutansvar.

10) Produktionskod (normal)

Underlag/design: A2–A3  →  Kod: A3 (ev. A4 i små isolerade bitar)  →  Test/CI/Review: A0–A2
A4 endast där du har hårda skyddsräcken (tester, kodgranskning, statisk analys) och begränsad “blast radius”.

11) Säkerhetskritisk kod / embedded / finans

Underlag/design A1–A2  →  Kod max A3  →  Slutgrind A0
Hög insats + svår verifiering. A4 bör i praktiken vara “nej”, eller starkt begränsat och granskat.

12) Vibekodning / prototyp / hobby

Idé/alternativ A3  →  Kodproduktion A4  →  Review/felsök A2  →  Slutval A0
“Generativ-A4” är rimligt här. Behåll en mänsklig grind: kör, mät, testa och förstå vad som skeppas.

Rekommendationerna anger maxnivå per fas; lägre nivå är alltid ok.

AI som källa och expert (A1–A2)

Gäller främst i: lärande/studier, källfas i skrivprojekt, samt tidig analys/design.
Typiskt: A1–A2 (ibland A1s som ren språkvård i låg-insats-sammanhang).
Ej avsett för: skrivfas i “research-only” (A0), eller när du uttryckligen vill undvika röstfärgning.

För att kunna lära sig något krävs tillgång till information och möjlighet att ställa frågor (även en bok kan svara på frågor). Ofta ger tillgång till en kunnig handledare snabbare lärande (Nickow, Oreopoulos & Quan 2020)1. I den meningen kan AI fungera som en ovanligt tillgänglig kunskapsresurs, med räckvidd över många områden och med tålamod att svara på frågor om och om igen. Använda på rätt sätt kan språkmodeller sänka trösklar och ge stöd.

Skillnaden ligger i rollen vi tilldelar systemet. När AI används som lärare snarare än ersättare, som samtalspartner snarare än leverantör av färdiga svar, kan den förstärka lärande i stället för att underminera det. Förutsättningen är att ansträngningen, frågorna och slutsatserna förblir våra egna. Att vi använder verktyget för att utmana vårt tänkande, inte för att kringgå det. I lärandekontext vill vi normalt undvika A3–A4, eftersom de ersätter tänkande.

Eftersom även A1–A2 kan ge fel behöver man metoder för validering. Det kan vara att undersöka källor, skapa tester till ett program, etc. Se senare avsnitt.

Bild: En stor koffert och ett par tunnor upptäcks på sandstranden omgiven av klippor. Upphittaren vinkar upprymt med hatten till sig tre andra män som kommer springande. De ser alla ut att vara skeppare. Är något värdefull de funnit.
The Discovery of the Chest (1920) – N. C. Wyeth. Public domain.

Nedan exempel på instruktioner för att styra mot förståelse. Bäst är att skriva egna instruktioner. Lägg in kontraktets text i din LLM:s inställningar för anpassade instruktioner / systeminstruktioner (namnet varierar mellan tjänster). Användbart när du använder AI som lärare/expert (A1–A2), särskilt i lärandekontext eller källfas.

KontraktSyfte
Förståelse­kontrakt
FÖRSTÅELSE_KONTRAKT.md
Styr modellen mot aktivt lärande: frågor, resonemang, antaganden och validering; snarare än genvägar och kopiera/klistra. (AI-genererat kontrakt)
  1. Andre Joshua Nickow, Philip Oreopoulos & Vincent Quan, The Impressive Effects of Tutoring on PreK-12 Learning: A Systematic Review and Meta-Analysis of the Experimental Evidence, NBER Working Paper No. 27476 (July 2020). Rapporten sammanfattar ett “overall pooled effect size estimate” på 0,37 SD. PDF.

När och hur? – Tre grafer

Dessa tre grafer kan, utifrån perspektiven lärande, risk och sanning, underlätta att svara på om och hur AI bör användas.

Graf I – lärande
nytta × okunskap
När bör du avstå AI för att lära?

Graf II – risk
komplexitet × reversibilitet
Hur försiktig måste du vara?

Graf III – sanning
verifierbarhet × tolkningsfrihet
Hur mycket kan vi lita på resultatet?

Graf
Graf
Graf
Sammanfattande meta-regel

AI:s roll ska inte bestämmas av dess kapacitet. Det ledsagande är vad situationen kräver av dig i form av lärande, ansvar och omdöme.


Graf I – Lärandeaxeln (personbunden)

nytta × okunskap

Beskriver hur varaktig personlig nytta du kan få av att själv lösa problemet, givet din nuvarande okunskap.

Nyckelinsikt: där hög nytta sammanfaller med hög okunskap finns maximal lärandepotential – och där bör AI hållas tillbaka.

Princip (Graf I)

Avstå AI där den kortsluter lärande som ger varaktig nytta. AI får vara stödjande (frågor, struktur), inte lösande.

Låg okunskapHög okunskap
Hög nyttaKör på
AI som accelerator
• Snabba varianter
• Påminnelser, checklistor
• Kvalitetsgranskning
Du kan redan detta – AI sparar tid utan att urholka förståelsen.
Bromsa
AI hålls tillbaka
• Lös själv först
• Använd AI efteråt för jämförelse
Här byggs förståelse som du kommer att ha nytta av.
Låg nyttaKör på
AI fritt tillåten
• Automatisera
• Outsourca rutinuppgifter
Varken lärande eller kvalitet står på spel.
Kör på
AI som genväg
• Sammanfattningar
• Snabba svar
Ingen större förlust om förståelsen blir ytlig.

Graf II – Riskaxeln (problembunden)

komplexitet × reversibilitet

Beskriver hur dyrt det är att ha fel, givet problemets komplexitet och möjligheten att backa eller rätta.

Nyckelinsikt: komplexa problem är inte farliga i sig – det är irreversibla misstag som är farliga.

Princip (Graf II)

Ju mindre reversibelt ett problem är, desto mer måste AI:s roll begränsas till stöd och granskning. AI kan generera förslag när misstag är billiga, men ska aldrig ensam driva beslut när de är dyra.

Låg reversibilitet
(dyrt att ha fel)
Hög reversibilitet
(lätt att backa)
Hög komplexitetBromsa
AI som granskare
• Identifiera risker
• Föreslå testfall
• Peka på okända antaganden
Människan behåller beslutsmakten.
Kör på
AI som experimentmotor
• Generera idéer
• Utforska alternativ
• “Tänk om?”-resonemang
Lärande genom snabb återkoppling.
Låg komplexitetFörsiktigt
AI med försiktighet
• Endast dubbelkontroll
• Aldrig som ensam källa
Fel är dyra även om uppgiften är enkel.
Kör på
AI fritt tillåten
• Automatisering
• Snabba lösningar
Billiga misstag, låg friktion.

Graf III – Sanningsaxeln (problembunden)

verifierbarhet × tolkningsfrihet

Beskriver i vilken grad du kan avgöra om en lösning är korrekt, och hur mycket som bygger på omdöme snarare än entydiga kriterier.

Tolkningsfrihet är att veta var pilen ska träffa; verifierbarhet är att se var pilen träffade.

Nyckelinsikt: det farligaste läget är inte när AI har fel, utan när du inte kan veta om den har fel.

Princip (Graf III)

AI får aldrig ha större epistemisk auktoritet än din egen förmåga att avgöra om något är sant eller rimligt. I lågt verifierbara sammanhang ska AI vara samtalspartner, inte avsändare.

Låg tolkningsfrihet
(rätt/fel tydligt)
Hög tolkningsfrihet
(omdöme, värdering)
Hög verifier­barhetKör på
AI som problem­lösare
• Generera lösningar
• Optimera
• Debugga
Du kan själv avgöra om svaret är korrekt.
Försiktigt
AI som hypotes­generator
• Visa alternativa tolkningar
• Synliggöra antaganden
AI breddar men avgör inte.
Låg verifier­barhetFörsiktigt
AI som checklistverktyg
• Vad kan gå fel?
• Vilka antaganden görs?
Hög risk för skenbar korrekthet.
Bromsa
AI som samtalspartner
• Spegla resonemang
• Ställa frågor
AI får aldrig vara avsändare.

Verifiering

Eftersom AI kan ha fel behövs verifiering. Här är tre enkla standardverktyg som passar olika typer av innehåll:

Källkontroll
Passar för fakta och påståenden. Gå till primärkälla, eller bekräfta via två oberoende källor.

Test
Passar för kod, beräkningar och instruktioner. Kör tester, prova specialfall, mät och jämför mot förväntat beteende.

Motfrågor
Passar för resonemang, argument och slutsatser. Leta motexempel, synliggör antaganden och pröva alternativa tolkningar.

Verifierbarhet styr också vilken autonominivå som är rimlig: ju svårare att kontrollera, desto lägre maxnivå.

Vanliga fallgropar

Några återkommande sätt som AI-användning kan gå snett, även när man har goda intentioner:

A2 blir “auktoritet”
Man slutar ifrågasätta eftersom svaret låter kunnigt och sammanhängande. Motmedel: ställ motfrågor och kräv verifiering.

A1s slipar bort röst och nyanser
Språkhjälp kan jämna ut idiolekt och subtila poänger. Motmedel: använd A1s restriktivt och jämför mot originalformuleringen.

A3 flyttar problemformuleringen
Förslag kan smyga in nya mål, antaganden eller prioriteringar utan att det märks. Motmedel: skriv egen problemformulering först och granska vilka antaganden som ändrats.

A4 ger “kompetensillusion”
Resultatet kan fungera, men förståelsen och ägarskapet uteblir. Motmedel: kräva test, egen genomgång och att du kan förklara lösningen utan AI.

Hjärnsmart AI-användning

Metoder för att begränsa AI-användning och vårda hjärnan.

  1. Starta själv – använd AI som förstärkare
    Skriv/rita ett eget utkast innan AI. Då behåller du din modell och riktning.
  2. Separera tänkartid från AI-tid
    Avsätt tid för att enbart tänka (t.ex. förmiddag = tänka/modellera, eftermiddag = AI-assisterad produktion).
  3. Tidsbegränsa AI-pass
    Sätt timer (t.ex. 20–45 min). När den ringer: leverera, eller fortsätt utan AI.
  4. Begränsa promptloopar
    Max 2–3 rundor per delproblem. Sen väljer du en väg och går vidare.
  5. Acceptera 80% och fixa resten manuellt
    Jaga inte perfekta svar. “Tillräckligt bra” från AI med egen efterbearbetning.
  6. Låt AI bearbeta delar, inte på autopilot
    Be AI förbättra en konkret text/kod/del du redan har, istället för att generera allt från noll.
  7. Prioritera granskning där risk finns
    Granska mänskligt: säkerhetsgränser, datahantering, felvägar, affärslogik. Om kod låt tester/lint/typer bära resten.
  8. Låt kraftigt AI-påverkad text vila innan du delar
    Vid första anblick, och kanske under ett rus av framsteg, kan en AI-genererad text kännas träffsäker och lämplig. Sannolikt gör du en annan bedömning av kvalitén dagen efter. Låt AI-påverkat material vila innan du bedömmer kvalitén. Detta gäller områden du behärskar, inom andra områden bör genererativ AI användas mycket sparsamt.

AI-deklaration

AI-deklarationen redovisar kortfattat till vilken grad AI har använts.

NivåBetydelse
A0
AI-fri
Ingen AI.
A1, A1s
källa
Källa/uppslagsverk.
A2, A2s
expert
Responsiv expert: frågor, bedömning, utvärdering av dina idéer.
A3
förslag
Genererar innehållsliga förslag: idéer, argument, disposition.
A4
utförare
Utförare: levererar färdiga resultat. Text/kod/bild.
-s
språk­hjälp
Omskrivning av meningar/stycken: kan påverka röst, normalt ej innebörd.

AI-deklaration

AI-fri (A0)

mejlfot / deklaration
AI-fri (A0)
https://ai-transparens.se/deklaration
Kopierat!

Text: research-only

mejlfot / deklaration
Källor A2 expert · Text AI-fri
https://ai-transparens.se/deklaration
Kopierat!

Text: språkhjälp i skrivfas

mejlfot / deklaration
Källor A2 expert · Text endast A3 språkhjälp
https://ai-transparens.se/deklaration
Kopierat!

Text: förslag i skrivfas (ej egen röst)

mejlfot / deklaration
Källor A2 expert · Text A4 förslag
https://ai-transparens.se/deklaration
Kopierat!

Kod: förslag/utkast + mänsklig verifiering

mejlfot / deklaration
Kod A4 förslag · Verifiering AI-fri
https://ai-transparens.se/deklaration
Kopierat!

Kod: delegering + mänsklig verifiering

mejlfot / deklaration
Kod A5 delegering · Verifiering AI-fri
https://ai-transparens.se/deklaration
Kopierat!

En deklaration kan t.ex. placeras i en mejlfot.

AI-autonominivå

Här beskrivs AI-autonominivå, en gradering av hur stor del av tänkande och ansvar som överlåts till AI i en uppgift.

NivåKort beskrivningAnsvar & risk
AI-fri
A0

fri

Ingen hjälp från AI.Lägst risk.
A1, A1s
källa

Informations­assistent
Slår upp och återger befintlig information.
Jämförbart med lexikon/böcker.
Låg risk. Fel kan förekomma men är oftast lätta att upptäcka.
A2, A2s
initiativ
responsivt


Expert
Reagerar på och utvärderar användarens idéer, resonemang eller utkast.
Jämförbart med att fråga/intervjua en kunnig kollega eller expert
Låg/måttlig risk. AI:n kan påverka riktning och bedömningar, men användaren fattar besluten.
A3
initiativ
generativt


Förslags­givare
Genererar innehållsliga förslag: idéer, dispositioner, argument, angreppssätt eller lösningsalternativ.
Jämförbart med att be någon annan lägga fram förslag – du väljer, väger och förkastar.
Förhöjd risk. AI:n kan styra problemformulering, prioriteringar och slutsatser. Risk för “falsk rimlighet” och att ditt tänkande ersätts delvis. Användaren ansvarar för urval, verifiering och slutlig formulering.
A4
delegation

Utförare
Utför hela uppgifter självständigt och levererar färdiga produkter (t.ex. texter eller källkod).Hög risk. Utförande och detaljer överlåts till AI:n; användaren ansvarar för granskning.
-s
responsivt
(generativt)


Språk­hjälp
Ger språklig hjälp (inkl. omskrivning): stavning, ordval, grammatik, flyt.
Omskrivning av meningar/stycken.
Måttlig risk. Risk för röstfärgning, minskad skrivträning, subtilt ändrad betydelse. Men användaren har fortfarande full kontroll och ansvar.

Skillnaden mellan nivåerna handlar inte om huruvida AI:n ”agerar”. De handlar om graden av initiativ och delegering – från reaktivt stöd, via kognitivt initiativ, till fullständigt utförandeansvar.

Riskerna ökar med högre nivåer. Inom nivåerna A1–A2 är riskerna låga. Upp till och med A2/A2s är det fortfarande användaren som gör huvuddelen av arbetet och behåller kontrollen.

Arbete med AI innebär ofta att man rör sig mellan nivåer. I slutändan är det dock alltid användaren som avgör graden av överlämnande.

Indelningen kan jämföras med SAE-nivåerna för självkörande fordon, där fokus ligger på när ansvar och kontroll gradvis övergår från människa till system. På motsvarande sätt beskriver denna modell ökande kognitivt initiativ och delegation till AI.

Skillnaden mellan A2 och A3:

Mest diffus kan gränsen mellan A2 och A3 vara.
DimensionA2A3
UtgångspunktAnvändarens idéerProblemet i sig
InitiativResponsivtGenerativt
StrukturFöljer användarensSkapar egen
ÄgarskapAnvändarenDelat (börjar glida)

Källor


För kännetecken som kan avslöja om en text är AI-skriven, se t.ex. Hollis Robbins, Tom White (White Noise) eller verktyget Unaiify.

Om

Texten har vuxit fram under det senaste året i flera omgångar, genom ett iterativt arbete, till största delen helt för hand, med formuleringar och perspektiv. Urval, läsning och tolkning av artiklar har gjorts utan AI-stöd, liksom kategorisering och strukturering av riskerna, deras fokus och innehåll, samt kopplingar och övergångar mellan dem. TRANSP-principerna (som bygger på riskerna), autonominivåerna, idéerna kring deklarationen och arbetskontexten, samt de tre graferna är också framtagna utan AI.

Språkmodeller har använts i begränsad omfattning för viss informationssökning, för att pröva resonemang och ibland för granskning. De har använts för att hitta synonymer, närliggande termer och kopplingar till etablerade idéer (t.ex. Five Orders of Ignorance). Undantagsvis har de också gett råd om ton (mindre dömande, mer subtilt), rytm och grad av agentivitet (t.ex. hitta mer passiva formuleringar).

Det jag inte kan skapa [själv], kan jag inte förstå.

— Richard Feynman