- HAIK - Hela AI-Köret
- Posts
- Marmeladen på andra sidan Göta älv 🍓
Marmeladen på andra sidan Göta älv 🍓
Och: tåghjärnor, mediepapegojor, AI-genererad frihet.
Hallå i stugan och välkommen till HAIK! Det står för Hela AI-Köret, och handlar om artificiell intelligens (AI). På svenska, men om och för hela Norden.
Eller som en läsare tillika profilerad (men anonymiserad) AI-topp summerade det: “Det enda du behöver läsa om AI”. Boom! 🤯
Jag vill särskilt välkomna alla nya läsare. HAIK ska ge er stimulerande texter och tankar. Vill du läsa mer eller mindre om något? Skriv en rad.
Jag har i dagarna två varit i Göteborg på forumet Future of Democracy. Det var matigt.
Tack till AI Sweden, Lindholmen Science Park och alla andra som gav av sin tid och kunskap för att svara på och ställa nya frågor.
Göteborg satte igång inspirationen för nya menyer. Idag serveras därför byråkratisk marmelad, Trafikverkets hjärnmos och lite mediepapegojor. Och även en slev amerikansk AI-genererad frihet.
/Dagens meny 🥘
Kladdig AI-byråkrati 🍓
Trafikverket saknar en tåghjärna 🧠
Mediepapegojor Hollywoodifierar AI 🦜
/Plusmeny 🍺
Amerikaner hatar inte sin frihet🗽
/ Kladdig AI-byråkrati 🍓
Det finns många sätt att beskriva offentlig sektor. Skuldberget, Nangijala, och slukhålet har visslat förbi som pendeltåg genom åren.
Jag har en ny favorit: Marmeladen på andra sidan.
Hur mycket man än trycker på marmelad så glider den undan. Det finns inget riktigt motstånd, man bottnar inte riktigt i burken. Och det är kladdigt.
Marmeladen dök upp i ett samtal på Future of Democracy. Hur kan människor utkräva ansvar från offentlig sektor, byråkrater och förvaltningar när beslut tas – bland annat beslut baserade på AI?
Ibland går det fel. Och ingen kan eller vill ta ansvar. Som med Göteborgs skolalgoritm.
Ungefär 1 400 barn hamnade på fel skola efter att fördelningen skett med en algoritm som baserades på fågelavståndet mellan hem och skola.
Algoritmen förstod inte att Göta älv rinner rätt igenom staden.
12- och 13-åringar tvingades resa 45 minuter, enkel väg, till skolan i stället för att gå några hundra meter.
Det är nog så problematiskt. Men lika bekymrande är att det inte gick att bestrida.
Att begära ut algoritmen från Göteborgs stad för att kolla vad som gått fel var för mycket merarbete och räknas därför inte som en offentlig handling.
Juristen och forskaren Charlotta Kronblad stämde då Göteborgs stad vid förvaltningsrätten.
Men domstolen ville vare sig använda sin undersökningsplikt för att begära ut algoritmen eller be staden att bevisa att algoritmen följt lagen. Varje enskild person behövde istället visa att de drabbats av felaktiga beslut.
1 400 felplacerade elever var inte tillräckligt med bevis…
Kronblad beskrev sin process i en essä i Sveriges Advokatsamfunds tidning: “Rättsläget pekar på en blindhet för nya digitala maktobalanser där enskilda inte har insyn i, eller tillgång till, den kod som ligger till grund för beslut som rör dem”.
Det betyder att det “juridiska systemet är helt enkelt inte riggat för en digitaliserad offentlig sektor.” Och det här var före automatiserat beslutsfattande blev lagligt, vilket gör Göteborgs agerande ännu sjukare.
Sedan 1 juli 2022 får kommuner styra via algoritmer bäst de vill. Men de måste inte hjälpa till att förstå eller förändra konsekvenserna.
Så föds uppgivenhet och frustration.
Så ser marmeladen på andra sidan ut.
Side note: Hade politikernas förslag att bygga linbanor tvärs över älven blivit av hade skolalgoritmen åtminstone varit någorlunda förankrad i göteborgarnas verklighet. Då hade kanske staden kallats för en innovatör.
/ Trafikverkets hjärnmos är dyrt 🧠
Jag åkte tåg till och från Göteborg och Future of Democracy. Ett problem med tåg är att folk inte förstår att det nya konceptet 2 klass lugn bygger på två saker: ljudlös mobil, inga telefonsamtal.
Mängden klassisk svensk passiv aggressivitet i vagn nr 3 var enorm. Men det är alla van vid. Ett större problem, som vi också vant oss vid, är förseningar.
Ett av tågen försenades på grund av signalfel som gjorde att de framför oss fick sänka farten – och så även vi.
Det här kallas för att en försening “studsar” i trafiksystemet. Ungefär 40 procent av alla förseningar i svensk tågtrafik beror på studsar. En fartsänkning i Lund kan rikoschettera till Gävle och tillbaka under dagen.
Hade studsarna gått att förutse? Det ville The Train Brain göra med AI.
De byggde år 2016 världens första automatiserade prognostjänst för tågförseningar. Bolaget ser signalsystemet i tågtrafiken som ett nervsystem, alltså en hjärna, som säger åt alla delar vad de ska göra.
Alla dessa studsar är mönster och spår och märken i data. Vi kan inte observera dem själva. Det kan däremot algoritmer.
Det går att göra genom att jämföra årtionden av historisk data för att se hur liknande förseningar på samma avgång eller ankomst påverkat övriga nervsystemet.
Rör du en arm kan du påverka andra delar av kroppen. Det lär sig hjärnan. Samma tanke går att överföra på transportsystemet.
Trafikverket har sagt sig vara intresserade av detta i ett antal år. De kan och vill använda The Train Brain. Men de upplever att de inte får.
Lösningen är inte utvecklad internt, och det gör om hela planeringssystemet som idag bygger på papper, penna och linjal.
Tågförseningar kostar samhället runt 4 miljarder kronor per år. Vissa år är siffran det dubbla. Det borde vara ett tillräckligt incitament för att dumpa ritbordet.
Ljuset i tågtunneln: The Train Brain kan göra samma sak för bussar, och låter även trafikplanerare i realtid se effekterna av sina beslut på alla tåg i hela nätverket flera timmar framåt. Vilken allsmäktighet!
/ChatGPT är en alternativ kryptovaluta 🦜
Först var det 10 000 dollar. Sen blev det 60 000 dollar. Våren 2021 stack värdet på en bitcoin iväg, och valutan/tekniken blev väldigt omskriven. Så även i höstas när kryptovalutamäklaren FTX gick i putten.
Det är inte en lätt teknik eller bransch att rapportera om. Och politiken förstår väldigt lite, så all form av ansvarsutkrävande granskningar eller intervjuer lät rätt banala.
Jag hade hoppats att medier lärt sig något från den tiden. Men tyvärr ser det exakt likadant ut för medier när de rapporterar om ChatGPT.
Enligt en ny studie från Columbia Journalism Review (CJR) ges ChatGPT lika mycket medieutrymme som Bitcoin fick under 2021.
Bitcoin lanserades 2009. ChatGPT kom för sex månader sedan.
Det kan spegla värdet av och tyngden i den framväxande AI-industrin. Men det kan lika gärna spegla förvirringen och oron som AI-tjänster skapat. Eller så är det ett uttryck för medial yrvakenhet.
Subramaniam Vincent, ansvarig för programmet för journalism och medieetik vid Santa Clara University, menar att ett återkommande problem med mediebevakningen av den här tekniken är att den “tenderar att ledas av vad företagen säger att tekniken kommer göra”.
Det går inte att kritisera något man inte förstår. Och det går inte att försvara sig om man inte förstår vad hotet är.
Medier kan inte fortsätta vara papegojor åt AI-industrin.
Tyvärr är de, på grund av sitt beroende av AI-jättar som Facebook och Google, inlåsta i en ond spiral.
Alla medier tävlar om att vara först eller synas mest i söktjänster och på stora plattformar. Och som jag skrev för några veckor sedan, efter en konferens om AI och journalistik, härmar de oblygt sina konkurrenter.
Det är en systemkris för tidskrävande, avvaktande och sansad journalistik. De hinner inte göra sitt jobb.
På konferensen talade Nick Diakopoulos, medieforskare vid Northwestern University. Till CJR säger han att medier “Hollywoodifierar allmänhetens förståelse av AI” genom sättet de bevakar tekniken, bolagen och industrin.
OpenAI, bolaget bakom ChatGPT, sitter redan på enormt mycket data och användare. De har en särställning på en marknad som kommer vara en grundläggande infrastruktur i våra framtida ekonomier.
Det ekonomiska övertaget som enskilda AI-bolag (eller investerare) har behöver granskas.
Dessutom måste alla medier bestämma sig för vem som egentligen är en bra röst att lyssna på. Är det alltid Sam Altman och Elon Musk som är trovärdiga kommentatorer? Finns det inte andra källor till kunskap?
Journalister kan inte längre låta sig ledas av företagen som ritar om fundamentala ekonomiska och sociala mönster.
/Plusmeny
#1 🗽
Alla debatter tjänar på att inkludera personer som har erfarenheter av det diskussionen handlar om. Den här studien om AI-användning bland 3 000 amerikaner mellan 18 och 77 år och från fyra generationer gör just det.
Amerikaner hatar inte frihet! 57 procent kan tänka sig lägre lön för att i gengäld använda AI för att skapa en arbetsvecka med fyra dagar. Och 86 procent kan tänka sig att arbeta mindre överlag med hjälp av AI.
Människor vill anpassa sig. Två av tre tillfrågade kan tänka sig att betala ur egen ficka för att förbättra sina AI-kunskaper för att undvika att ersättas.
Folk är nyfikna. 85 procent har använt AI i sitt yrke.
Kunskapsövertaget is real. En klar majoritet, 69 procent, vill inte berätta för sina chefer om vilka AI-verktyg de använder för att de riskerar att bli utbytta mot verktygen.
Det finns oro. Fyra av fem personer ser AI som ett hot mot deras inkomst, och tre av fyra ser AI-uppsägningar de kommande sex till 24 månaderna.
Vänsterpartiet och alla keynesianister borde jubla: mindre jobb, mer statliga säkerhetsnät!
Liberaler med: Folk vill fortbilda sig, människans inneboende kreativitet är äkta!
Vem frågar svenska arbetstagare om de använder eller fasar för AI? Jag vill veta hur många som har börjat planera sin fyradagarsvecka.
/Prat 🦜
/Tänkvärdheter från någon jag har pratat med eller lyssnat på.
Ett samtal vid Future of Democracy handlade om journalisters och mediers ansvar att bevaka AI-utvecklingen.
Jan Helin, programdirektör på SVT, och Anna Careborg, Svenska Dagbladets vd och chefredaktör, tyckte att de erbjudit bra perspektiv till nyhetskonsumenter.
Ett uns självkritik hördes. De borde kanske ha beskrivit varför allt fått sådan fart under hösten. Helin föreslog en artikel med ingressen “Det började 26 november för att…”
Men i övrigt var de nöjda. Så tolkar jag detta citat.
Techjättarna är omöjliga att granska.
Det går inte att vara nöjd eller positiv till svensk AI-bevakning. Än mindre den här attityden hos den journalistiska ledningen.
Jag har en totalt annan bild av svensk AI-journalistik än Careborg.
Det går visst att granska techjättar. Men det kan kännas omöjligt när ingen på en redaktion testat en AI-tjänst som dessutom verkar kunna förändra en del av ens eget jobb. Självklart blir det ett institutionellt motstånd, även för de journalister som kanske vill borra in i AI.
Det är precis som en av de intervjuade i CJR:s rapport säger: “Det här är ett symtom på tillståndet för det moderna systemet för publicistik och nyheter som vi lever i.”
Jag menar att svenska medier kan för lite, de har skrivit och frågat för lite, och de är inte särskilt tydliga kring hur de själva använder AI.
När Careborg fick frågan om de har granskat algoritmiska makthavare pekade hon på SvD:s satsning på om “de nya makthavarna”. Men de har skrivit om ett endaste AI-bolag.
Det. Räcker. Inte.
/Läsbart 📚️
/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.
/Håller jag med? En yta för fri reflektion om något av det jag har läst.🤓
#3. 22 ord.
Det öppna brevet i mars för att pausa all utveckling av AI-modeller kraftfullare än GPT4 var lyckat.
Det var en väldigt välorkestrerad lobbyinsats från Future of Life som fick prata oavbrutet om teman som existentiell risk och människors framtid.
Det är lite som att Greenpeace skulle ha fått massa forskare på 1960-talet att motsätta sig bättre förbränningsmotorer, och sedan få ohemult stort medieutrymme för att prata om djur och natur.
Nu snurrar nästa upprop, den här gången från Center for AI Safety, med underskrifter från många av de som skrev under det öppna brevet i mars.
Det finns dock inga retoriska frågor, inga policyförslag, inga storslagna visioner. Det är bara 22 ord (23, beroende på hur man räknar) långt.
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
Jag är medveten om att jag nu är en del av deras kampanj. Men det är värt att kritisera även detta uttalande.
Dan Hendrycks är chef för Center for AI Safety. Han menar att uppropet är medvetet korthugget för att undvika att “späda ut budskapet”.
Med andra ord: Få maximalt genomslag.
Problemet för de som organiserade brevet i mars var att många forskare, både de som skrev under och de som avstod, bråkade om formuleringar kring riskerna och själva policyförslagen. Flera framstående AI-labb skrev aldrig på. Det färgade av sig på budskapet.
Nu har man renodlat det. Fram med extremt starka associationer – kärnvapen, pandemier – och bort med utläggningar om delat ansvar. Det känns som att AI-branschen är sur för att den beskylldes för att bygga produkterna fort och fel, och vill nu skjuta över fort-och-fel-ansvaret på lagstiftare.
Glöm heller inte kontexten.
De 22 (eller 23) orden kom väldigt nära det första G7-mötet om reglering för AI, som ägde rum igår. Och i dag träffas tre EU-kommissionärer och tre amerikanska ministrar i Luleå för att prata handel, Nato och AI.
Center for AI Safety har självklart anpassat, alltså förstärkt, sitt budskap för att nå fram till dessa forum.
Det är värt att lyssna på experter. Men man måste också lyssna på hur orden låter.