Skriet från Trondheim 🏔️

Och: latenta behov, krisplaner, Galileo.

Salve!

I dag har jag läst hur norska AI-forskaren Inga Strümke skrikit sig hes i Trondheim. Det finns också en ny bok om vår maktlöshet inför tekniken som är värd att förstå.

Och så gick jag tillbaka till Galileo Galileis ökända citat Eppur si muove för att förstå hur akademin förhåller sig till framsteg inom AI. Däremellan finns godis.

Jag ska hänga i Centraleuropa och på Balkan ett tag, så “det enda du behöver läsa om AI” är tillbaka 20 juni.

HAIK? HAIK! Hörs.

/Dagens meny 🥘 

  • Ingen hör dig skrika i Trondheim 🏔️ 

  • Latenta behov 📊 

/Plusmeny 🍺 

  • AI kan förändra världen 🥳 

  • Noll kommunala krisplaner för AI 👮 

Trött på att drunkna i ett hav av komplexitet? Testa HAIK!

/ Ingen hör dig skrika i Trondheim 🏔️ 

Inga Strümke har skrikit och skrikit där borta i Nordnorge ett bra tag. Men det verkar inte riktigt ha hörts ner till Oslo, Berlin eller Bryssel.

Tur att Aftenposten snappade upp hennes frekvenser.

I en översättning av intervjun med AI-forskaren vid Norges tekniska och naturvetenskapliga universitet (NTNU) i Trondheim finns en drös kloka tankar.

Vi tar inte tillräckligt allvarligt på att vi just nu håller på att staka ut kursen för den globala utvecklingen.

HAIK: Det här är politikens, och i viss mån näringslivets och forskningens, ansvar. Vi är på väg från ett berg till ett annat, vi ska erövra ny mark. Men vi kommer behöva passera en dalgång. Och den passagen behöver göras så lätt som möjligt, för den kommer ändå vara jobbig, lång och svår. Därför måste politiken ta mer ansvar och visa att man förstår ämnet och oron kring det.

När jag pratar med politiker säger de alltid: Vi vill lära oss mer, men det här är så stort, otydligt och svårt."

HAIK: Jag känner igen detta från svensk politik. Jag brukar säga: Börja med kursen Elements of AI. Det är lika svårt för mig att förstå lagstiftningsprocesser och partipolitiken som för folkvalda att begripa sig på AI. Jag har en plikt att ändå göra det begripligt för mig själv och för andra. Det har de också. Och ingen förväntar sig att någon blir färdigutbildad inom AI, eftersom det är ett socialt och ekonomiskt uttryck snarare än ett mekaniskt.

Jag har ju skrikit och skrikit om att vi behöver övervaka algoritmer, vi behöver veta hur de fungerar och vi behöver reglering av artificiell intelligens.

HAIK: Nu är vi där. Tillräckligt många verkar ha skrikit från sina respektive platser i världen. Högst har OpenAI och Sam Altman skrikit. Men jag oroas av hur politiken inte lyckas balansera ut två saker. På ena sidan finns frågan hur bra lagstiftningen blir när forskare är med och skriver den, eftersom de alltid vill ha hängslen och livrem (men inte för ansvar, utan för hårda fakta). På andra sidan står tanken om att lagstiftning måste ha experters insikter och klokhet för att fungera i verkligheten. Jag tror inte EU är där ännu. Kanada verkar vara där. USA not really.

Tillsyn kommer knappast innan EU är klara med sitt förslag, för det är så svårt att skriva reglering för artificiell intelligens”.

HAIK: Japp. Och här har EU inte lyckats. Jag hör ingen som är nöjd med den kommande lagstiftningen längre. Så lät det inte för 12-18 månader sedan. Då fanns det hopp om en robust politisk satsning på att minska risker och öka möjligheterna med AI. Som en senior AI-strateg från den privata sektorn sagt till mig verkar EU vilja uppfinna säkerhetsbältet före bilen finns. Går det ens?

/ Är AI en expansion eller ett försvar? 📊 

Intervjuer är roliga. Vi fortsätter väl med en till då.

Det eminenta magasinet Fokus har intervjuat Antonios Antoniadis som är reporter på SVT Uppsala. Han har precis släppt boken “Det osmarta samhället. Politik och makt i en digitaliserad värld”.

Jag gillar Antoniadis maktkritik. Han säger bland annat: “Vår inlärda osjälvständighet är it-företagens själva affärsidé”.

Sanning, broder. Vi har inte längre en självständighet.

Vårt inre är ockuperat och modifierat (jag gillar psykologins uttryck manipulerat mer, men folk blir så rädda då) av algoritmer. Och det har jag alltid hatat.

Jag skrev om det 2017 och 2018 (hittar inte texten) och 2019 och 2020 och 2021 och 2022 och 2023.

En sak ur intervjun med Antoniadis som fastnade är att utbudet av digital teknik skapar efterfrågan. Det kallas inom nationalekonomi för inducerad efterfrågan. Man kan tänka på det som ett latent behov.

Det är precis vad som kommer ske med AI.

Det finns inte alltid en massiv efterfrågan på glass bara för att någon producerar mer. Men vid vissa tider eller i vissa sektorer kommer produkter som omdefinierar och tillfredsställer ett behov samtidigt.

Typ som Steve Jobs tänkte: Apple ska ge det folk inte visste att de ville ha.

Med bättre, snabbare och billigare tillgång till juridisk AI-hjälp kan fler få sin sak bedömd eller prövad. Det kan leda till att folk faktiskt blir mer noggranna med att upprätthålla sina rättigheter eller ställa krav på arbetsgivare.

Frågan blir svårare när det kommer till sjukvården.

Där ses AI som ett sätt att hantera dagens volymer. Det finns stora vårdskulder efter pandemin. Många program för kontroll och uppföljning ligger långt efter.

Att stoppa in AI i verksamheten är inte tänkt som en expansion. Det är ett försvar.

Det behöver inte vara dåligt. Men det måste bli tydligt för beslutsfattare att de oavsiktligt kan virvla upp en inducerad efterfrågan när fler märker att vårdköerna kortas eller att vården blivit bättre på en viss sjukdom.

Det är i sig inte dåligt att fler människor söker vård. Det finns många fall av svår sjukdom som upptäcks sent eller aldrig.

Men diskussionen behöver omprogrammeras. Ska AI användas måste det övergripande målet vara tydligt. Ska en klinik exempelvis ta emot fler patienter, eller få bättre träffsäkerhet i diagnoserna? Kanske kan de göra båda, kanske inte.

Det här behöver ske på alla arbetsplater. Precis som Antonios Antoniadis bok vill få oss att reflektera över vår makt över oss själva och teknikens övermäktighet.

/Plusmeny 🍺 

#1 🥳 

I förra HAIK skrev jag långt och ledigt om hur vi pratar om fel saker när det gäller risker med AI.

Jag tycker generellt att det finns för långtgående beskrivningar av extrema eller teoretiska scenarios. Det hjälper oss inte.

Det finns en bred mittfåra att lägga sig i för partier, företag och personer eller organisationer som värnar människan.

Jag vet dock inte om Marc Andreessen lägger sig där. Han menar att vi måste göra allt för att släppa loss den ekonomiska och sociala kraften i AI.

Det kommer rädda världen, är huvudtesen. AI är “ett sätt att göra allt vi bryr oss om bättre.”

Han är lika tydlig med vad AI inte är: “Mördarmjukvara och robotar som springer till liv och bestämmer sig för att mörda människosläktet.”

För den konträre läsaren: Andreessen är djupt investerad i all form av AI-teknik och en drös bolag som är på väg att slå igenom inom olika nischer. Det är klart att han ser tekniken som en universallösning. Då får han ju sjukt mycket mer pengar än han redan har.

Läs hans tankar. Det tar en stund. Men det är bra att förstå hur en av techindustrins största investerare tänker.

#2 🧑‍✈️ 

De fem största kommunerna i Västra Götaland har ingen krisplan om AI börjar ställa till problem, enligt SVT. Man ba: Jaha, nähä.

Det är bra att svenska redaktioner ställer sakliga och konkreta frågor om AI till offentlig sektor.

En sak som är värd att ha med i framtida journalistik är att fråga politiker och tjänstemän varför de INTE använder AI inom en viss verksamhet.

Det kan vara nog så klargörande för att medborgare ska förstå avvägningarna, problemen eller okunskapen inom en skattefinansierad organisation.

Och det kan utkräva samma form av ansvar som när offentlig sektor behöver motivera varför de väljer en viss leverantör av skolmat eller hygienartiklar före en annan.

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Financial Times var snabba med att skapa en journalisttjänst helt dedikerad åt AI. I det senaste avsnittet av podden Working It medverkar hon, Madhumita Murgia, tillsammans med Jeff Wong från det globala konsultbolaget EY och Mary Towers, policyexpert på arbetsmarknadspolitik.

De frågar sig hur AI kan göra jobben mindre tråkiga.

Det verkar som en existentiell fråga som vi ännu inte har tänkt på.

Isabel Berwick i Working It

Wong är optimistisk om generativ AI inom revisionsbranschen. Han menar att deras anställda älskar att få mer tid att “använda den mänskliga delen av deras hjärna”.

Jag vet inte vilken del det är. Hypothalamus? Amygdala?

Men jag fattar förstås grejen. Tråkiga timmar i Excel och skattetabeller blir till roliga timmar med kollegor och kunder. Folk gillar att umgås med andra. Även fyrkantiga revisorer. (Jag tittar på dig, mamma!)

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#2. Konsekvenstänket.

Eppur si muove. Och likväl rör hon sig.

Det är inte säkert att Galileo sa så efter att ha utsatts för en religiös rättegång om sitt kätteri. Katolska kyrkan gillade inte hans tankar om att jorden rörde sig runt solen.

Men eppur si muove är bra att bära med sig.

Forskare, åtminstone de framstående, har det kämpigt ibland. De måste hitta sanning och rätta svar. Men de måste framför allt göra det när alla andra har fel. Det kräver en del självförtroende att peka på alla andra och säga att de inte kan något.

Men det är lika viktigt att forskningen som sådan förstår hur det de upptäcker kan påverka världen.

I Lund pågår en debatt om de etiska riktlinjerna kring forskning. De som utför den och hur den ska utföras granskas ofta. Men sällan blir resultaten etiskt prövade. Hur ska forskare som bryter ny mark inom genteknik eller AI göra med sina resultat eller upptäckter?

Jag tror inte att det går att begränsa eller etikpröva resultaten, förvisso. Men tanken om att blicka bortom labbet börjar växa.

Jag pratade nyligen med en AI-forskare vid Rise som börjat ändra hållning. Från att tro på det öppna samarbetet för att utveckla bättre modeller till att fundera på om resultaten alls ska släppas – just för att en algoritm eller modell lätt kan appliceras i kinesisk övervakning eller rysk propaganda.

Det här är kontroversiellt, och nytt för forskarna själva. Vissa är helt orörda och ångar på som vanligt för att det är deras inre forskarheder. Andra verkar ha stannat upp.

Jag gillar oftast att kolla på det som avviker. De här personerna som har stannat upp kommer jag borra mer i.

Eppur si muove.

Bra tryck i texten? Häng med på HAIK!