Skriet frĂ„n Trondheim đŸ”ïž

Och: latenta behov, krisplaner, Galileo.

Salve!

I dag har jag lĂ€st hur norska AI-forskaren Inga StrĂŒmke skrikit sig hes i Trondheim. Det finns ocksĂ„ en ny bok om vĂ„r maktlöshet inför tekniken som Ă€r vĂ€rd att förstĂ„.

Och sÄ gick jag tillbaka till Galileo Galileis ökÀnda citat Eppur si muove för att förstÄ hur akademin förhÄller sig till framsteg inom AI. DÀremellan finns godis.

Jag ska hĂ€nga i Centraleuropa och pĂ„ Balkan ett tag, sĂ„ “det enda du behöver lĂ€sa om AI” Ă€r tillbaka 20 juni.

HAIK? HAIK! Hörs.

/Dagens meny đŸ„˜ 

  • Ingen hör dig skrika i Trondheim đŸ”ïž 

  • Latenta behov 📊 

/Plusmeny đŸș 

  • AI kan förĂ€ndra vĂ€rlden đŸ„ł 

  • Noll kommunala krisplaner för AI 👼 

Trött pÄ att drunkna i ett hav av komplexitet? Testa HAIK!

/ Ingen hör dig skrika i Trondheim đŸ”ïž 

Inga StrĂŒmke har skrikit och skrikit dĂ€r borta i Nordnorge ett bra tag. Men det verkar inte riktigt ha hörts ner till Oslo, Berlin eller Bryssel.

Tur att Aftenposten snappade upp hennes frekvenser.

I en översÀttning av intervjun med AI-forskaren vid Norges tekniska och naturvetenskapliga universitet (NTNU) i Trondheim finns en drös kloka tankar.

“Vi tar inte tillrĂ€ckligt allvarligt pĂ„ att vi just nu hĂ„ller pĂ„ att staka ut kursen för den globala utvecklingen.”

HAIK: Det hÀr Àr politikens, och i viss mÄn nÀringslivets och forskningens, ansvar. Vi Àr pÄ vÀg frÄn ett berg till ett annat, vi ska erövra ny mark. Men vi kommer behöva passera en dalgÄng. Och den passagen behöver göras sÄ lÀtt som möjligt, för den kommer ÀndÄ vara jobbig, lÄng och svÄr. DÀrför mÄste politiken ta mer ansvar och visa att man förstÄr Àmnet och oron kring det.

“NĂ€r jag pratar med politiker sĂ€ger de alltid: Vi vill lĂ€ra oss mer, men det hĂ€r Ă€r sĂ„ stort, otydligt och svĂ„rt."

HAIK: Jag kÀnner igen detta frÄn svensk politik. Jag brukar sÀga: Börja med kursen Elements of AI. Det Àr lika svÄrt för mig att förstÄ lagstiftningsprocesser och partipolitiken som för folkvalda att begripa sig pÄ AI. Jag har en plikt att ÀndÄ göra det begripligt för mig sjÀlv och för andra. Det har de ocksÄ. Och ingen förvÀntar sig att nÄgon blir fÀrdigutbildad inom AI, eftersom det Àr ett socialt och ekonomiskt uttryck snarare Àn ett mekaniskt.

“Jag har ju skrikit och skrikit om att vi behöver övervaka algoritmer, vi behöver veta hur de fungerar och vi behöver reglering av artificiell intelligens.”

HAIK: Nu Àr vi dÀr. TillrÀckligt mÄnga verkar ha skrikit frÄn sina respektive platser i vÀrlden. Högst har OpenAI och Sam Altman skrikit. Men jag oroas av hur politiken inte lyckas balansera ut tvÄ saker. PÄ ena sidan finns frÄgan hur bra lagstiftningen blir nÀr forskare Àr med och skriver den, eftersom de alltid vill ha hÀngslen och livrem (men inte för ansvar, utan för hÄrda fakta). PÄ andra sidan stÄr tanken om att lagstiftning mÄste ha experters insikter och klokhet för att fungera i verkligheten. Jag tror inte EU Àr dÀr Ànnu. Kanada verkar vara dÀr. USA not really.

“Tillsyn kommer knappast innan EU Ă€r klara med sitt förslag, för det Ă€r sĂ„ svĂ„rt att skriva reglering för artificiell intelligens”.

HAIK: Japp. Och hÀr har EU inte lyckats. Jag hör ingen som Àr nöjd med den kommande lagstiftningen lÀngre. SÄ lÀt det inte för 12-18 mÄnader sedan. DÄ fanns det hopp om en robust politisk satsning pÄ att minska risker och öka möjligheterna med AI. Som en senior AI-strateg frÄn den privata sektorn sagt till mig verkar EU vilja uppfinna sÀkerhetsbÀltet före bilen finns. GÄr det ens?

/ Är AI en expansion eller ett försvar? 📊 

Intervjuer Àr roliga. Vi fortsÀtter vÀl med en till dÄ.

Det eminenta magasinet Fokus har intervjuat Antonios Antoniadis som Ă€r reporter pĂ„ SVT Uppsala. Han har precis slĂ€ppt boken “Det osmarta samhĂ€llet. Politik och makt i en digitaliserad vĂ€rld”.

Jag gillar Antoniadis maktkritik. Han sĂ€ger bland annat: “VĂ„r inlĂ€rda osjĂ€lvstĂ€ndighet Ă€r it-företagens sjĂ€lva affĂ€rsidĂ©â€.

Sanning, broder. Vi har inte lÀngre en sjÀlvstÀndighet.

VÄrt inre Àr ockuperat och modifierat (jag gillar psykologins uttryck manipulerat mer, men folk blir sÄ rÀdda dÄ) av algoritmer. Och det har jag alltid hatat.

Jag skrev om det 2017 och 2018 (hittar inte texten) och 2019 och 2020 och 2021 och 2022 och 2023.

En sak ur intervjun med Antoniadis som fastnade Àr att utbudet av digital teknik skapar efterfrÄgan. Det kallas inom nationalekonomi för inducerad efterfrÄgan. Man kan tÀnka pÄ det som ett latent behov.

Det Àr precis vad som kommer ske med AI.

Det finns inte alltid en massiv efterfrÄgan pÄ glass bara för att nÄgon producerar mer. Men vid vissa tider eller i vissa sektorer kommer produkter som omdefinierar och tillfredsstÀller ett behov samtidigt.

Typ som Steve Jobs tÀnkte: Apple ska ge det folk inte visste att de ville ha.

Med bÀttre, snabbare och billigare tillgÄng till juridisk AI-hjÀlp kan fler fÄ sin sak bedömd eller prövad. Det kan leda till att folk faktiskt blir mer noggranna med att upprÀtthÄlla sina rÀttigheter eller stÀlla krav pÄ arbetsgivare.

FrÄgan blir svÄrare nÀr det kommer till sjukvÄrden.

DÀr ses AI som ett sÀtt att hantera dagens volymer. Det finns stora vÄrdskulder efter pandemin. MÄnga program för kontroll och uppföljning ligger lÄngt efter.

Att stoppa in AI i verksamheten Àr inte tÀnkt som en expansion. Det Àr ett försvar.

Det behöver inte vara dÄligt. Men det mÄste bli tydligt för beslutsfattare att de oavsiktligt kan virvla upp en inducerad efterfrÄgan nÀr fler mÀrker att vÄrdköerna kortas eller att vÄrden blivit bÀttre pÄ en viss sjukdom.

Det Àr i sig inte dÄligt att fler mÀnniskor söker vÄrd. Det finns mÄnga fall av svÄr sjukdom som upptÀcks sent eller aldrig.

Men diskussionen behöver omprogrammeras. Ska AI anvÀndas mÄste det övergripande mÄlet vara tydligt. Ska en klinik exempelvis ta emot fler patienter, eller fÄ bÀttre trÀffsÀkerhet i diagnoserna? Kanske kan de göra bÄda, kanske inte.

Det hÀr behöver ske pÄ alla arbetsplater. Precis som Antonios Antoniadis bok vill fÄ oss att reflektera över vÄr makt över oss sjÀlva och teknikens övermÀktighet.

/Plusmeny đŸș 

#1 đŸ„ł 

I förra HAIK skrev jag lÄngt och ledigt om hur vi pratar om fel saker nÀr det gÀller risker med AI.

Jag tycker generellt att det finns för lÄngtgÄende beskrivningar av extrema eller teoretiska scenarios. Det hjÀlper oss inte.

Det finns en bred mittfÄra att lÀgga sig i för partier, företag och personer eller organisationer som vÀrnar mÀnniskan.

Jag vet dock inte om Marc Andreessen lÀgger sig dÀr. Han menar att vi mÄste göra allt för att slÀppa loss den ekonomiska och sociala kraften i AI.

Det kommer rĂ€dda vĂ€rlden, Ă€r huvudtesen. AI Ă€r “ett sĂ€tt att göra allt vi bryr oss om bĂ€ttre.”

Han Ă€r lika tydlig med vad AI inte Ă€r: “Mördarmjukvara och robotar som springer till liv och bestĂ€mmer sig för att mörda mĂ€nniskoslĂ€ktet.”

För den kontrÀre lÀsaren: Andreessen Àr djupt investerad i all form av AI-teknik och en drös bolag som Àr pÄ vÀg att slÄ igenom inom olika nischer. Det Àr klart att han ser tekniken som en universallösning. DÄ fÄr han ju sjukt mycket mer pengar Àn han redan har.

LÀs hans tankar. Det tar en stund. Men det Àr bra att förstÄ hur en av techindustrins största investerare tÀnker.

#2 đŸ§‘â€âœˆïž 

De fem största kommunerna i VÀstra Götaland har ingen krisplan om AI börjar stÀlla till problem, enligt SVT. Man ba: Jaha, nÀhÀ.

Det Àr bra att svenska redaktioner stÀller sakliga och konkreta frÄgor om AI till offentlig sektor.

En sak som Àr vÀrd att ha med i framtida journalistik Àr att frÄga politiker och tjÀnstemÀn varför de INTE anvÀnder AI inom en viss verksamhet.

Det kan vara nog sÄ klargörande för att medborgare ska förstÄ avvÀgningarna, problemen eller okunskapen inom en skattefinansierad organisation.

Och det kan utkrÀva samma form av ansvar som nÀr offentlig sektor behöver motivera varför de vÀljer en viss leverantör av skolmat eller hygienartiklar före en annan.

/Prat 🩜 

/TÀnkvÀrdheter frÄn nÄgon jag har pratat med eller lyssnat pÄ.

Financial Times var snabba med att skapa en journalisttjÀnst helt dedikerad Ät AI. I det senaste avsnittet av podden Working It medverkar hon, Madhumita Murgia, tillsammans med Jeff Wong frÄn det globala konsultbolaget EY och Mary Towers, policyexpert pÄ arbetsmarknadspolitik.

De frÄgar sig hur AI kan göra jobben mindre trÄkiga.

❝

Det verkar som en existentiell frÄga som vi Ànnu inte har tÀnkt pÄ.

Isabel Berwick i Working It

Wong Ă€r optimistisk om generativ AI inom revisionsbranschen. Han menar att deras anstĂ€llda Ă€lskar att fĂ„ mer tid att “anvĂ€nda den mĂ€nskliga delen av deras hjĂ€rna”.

Jag vet inte vilken del det Àr. Hypothalamus? Amygdala?

Men jag fattar förstĂ„s grejen. TrĂ„kiga timmar i Excel och skattetabeller blir till roliga timmar med kollegor och kunder. Folk gillar att umgĂ„s med andra. Även fyrkantiga revisorer. (Jag tittar pĂ„ dig, mamma!)

/LĂ€sbart đŸ“šïž 

/Det hÀr har jag tyckt om att dyka ner i pÄ senaste och tror att du ocksÄ kan göra det.

/En yta för fri reflektion om nĂ„got av det jag har lĂ€st đŸ€“ 

#2. KonsekvenstÀnket.

Eppur si muove. Och likvÀl rör hon sig.

Det Àr inte sÀkert att Galileo sa sÄ efter att ha utsatts för en religiös rÀttegÄng om sitt kÀtteri. Katolska kyrkan gillade inte hans tankar om att jorden rörde sig runt solen.

Men eppur si muove Àr bra att bÀra med sig.

Forskare, Ätminstone de framstÄende, har det kÀmpigt ibland. De mÄste hitta sanning och rÀtta svar. Men de mÄste framför allt göra det nÀr alla andra har fel. Det krÀver en del sjÀlvförtroende att peka pÄ alla andra och sÀga att de inte kan nÄgot.

Men det Àr lika viktigt att forskningen som sÄdan förstÄr hur det de upptÀcker kan pÄverka vÀrlden.

I Lund pÄgÄr en debatt om de etiska riktlinjerna kring forskning. De som utför den och hur den ska utföras granskas ofta. Men sÀllan blir resultaten etiskt prövade. Hur ska forskare som bryter ny mark inom genteknik eller AI göra med sina resultat eller upptÀckter?

Jag tror inte att det gÄr att begrÀnsa eller etikpröva resultaten, förvisso. Men tanken om att blicka bortom labbet börjar vÀxa.

Jag pratade nyligen med en AI-forskare vid Rise som börjat Ă€ndra hĂ„llning. FrĂ„n att tro pĂ„ det öppna samarbetet för att utveckla bĂ€ttre modeller till att fundera pĂ„ om resultaten alls ska slĂ€ppas – just för att en algoritm eller modell lĂ€tt kan appliceras i kinesisk övervakning eller rysk propaganda.

Det hÀr Àr kontroversiellt, och nytt för forskarna sjÀlva. Vissa Àr helt orörda och Ängar pÄ som vanligt för att det Àr deras inre forskarheder. Andra verkar ha stannat upp.

Jag gillar oftast att kolla pÄ det som avviker. De hÀr personerna som har stannat upp kommer jag borra mer i.

Eppur si muove.

Bra tryck i texten? HÀng med pÄ HAIK!