Algoritmen som vann ett äpple 🍎

Och: Vita Huset, två risker, cigarettcynism.

Buorre beaivi! Denna meny består av 994 ord och tar 4 minuter att tugga sig igenom.

Dagens takeaway: De stora AI-bolagen vill finansiera oberoende forskning om risker, säkerhet och ansvarsfull användning av generativa språkmodeller. Det är precis som tobaksbolagen en gång gjorde för att hindra politisk förändring.

Jag åkte till Tromsø igår som en del av Nordisk Journalistcenters stora Århuskurs. Temat är den nya verkligheten i Arktis. Vi besöker fiskare, samer, klimatforskare, militärbaser, medier, politiker och diplomater. Sen drar vi till Oslo för att hänga med Stoltenberg, ministrar och Nordiska rådet. Jag ska fråga om AI varje gång jag kan. Och bada i havet. Och kanske gå upp på fjället.

/Dagens meny 🥘 

  • Algoritmen som vann ett äpple 🍎 

/Plusmeny 🍺 

  • Biden pekar med hela handen 👊 

  • We shall overcome 🧑‍🤝‍🧑 

/ Prat 🦜 

  • Snart fattar vi hur dålig ChatGPT är 🤓 

/ Digestif 🥃 

  • Är Microsoft det nya Marlboro? 🚬 

/ Inger Persson låter IVA jämföra äpplen och päron 🍎 

I somras skrev jag en del om införandet av AI inom bröstcancerbehandling. Capio S:t Görans sjukhus i Stockholm var första bröstcancercentrum i världen att låta en AI-tjänst göra det som två läkare annars behövde göra, nämligen riskbedöma patienter utifrån röntgenbilder.

Sjukhusets intensivvårdsavdelning (IVA) har nu tagit rygg på onkologin. Från 5 oktober pågår en tre månader lång testperiod av Navoy, ett AI-baserat beslutsstöd byggt av företaget AlgoDx, för att bedöma patienters risk att utveckla sepsis (blodförgiftning).

Den underliggande algoritmen är utvecklad av Inger Persson, universitetslektor vid statistiska institutionen vid Uppsala universitet, ihop med ett team på AlgoDx. Den 6 oktober meddelade universitetet att man delar ut sitt innovationspris Hjärnäpplet till Inger Persson för algoritmen.

Navoy är integrerat i det befintliga övervakningssystemet som används på alla patienter på IVA. Varje kvart uppdateras riskbedömningen för om en patient utvecklar sepsis de närmsta tre timmarna. 20 parametrar som ålder, kön, kroppstemperatur och andra vitalparametrar, blodgastester och laboratorievärden används för att ge en risk mellan 1 och 10, ihop med en förklaring om hur säker modellen är. Det hjälper personalen att ta bättre beslut.

Ett stort ÄNTLIGEN: Jag pratade tidigare i år med en person från sjukvården som beklagade sig över att sjukvården inte frigör den kunskap som finns om varje patient. Sjuksköterskor, läkare och annan personal gör hela tiden observationer men de överförs på papper eller muntligt. De ger ingen helhetsbild av risken för att försämras eller för hur bra en medicin fungerar.

Och man frigör inte heller kunskapen från andra patienter när man går in i nästa behandling av en ny person. Kan Navoy vara ett första steg mot en dynamisk och responsiv vård? Man kan ju ta hjälp av AI-bolaget Detectivio som gör saker lättare.

Ett större MEN: Navoy testades först på Södersjukhuset. Nu integreras beslutsstödet på S:t Görans, en kvarts cykeltur bort. Men de har olika journalsystem så Navoy måste skräddarsys för varje system. Enligt Läkartidningen används nio olika journalsystem inom regional vård. Norrbotten har ett egetutvecklat från 1980-talet (som AI-toppen Halland också använder), grannen Västerbotten kör en annan variant, och så här håller det på…

/Plusmeny 🍺 

#1 👊 

Det kommer en exekutiv order om AI från USA:s president Joe Biden på måndag, enligt Axios Pro och Washington Post.

Det finns, som jag skrev förra veckan, skarpa ekonomiska och politiska motsättningar i hur beslutsfattare vill definiera fältet liksom sitt eget ansvar. Nu verkar presidentens veckovisa AI-möten ha renderat i en riktning.

Det blir kul att se vilka techbolag som ställer sig bredvid presidenten när ordern tillkännages. Det indikerar vilka som är tillräckligt självsäkra på att de ligger i linje med Vita Husets ambitioner, och vilka politiken anser är vettiga källor för inflöde och diskussion. Det formar förstås policyn, så det här är nog ett formativt skede för hur demokratier förhåller sig till AI.

#2 🧑‍🤝‍🧑 

Den exekutiva ordern lär sätta tonen för Storbritanniens globala konferens om säker AI. De vill diskutera två sorters risker: kontrollförlust och missbruk.

Redan i våras sa den brittiske finansministern Jeremy Hunt att väst “måste vinna loppet” att sätta globala standarder för AI. Men han var inte orolig för massarbetslöshet.

Säkerhet betyder en sak för stater. Det betyder en helt annan sak för människor i sin vardag som behöver mat på bordet.

Det led Storbritannien kraftigt av under 1800-talets början när automatiseringen av textilindustrin gav upphov till enorma motsättningar mellan utnyttjade arbetare å ena sidan och fabriksägare och fjärmade politiker å andra sidan.

Man måste inte vara apokalyptiker för att lyfta fram värdet av politisk beredskap för strukturella problem på arbetsmarknaden i spåren av automatisering.

Därför är jag också intresserad av hur Sverige deltar i och bidrar till konferensen. Vi har ju en självbild av att vara tekniskt framstående och samtidigt bry oss om den lilla människan. Vi lär dock inte vara kvar under konferensens dag två, när bara de främsta politikerna, företagen och forskarna får dela tankar.

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Den här Lundaprofessorn skräder inte orden. Han brukar säga att “studenterna vet mindre än någonsin men uppsatserna har aldrig varit så bra som nu.” Det är för att de lever “i symbios med Google och AI”.

ChatGPT är bättre än ingenting, men om ett år eller två inser vi hur begränsad och dålig den faktiskt är.

Christian Balkelius

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#5. Gemensamma åtaganden.

De största AI-bolagen Anthropic, Google, OpenAI och Microsoft lanserade i somras Frontier Model Forum, en sorts gemensam fikastund där de vill prata om AI på sitt sätt.

Nu har man utsett en vd, Chris Meserole, för forumet. Och därtill avsatt 10 miljoner dollar till en “säkerhetsfond” för att stödja “oberoende forskning” om risker och säkerhetstekniker. Ansvarsfull AI är ledorden.

Ända sedan jag läste boken The Cigarette av Sarah Milov uppstår en känsla av misstro och vanmakt när nya initiativ att reglera och granska sig själv dyker upp.

Att de stora spelarna skulle ägna sig åt forskning, rekommendationer och teknikutveckling som inte gagnar dem själva är svårt att se. Även om de kan leverera bra och genomtänkta produkter och policys måste man förstå att de från början kommer från bolag som hotas av skarp lagstiftning.

Att skapa en säkerhetsfond är ungefär lika trovärdigt som när tobaksbolagen finansierade oberoende forskning om rökningens hälsoeffekter och alltid kom fram till att det inte var så farligt, eller att det vetenskapliga läget är oklart och att mer studier behövs.

Tobaksjättarna har ägnat snart 100 år åt att så tvivel om deras produkter, för att sätta politiken på pottkanten och därmed slippa skatter, krav och förbud.

Exakt samma sak har sociala medier och till viss del andra plattformsföretag gjort de senaste 15 åren.

Jag må vara cynisk och enögd, men i detta fall väljer jag det perspektivet för att historien pekat ut industri efter industri som använt samma metod för att skydda sig själva. Och det skadar samhällen, personer och ekonomier.

Bra tryck i texten? Häng med på HAIK!