Dagen före kräftjävelns debut 🥃

HAIK lagar om vårens godaste serveringar!

Howdy! Samtliga karljohansvampar på Österlen är plockade. Traditionsenlig kräftskiva stundar imorgon. Kanske kan den så kallade kräftjäveln från Norrbotten – en nubbe av 3 cl tequila och 3 cl kräftspad – gå hem här nere.

Rötmånaden till trots är menyn fullspäckad: kärnvapen, laxar och politiska halvsanningar smakar mumma.

Som strössel serveras tankeläsning, och digestifen är en amerikansk tolkning av Galileos skuld. Väl bekomna, och fridens liljor!

/Dagens meny 🥘 

  • De felaktiga larmens tid 🤯 

  • En modern pitch till SVT 🎥 

  • Ministerns halvsanning 🤥 

/Plusmeny 🍺 

  • Tankeläsning is real 🧠 

/ Är AI verkligen det nya kärnvapnet? 🤯 

I en intervju med två AI-forskare och en kognitionsvetare får vi veta att larmen om existentiella hot från AI är överdrivna.

Man måste inte nödvändigtvis hålla med om det. Det finns definitivt långsiktiga problem och storskaliga risker med allt mer avancerad AI.

Som kognitionsvetaren Magnus Johnsson säger är AI i sig inte farligt, men “det kan vara farligt om man ser det som ett verktyg, likt kärnvapen, som kan hamna i människors händer.”

Att AI är som kärnvapen är en poäng som ofta kommer upp. Men vart leder det tanken?

För det första: Får vi något som är mer intelligent än oss, skulle “den” verkligen göra något som vi, den dummare av de två, inte gjort? Vi har inte förstört jorden med kärnvapen. Så varför skulle en mer intelligent skapelse se det som ett viktigt mål?

För det andra: Kärnvapen är väl reglerat och övervakat. Länder som vill ha uran till kärnkraftverk förbinder sig att släppa in inspektörer och installera övervakningsutrustning som Internationella atomenergiorganet styr.

Kanske är det dit vissa länder går, exempelvis genom G7-ländernas tanke om den så kallade Hiroshimaprocess (som ännu inte finns). Men vi kan inte byta AI mot övervakning och extern reglering. Det är något som varje land behöver diskutera och förhålla sig till.

För det tredje: Det var inte de som kom på atombomben som använde den. De behövde enorm hjälp genom Manhattanprojektet för att realisera idén. Leo Szilard blev inte världens mäktigaste människa bara för att han kunde bygga kärnvapen. Det var politiska beslut som styrde hur människan ska förhålla sig till tekniken.

För det fjärde: Om en form av AI ska ta över världen eller bli tillräckligt kapabel för att förstöra den krävs enorma mängder människor som agerar i detta intresse. Det underskattar grovt hur vi är funtade. Vi lär knappast gå med på att regissera vår egen undergång.

Det här brukar provocera fram det vanligaste motargumentet från alla som tillber Nick Bostrom och Max Tegmark: Men vi kommer tappa kontrollen när generell AI genomgår en intelligent och kognitiv explosion och blir superintelligent.

Visst, det är svårt för en mänsklig intelligens att föreställa sig samma saker som en eventuell superintelligens ser. Samtidigt har vi världens tröghet som en fördel.

Vi har kroppar. Det har inte superintelligenser. De är utombiologiska. Med våra kroppar kan vi påverka världen rent fysiskt. Vi kan kontrollera råvaror, byggnationer, bilar, varor. Hur ska något som saknar förmåga att finnas i världen göra allt det?

Slutligen: Tänk historiskt. Hur många länder, riken, nationer har skapat världsherravälde med dagens digitala teknik? Tekniken har snarare spräckt möjligheterna att dominera, och brutit upp världen i åtminstone tre maktpoler: Washington, Moskva, Peking.

Jag antar dessutom att de flesta håller med om att dagens människor är smartare än de på 1700-talet eller än vikingarna eller ännu längre bak.

En nutidsmänniska skulle dock inte dominera dåtidsmänniskor. Frågan är om vi ens skulle överleva i äldre samhällen, hur kunniga vi än är på sociala medier, industrirobotar eller självkörande bilar. Vad vi kan, och vad vi kan göra med den kunskapen, relaterar till kontexten.

Vi kanske inte kan tillräckligt mycket för att stoppa superintelligens. Eller så kan vi helt enkelt inte tillräckligt mycket för att förstå eller skapa den.

/ När kommer Den Stora Laxvandringen? 📷️ 

Kommer ni ihåg när israelisk 3D-fisk var med på menyn? Det var häftigt.

Jag erkänner: Ur ett AI-perspektiv var det långsökt. Men nu har jag hittat äkta fisk-AI att servera.

Jag pratade i början av sommaren med en person som jobbade på Ericsson. De har ett projekt i Älvkarleby i Gävleborg där de använder AI för att räkna fisk vid vandringstrappor.

Med 14 kameror under vattnet fångas varje firre som passerar. Mönsterigenkännande algoritmer skapar unika markörer med hjälp av prickar, fenor, storlek och svampangrepp.

Varför är detta bra, tänker ni.

Förut visste vi väldigt lite om vilka fiskar, eller ens hur många, som klarade av att passera olika drag och vandringstrappor. Och vi visste inte om de återkom år efter år eller dog på färden.

Det måste alla som driver kraftverk i svenska vattendrag veta. Och de har även skyldighet att odla fisk som kompensation för förstörda lekplatser vid reglerade vatten.

Det betyder att man måste kunna räkna odlad och vild fisk för att förstå hur ens miljöarbete faktiskt fungerar och påverkar naturen.

Det kan fisk-AI göra.

Algoritmerna kan med hög precision identifiera den fettfena som sitter långt bak på vild fisk, men som blivit bortskuren på odlad fisk. Och det går att se om det är laxfisk eller annan fisk.

Jag trodde det här var en väldigt nischad grej. Jag har ofta fel, vilket är kul.

Längre upp i Gävleborg, vid Brynäs, pågår ett AI-projekt för att räkna gäddor. I Kalmar och på Värmdö har man under våren räknat abborrar, brax, mört och många andra arter. Och Vattenfall började för tre år sedan att räkna laxar (firrar, inte tusenlappar) vid Stornorrfors i Umeälven.

Det finns, så klart, till och med ett bolag vars hela affärsidé bygger på fisk-AI.

Att det finns en svensk “fish nisch” inom AI gör mig ödmjuk inför nyttorna som tekniken kan tillföra samhället. Kan fiskarna och haven må bättre?

Jag hoppas att SVT någon gång satsar på Den Stora Laxvandringen i Umeälven.

/ Ministerns halvsanning 🤥 

I våras intervjuade jag digitaliseringsminister Erik Slottner (KD). Han sa att de privata företagen inte behöver politikens hjälp med att implementera och använda AI.

Ministern vill snarare fokusera på hur offentlig sektor görs bättre med tekniken. Det är en vällovlig ambition.

Det är också en chimär.

Den gängse politiska uppfattningen, särskilt bland borgerliga partier och väljare, är att offentlig sektor är ineffektiv och trögrörlig. Det må stämma på många håll, och jag kommer återvända till hur AI kan förändra det.

Men ministerns politiska berättelse om att näringslivet är bättre på att använda AI än offentlig sektor behöver kompletteras.

Kompletteringen: 4 > 1.

Statistiska Centralbyrån (SCB) släppte i våras en väldigt underrapporterad sammanställning om AI.

Den första meningen i presentationen lyder: “Mellan 2019 och 2021 ökade AI-användningen både bland företag, med 1,1 procentenheter, och i den offentliga sektorn, med 4,1 procentenheter.

Det är fyra gånger så vanligt att en organisation inom offentlig sektor börjar använda AI som inom den privata sektorn.

Det betyder inte nödvändigtvis att ministern har fel. Antalet företag som använt AI under 2021 var 2 570, enligt SCB. Motsvarande siffra för organisationer inom offentlig sektor var 130.

Men det är fortfarande bara 6,5 procent av företagen i Sverige som använder AI. Inom offentlig sektor ligger det på 26,6 procent.

Även här: fyra gånger så mycket.

Generellt sett är det större verksamheter i offentlig sektor som nyttjar tekniken, medan mindre företag väljer att gå samma väg.

Det betyder att sett till absoluta antal anställda kan användningen spänna över lika mängder arbetskraft i privat som offentlig sektor. Andelen stora enheter som använt AI är exempelvis “liknande i båda sektorerna”, enligt SCB.

Bland medelstora enheter ligger offentlig sektor före privat, men det är få i den förra kategorin och många i den senare vilket påverkar den procentuella andelen. Bland små enheter är skillnaden mellan sektorerna liten.

Varför använder man AI?

2019 var det vanligaste skälet inom offentlig sektor att utveckla eller förbättra interna processer. Två år senare var det i stället en existerande produkt eller tjänst som flest ville förbättra.

Det tyder på att mogenheten inom AI stiger bland kommuner, regioner och statliga myndigheter. De använder tekniken oftare eller bättre än för några år sedan.

Företag följer precis samma mönster, om än i högre utsträckning. It-säkerhet är dock viktigt för privata bolag, medan det alternativet inte ens finns med i de svarsalternativ som verksamheter i offentlig sektor kunde välja.

Kanske ingår säkerhetsarbetet i kategorin utveckling av interna processer, eller i utvecklingen av nya produkter och tjänster, men det är konstigt att tro att våra myndigheter inte använder AI för att skydda sig.

Varför använder man inte AI?

Det finns många svar. Här är de vanligaste, enligt SCB.

  • För statliga myndigheter är vision eller AI-strategi det största hindret, efter anställdas kompetens. Det senare problemet har dock minskat.

  • Även regioner saknar kompetens, men därefter är datasäkerhets- eller integritetsfrågor det största hindret ihop med juridiska och etiska frågor. Det hänger samman med deras ansvar för sjukvården.

  • Kämpigast verkar det för landets kommuner. Att hitta rätt personer att anställa är vanligast även här. Men 45 procent av kommunerna saknar kunskapen om tillgänglig teknologi och tillämpningar.

  • Bland företag i stort är det också kompetensen som hindrar utvecklingen. Och ju större företag, desto högre blir detta hinder. Men intressant nog är kostnader det näst största hindret, och även här växer det med företagets storlek.

Vad betyder detta?

Att kostnader är så högt upp talar emot narrativet att AI är så effektivt för att det är skalbart. Att implementera AI-system och -tjänster är svårt, vilket tar tid och därmed även pengar, och det kräver omställningar av vilket arbete som görs samt hur, var och när det görs.

Det finns dock ledtrådar till varför hindret är så stort. På delad andra plats ligger kvalitetsproblem med, eller brist på, data.

Det är ett reellt hot mot ens konkurrenskraft.

Antingen har man data som är svår att använda, eller så har man inte tillräckligt med data. Oavsett vad blir det en hög kostnad för företaget i form av stora investeringar i tid för att massera sin data eller i pengar för att köpa den.

Att etiken ligger högre upp inom offentlig sektor kan tolkas som att företag kommit längre i sin förståelse av tekniken. Eller så är det tvärtom: Att myndigheterna tar riskerna på större allvar. Att användningen av AI är utbredd hos dem stödjer den tesen.

Undantaget är kommunerna. Ungefär varannan vet inte ens var de ska börja gräva. Det är riktigt illa.

/Plusmeny 🍺 

#1 🧠 

Havannasyndromet fanns aldrig. Men biopsykologisk krigsföring har fått en game changer.

Fyra forskare från Texas har lyckats översätta tankar till text med ett AI-verktyg som kallas för en semantisk avkodare.

Modellen tränas genom att låta en person lyssna på timtals med podcasts samtidigt som syresättningen i hjärnan mäts. Ordflödet matchas mot mönster i hjärnaktiviteten.

Med hjälp av neurala nätverkskartor – som dels fångar relationen mellan betydelsen av ord och fraser i ett språknätverk och dels visar hur hjärnan lyser upp vid språkanvändning – kan de både beskriva vad en person tänker på, och summera vad en video som personen tittat på handlar om. Helvete!

Det funkar hyfsat bra. Exempelvis översattes tanken “Jag har inte tagit körkort ännu” till “Hon har inte ens börjat lära sig att köra bil ännu”.

Visst, en ny språkmodell behöver tränas för varje enskild person vars hjärna ska läsas av. Och visst, det funkar inte om personen aktivt tänker på något annat än materialet som forskarna visar. Men andemeningen i hjärnaktiviteten framgår ju.

Det här är förstås nyttigt för människor som är medvetna men inte fysiskt kan prata. Men det kan så klart missbrukas. Forskarna är medvetna om det.

Är det ett bra eller dåligt tecken att de också sökt patent på den semantiska avkodaren?

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Jag har tidigare skrivit om forskarvärldens inställning till AI utifrån ett citat som ofta tillskrivs Galileo Galilei: Eppur si muove. Och likväl rör hon sig.

Som jag också skrev då är det inte säkert att han ska ha uttryckt detta.

Men det beskrivs som ett citat från 1633 och den romerska inkvisitionen, den kyrkliga rättegång som hölls när någon utmanade kyrkliga dogman och doktriner.

Att solen rörde sig runt jorden höll inte Galileo med om. För det blev han åtalad och tvungen att dra tillbaka sitt påstående. Det är kärnan i all framstående forskning: Att söka och hitta sanning när alla andra har fel.

Rättegången, och Galileos skuld, dök upp som ett tankeexperiment i en podcast med techentreprenören och AI-debattören Marc Andreessen.

Vad hade hänt om dagens stora språkmodeller fanns 1633, och de fick frågan om Galileo hade rätt eller fel i sitt påstående att jorden rör sig runt solen?

Han har fel, för att den överväldigande majoriteten av mänskligheten vid tidpunkten ansåg det.

Marc Andreessen i Lex Fridman

Förut hade kyrkan och kungar monopol på det sanna och det rätta. Så är det inte i dag.

Men det många människor tycker i dag, och därmed skriver i böcker och på internet, motsvarar samma form av majoritetsåsikt som rådde när Galileo ifrågasatte världsordningen. Och den majoritetsåsikten är den träningsdata som går in i stora språkmodeller.

Modellerna bygger kunskap utifrån kollektivets kunskap. Modellerna har inte tränats på en sanning, eller att söka den, utan på vår konsensus.

En gång i tiden var konsensus att jorden stod still i universums mitt. Och att vissa människor var värda mer än andra.

Vad gör dagens konsensus med den kunskap och de svar som språkmodeller ger oss? Och vad gör det med oss?

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#6. Konsekvenstänket.

Apropå Galileo.

Forskare, åtminstone de framstående, har det kämpigt ibland. De måste hitta sanning och rätta svar. Men de måste framför allt göra det när alla andra har fel. Det kräver en del självförtroende att peka på alla andra och säga att de inte kan något.

Men det är lika viktigt att forskningen som sådan förstår hur det de upptäcker kan påverka världen.

I Lund pågår en debatt om de etiska riktlinjerna kring forskning. De som utför forskningen och hur den ska utföras granskas ofta.

Men sällan blir resultaten etiskt prövade. Hur ska forskare som bryter ny mark inom genteknik eller AI göra med sina resultat eller upptäckter?

Jag tror inte att det går att begränsa eller etikpröva resultaten, förvisso. Men tanken om att blicka bortom labbet börjar växa.

Jag pratade i mitten av maj med en AI-forskare vid det statliga forskningsinstitutet Rise. Forskaren har börjat ändra hållning, från att tro på det öppna samarbetet för att utveckla bättre modeller till att fundera på om resultaten alls ska släppas – just för att en algoritm eller modell lätt kan appliceras i kinesisk övervakning eller rysk propaganda.

Det här är kontroversiellt, och nytt för forskarna själva. Vissa är helt orörda och ångar på som vanligt för att det är deras inre forskarheder. Andra verkar ha stannat upp.

Jag gillar oftast att kolla på det som avviker. De här personerna som har stannat upp kommer jag borra mer i.

Hur säger man “ändå står de still” på latin?

Bra tryck i texten? Häng med på HAIK!