Törstiga språkmodeller 💧

Och: Israels AI-krig, Alma på Gotland, imago dei.

Grüß Gott, som österrikarna säger! Vecka tre av fyra på UNT:s ledarsida är fulländad. Ingen helgkrönika om AI denna vecka dock.

Till huvudrätten fanns därför lite mer tid att fördjupa sig i AI-modellers miljöpåverkan. Dessutom: Israels AI-krig.

I övrigt serveras en icke-pannkaka från Gotland (och 08), klagande konstnärer, en mellanrätt på kampen mellan data och hårdvara och som digestif imago dei.

Ännu en ytterskärgårdspaddlingshelg stundar. Bis bald!

/Dagens meny 🥘 

  • Törstiga språkmodeller 💧 

  • Vad göra med Fire Factory? 🇮🇱 

/Plusmeny 🍺 

  • Alma gnetar på i Stockholm och på Gotland 🏥 

  • Konstnärsklagomål 🎨 

/ En halv liter vatten för att chatta 💧 

I Skåne jobbar Lucas Ferreira och Steffen Malkowsky med att sänka klimatpåverkan från AI. Bolaget Inceptron komprimerar modeller så att mindre energi krävs för att utveckla dem.

Det är bra, och företaget lär ha enorm potential att göra nytta.

Bara Googles AI-arbete under 2021 förbrukade enligt en uppskattning 2,3 terawattimmar. Det är, enligt Vattenfall, nästan lika mycket som all el under ett år till 500 000 hushåll. Typ Göteborg…

Nu har Google förvisso gjort som Lundagrabbarna och använt AI för att kapa energiåtgången med 40 procent.

Men det finns ju fler utvecklare av AI-modeller. När OpenAI tog fram GPT3 motsvarade det 500 ton koldioxidutsläpp. Det är drygt sex enkelresor med flyg mellan Luleå och Stockholm.

Det är inte bara koldioxid som påverkar klimatet. För att ens skapa GPT3 förbrukade OpenAI/Microsoft drygt 700 000 liter vatten, enligt forskare. Det går främst till att kyla servrar.

Folk har klimatångest på grund av flygresor. Folk som använder ChatGPT har det inte.

Men om det skulle stå det som forskarna får fram – att mellan 20 och 50 frågor i ChatGPT motsvarar förbrukningen av en halvliters vattenflaska – skulle nog fler tveka på att be om hjälp att skapa totalitära regimer eller bygga magiska potatisar.

Ett kliv bak: Vatten är livsviktigt, och bristen ökar globalt sett. Det råder stora konflikter om vatten mellan exempelvis Egypten och Sudan, och i länder som Irak, Somalia, Bolivia och USA. En av de dödligaste vattenkonflikterna är mellan herdar och bönder i gränstrakterna mellan Mali och Burkina Faso.

Som jag skrev i en ledare om vatten i UNT redan 2019: “I dag finns uppskattningsvis 286 gränsöverskridande flod- och sjöområden, men bara 84 stycken omgärdas av samarbeten för att hantera överutnyttjande.” Utan samarbete blir det bråk.

Företagen som utvecklar AI-modeller berättar ingenting om energiåtgång eller dylikt. Med mer transparens kan samhället och politiken bestämma sig för vad vi tycker att priset för användningen ska vara.

Att använda en AI-modell för att hitta nya antibiotika vill nog många. Men när överväger klimatpåverkan de eventuella nyttorna?

Money, money money… Dagens Prat handlar om Josh Wolfe. Han berättar att kostnaden för att utveckla stora språkmodeller ökar, främst för att fabrikerna som tillverkar hårdvaran bakom träningen fördyras vilket överförs till modellutvecklare genom dyrare processorer. ChatGPT3 var “i de låga hundratals miljoner dollar”. Nästa generation modeller förväntas kosta bortåt en miljard dollar.

Ovanpå det måste de miljömässiga konsekvenserna av el- och vattenförbrukning räknas in. Självklart beror klimatavtrycket från modeller på varifrån elen kommer. Google menar att deras utsläpp ligger på netto noll.

Men Google är inte särskilt koldioxidneutralt.

De använder fossila bränslen och köper förnybart någon annanstans, så kallad klimatkompensation. Det betyder att man kan dubblera utsläppen genom att dubblera kompensationen. Inte så nära noll…

Inceptron tror sig kunna minska energiåtgången för sina kunder med 60 procent. Hoppas att de får napp hos Google och Microsoft.

/ Det behövs brandsläckare i Fire Factory 🇮🇱 

Israels armé (IDF) använder AI för att identifiera mål och planera luftattacker, enligt Bloomberg News.

Det finns två system. Ett som föreslår vilka mål som ska beskjutas, och ett med namnet Fire Factory som beräknar allt från ammunitionsmängd till flygplans- och drönarbehov till vilken ordning som beskjutningen ska ske.

Det betonas att människor granskar och godkänner alla AI-beslut. Men väldigt få, särskilt militärer, lär ifrågasätta algoritmer på ett systematiskt vis. Det öppnar för godtycklighet i verksamheter med irreversibla konsekvenser.

Som en tidigare jurist för IDF säger: “Man kan radera ut en hel familj baserat på ett misstag.”

The poly-ticks, then…

I Storbritannien finns en parlamentarisk kommittée för att utreda AI inom vapensystem. USA har redan tagit fram sin policy.

Miljöpartisten Carl Schlyter motionerade till riksdagen redan 2017 om att förbjuda “autonoma dödliga vapensystem och reglera utvecklingen av artificiell intelligens”.

Jag frågade i våras försvarsdepartementet om Sveriges deltagande vid det nya toppmötet ReAIM, som handlar om AI inom försvar, vapensystem och militära operationer.

Vissa jag pratade med sa att Sverige inte brydde sig om ReAIM, som anordnades i Haag av Nederländerna och Sydkorea. Det stämde inte.

Sverige hade en rätt stor officiell delegation på plats. Vi skickade försvarsministerns statssekreterare Peter Sandwall, som även var delegationsledare. Ambassadören och försvarsattachén i Nederländerna var där, och Sandwall fick även resesällskap av “3 st tjänstepersoner från Försvars- och utrikesdepartementet, [c]a 10 st tjänstepersoner från relevanta myndigheter FOI, FMV och Försvarsmakten”.

Det är inte tydligt var Sverige la sitt fokus. ReAIM var dels ett toppmöte, dels en parallell konferens med forskare, experter och policyfolk.

Men Försvarsdepartementet sa i ett mail att “Sveriges hållning inför konferensen är att regeringen stödjer de slutsatser som presenterades som ett resultat av konferensen. Slutsatserna hade förberetts genom konsultationer som tjänstemän från Nederländerna anordnade med de medlemsstater som deltog vid konferensen.”

Om allt var färdigt före mötet hade det gemensamma uttalandet efteråt lika gärna kunnat skrivas av ChatGPT, typ…

Varför behövs ReAIM? Israel.

På förhand sa Nederländernas utrikesminister Wopke Hoekstra att de vill samla länderna för att definiera terminologi, se hur AI på ett säkert sätt kan användas för att accelerera beslutsfattande i en militär kontext, och hur det kan användas för att identifiera legitima mål.

“Vi rör oss mot ett fält som vi inte känner, som vi inte har några riktlinjer, regler, ramverk eller överenskommelser för. Men vi behöver de förr än senare.”

Det är precis vad Israel gör nu. Utan reglering. Utan insyn. Utan internationella forum för att granska eller diskutera detta. Det krävs bara en mjukvaruuppdatering av AI-systemen för att de ska kunna bestämma och utföra attacker helt utan mänsklig insyn.

ReAIM kom inte överens om någonting. Men det anordnas i Sydkorea nästa år. Då behövs reella bindande åtaganden från demokratier att utveckla mekanismer för utvärdering före och efter användning av AI-vapen.

Och de måste pressa Israel, som inte skrev under det gemensamma uttalandet i februari, att tänka om.

Kan det gå?

Efter ReAIM ville Kina rikta allt sådant här arbete genom säkerhetsrådet i FN. USA la i stället fram ett eget policyförslag som alla intresserade fick ansluta sig till.

Det förordade “ansvarsfullt” bruk av militär AI-teknik men saknade all typ av närmare definition.

Inget av länderna vill, av rädsla för att halka efter i teknisk kapacitet, engagera sig i frågan på riktigt.

Det splittrar det politiska arbetet att skapa trovärdiga lösningar. Så låter man Israel fortsätta i spåren av det landet självt kallat för “det första AI-kriget”.

/Plusmeny 🍺 

#1 🏥 

Jag skrev i april en essä om AI och offentlig sektor. Sjukvården är ett bra exempel där AI gör nytta.

Jag skrev bland annat: “[m]ed det AI-baserade beslutsstödet Alma lyckades Capios vårdcentraler i Stockholm tredubbla antalet läkemedelsgenomgångar med äldre patienter. Bolaget bakom Alma, Blackwell Medtech, har räknat ut att en läkare kan spara mellan 10 och 20 procent i dokumentationstid per handläggning med hjälp av programmet.”

I veckan som gick skrev jag en ledare om läkemedelsbristen i Sverige. Den orskar mycket problem.

Ett är att läkare måste lägga massa tid på nya bedömningar av flera patienter vilket stjäl tid från andra uppgifter, främst patienter.

När jag ringde runt för att lära mig mer om läkemedelsbristen fick jag höra att Blackwell Medtech rullat ut en funktion i Alma som kan hjälpa läkarna.

Med en enkel RPA utanpå befintliga journalsystem kan användare av Alma se vilka läkemedel som är restnoterade FÖRE de skriver och skickar iväg recept.

Det är enkelt men väldigt nyttigt. Läkaren slipper återbesök eller samtal för att korrigera utskrivningar, och patienter behöver inte jaga runt på massor av apotek för att hitta rätt läkemedel.

Än så länge finns funktionen bara på Gotland och i Stockholm, men är på väg till fler regioner inom kort. Läkarna har “tagit emot tjänsten väldigt väl” enligt en källa, och allt har fungerat bra.

#2 🎨 

Massor av internationella författare har skrivit ett brev om att deras verk inte får användas när AI-modeller skapas, om de inte får ersättning.

Jag skrev i början av mars om denna instinkt.

Men argumenten från såväl kreatörer som bibliotekarier är ihåliga. Varför har så många personer i alla dessa år frivilligt gett bort sin data gratis? KB har redan tillgängliggjort stora delar av sina textmängder för att bygga ett AI-verktyg som hanterar e-post, rapporter och dokument i offentlig sektor, utan riksbibliotekariens oro. Därtill är många AI-verktyg en produkt av fri forskning i demokratiska samhällen.

Få författare och journalister har klagat på att deras texter kan ha använts för att skapa verktyg som effektiviserar myndigheter.

Och jag poängterade att AI inte skadar alla konstnärer. En hel del gör ny bild- och textkonst.

Det kanske är människor vars verk enklast kan kopieras som nu klagar. Det borde snarare leda till en diskussion om vad för sorts skapande man ägnar sig åt och hur det kan förändras.

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Beräkningskraft eller dataset? Det är ungefär de två lägren som AI-marknaden är uppdelad i.

En del investerare, såväl institutionella som riskkapitalister och enskilda sparare, tror att företagen med massa GPU:s blir framgångsrika inom AI.

Andra ser tillgången till unik data som kan skäras på flera ledder som det enda försprånget. Alla kan köpa processorer, men vad ska de köra genom dem utan vettig data?

Det kommer inte bara vara de stora jättarna.

Wolfe tror att det finns en inbyggd sårbarhet i de etablerade företagens utveckling av stora språkmodeller. Lux Capital har satsat mycket pengar på andra företag.

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#5. Frikoppling.

Intelligens är svårt att definiera. Så varför kan vi hävda att det som skapas nu är en artificiell variant på vår intelligens?

Det är grunden i en essä av Nicklas Berild Lundblad om vår begreppsliga förvirring kring AI.

Egentligen borde vi insistera på en ny term, ett nytt begrepp för denna märkliga landvinning, och vi borde försöka förstå den som något helt nytt i stället för något som efterliknar oss. Det är först då vi kan börja förstå teknikens möjligheter och risker på djupet – när vi lämpar vårt begreppsliga bagage överbord och börjar att studera dessa komplexa system som något i grunden nytt.

Nicklas Berild Lundblad i SvD 15/7

Jag håller helt med. Språket måste uppdateras för att ge oss en rättvis chans att involvera, reglera eller förbjuda tekniken på olika områden.

Som Berild Lundblad fortsätter så krävs att “vi vinner kampen mot språket, och besegrar den mjuka narcissism som språket invaggar oss i, där vi blir alltings måttstock och spegelbild.“

Så blir det när vi konstant felanvänder språket för att representera utombiologisk materia som något biologiskt.

För den konträre: Det är mänskligt att göra saker till våra avbilder. Evolutionärt har vi tjänat på att tro att en mörk stor yta i skogen om kvällen är en björn eller beväpnad människa snarare än en sten, påpekar antropologen Stewart Guthrie.

Det har dock gjort att vi ser oss själva överallt Så uppkom exempelvis tanken om imago dei, alltså att människan skapades till Guds avbild.

Dessutom är språk är symboler. Alltsedan Tors hammare small över oss i himlen är vi vana att tolka allt som sker som mänskligt, om än i olika grader.

Artificiell vadå? Det finns en matematikprofessor i Lund vid namn Kalle Åström som tycker att AI borde bytas ut mot AV: artificiell vishet. Jag tycker inte att det är ett bättre alternativ. Men ansatsen är bra.

Bra tryck i texten? Häng med på HAIK!