Ket är första bokstaven i ketchup 🍅

Och: Biskopsbön, läkardiss, Chalmers musfälla.

Det är fredag och min födelsedag! 🥳 

Ni vill förstås veta vad jag önskar mig. Det är lätt: Fler som bryr sig om AI.

JAG ger en present till ER: Skicka länken för att prenumerera på HAIK till en person, så får ni en genomgång av de bästa AI-verktygen som jag (och andra) använder dagligdags.

Står tårta på dagens meny? Självklart 🎂 Inte här inne dock.

Här finns bara en genomgång av hur AI läser dåligt, och lite om biskopen i Lund och lite om att AI är tio gånger mer empatisk än läkare. Och så lite medvetandefilosofi och skolkritik.

/Dagens meny 🥘 

  • Vad ketchup säger om språkmodeller 🍅

  • Biskopen som ber snällt till Alexa 🙏 

  • Läkare: Vi är bäst på människor. AI: Nej! 🚑️

/Plusmeny 🍺 

  • “Systemen kan ha tokfel” 🙄 

Trött på att drunkna i ett hav av komplexitet? Testa HAIK!

/ Kom nu ketchup, så går vi 🍅 

Ingenjörer vet inte hur folk fungerar. Det är ett argument jag hört och läst i olika sammanhang bara de senaste dagarna.

Två stycken panelister har, helt oberoende av varandra, tagit upp Amazons skeva algoritm för rekrytering.

De menar att det visar hur ingenjörer bakom globala tekniker ofta inte har exponerats för vetenskapsteoretiska eller filosofiska eller historiska frågor – eller annan samhällsvetenskap – som bidrar till bättre produkter och tjänster.

Ingen kodare ställde frågan om hur Amazons historiska rekryteringsmönster sett ut. Alla ville skapa bra kod, bättre algoritmer och mer värde.

Världen behöver dock mer kritiska blickar på den data som går in i AI-tjänster.

Därför var det befriande roligt att läsa vetenskapsredaktören Elizabeth Lopattos försök att få Googles AI-modell Bard att förklara grammatik. Hon har samma ingång till AI som panelisterna: Ingenjörer känner inte människan.

Hon inspirerades av ett exempel där Anthropics modell Claude (oklart vilken version) använts för att lista antalet gånger som bokstaven “n” förekommer i det engelska ordet mayonnaise.

Svaret: Fyra gånger. Kunde Claude lista dem? Jajamen. Mayonnaise. Mayonnainse. Mayonnaine. Mayonnaisne. Voilà, fyra!

Lopatto bad därför Bard att förklara hur många gånger bokstaven “e” förekommer i ordet ketchup.

Svaret: Noll gånger.

Lopatto testade åtminstone fem olika sätt att instruera Bard att visa eller räkna bokstaven e i ketchup. Men den fanns inte i ordet. Sen bytte hon till “a” i sriracha.

Samma svar.

Det är inte ett försök att sätta dit chatbottar som oanvändbara. Som Lopatto skriver: “Om det är något chatbottar är värdefulla för, så är det att belysa saker om vår egen intelligens som vi tar för givna.

De flesta femåringar hade förstått instruktionerna, utfört uppgiften och presenterat svaret på första försöket. Men inte Bard.

Varför?

Språkmodeller arbetar med tokens. Grovt uttryckt kan en token antingen vara ett kort ord eller en stavelse i ett längre ord. För Bard, Claude och alla andra modeller består ketchup inte av sju bokstäver utan av två tokens: ket och chup.

Bard tror alltså att den första bokstaven i ketchup är ket, inte k. Tror och tror förresten… Modellen har ingen uppfattning. Den består bara av träningsdata och delar ingen underliggande kunskap med oss människor om hur världen är beskaffad.

Typ som att det går att se ett e på andra plats i ordet ketchup. Det alla människor kan enas i är inte ens ett alternativ för Bard.

Kanske måste vi omdefiniera vad språklig kognition och intuition är för något. Tills dess är dumhet det bästa vi har. Det gäller i hög grad människan med.

Det finns fler som tycker att befintliga AI-tjänster är korkade.

Robotforskaren Rodney Brooks menar att språkmodeller är bra på “att säga vad ett svar borde låta som, vilket är annorlunda från vad ett svar borde vara.”

Varför? De har ingen underliggande modell av världen. De har ingen anknytning till världen. Det är korrelationer mellan språk.

Utanför åsiktskorridoren: Här förklarar Felix Martin varför AI snarare kommer visa på människans dumhet.

/ Biskop Johan ber till Alexa 🙏 

“Kristna och religiösa minoriteter” kan få sin frihet utraderad om AI missbrukas. Det menar David Curry, vd för GCR som är en biståndsorganisation för förföljda kristna.

Först: Curry har en poäng. Teknik, underbyggd av AI, kan spåra, övervaka och begränsa människor utifrån flera aspekter. Religiös övertygelse är en sådan.

Men Curry är väldigt sinocentrisk. Visst, det finns runt 100 miljoner kristna i Kina. Och de senaste fyra årtionden har landet sett flest nya tillbedjare av Jesus i hela världen. All religion, särskilt en kyrka som gått från 1 miljon till 100 miljoner, är förstås en alternativ maktbas som staten inte tolererar.

Men man kan inte ställa kristna och religiösa minoriteter bredvid varandra utan att läsaren associerar de två. Curry gör det i sin artikel och GCR gör det i en rapport.

Det är ett manipulativt språkbruk som centrerar diskussionen på religion snarare än människor.

Tidigare i vår intervjuade jag biskop Johan Tyrberg från Lunds stift. Jag fick först upp ögonen för honom i januari 2020 när jag besökte ett AI-forum i Jönköping.

Han har länge intresserat sig för hur AI påverkar och förändrar vår relation till oss själva och andra.

I intervjun nämner han den smarta högtalaren Alexa. I prästhemmanet säger barnen barskt åt högtalaren att sluta spela upp något.

Biskopen har en annan attityd. Han vill inte vara ohövlig eller sträng mot Alexa. Han ber den vänligt att söka efter eller spela något.

För kommunikationen med andra människor påverkas av alla de små valen i hur en person bemöter sin omgivning. Som kristna ofta framhåller finns förändring, liksom synden, i en själv.

Tyrberg betonade gång på gång i intervjun att kyrkan under alla stora förändringar fångat upp människors oro, misslyckanden och tvivel. Och att man har visat vägen när nya tekniker, exempelvis inom jordbruket, ställt folk inför nya verkligheter.

Det betyder att kyrkan kan och ska erbjuda hopp framöver – särskilt när så många andra är domedagsprofeter.

Jag tycker det är en romantisk bild av kyrkans positiva kraft för samhällsförändring. Möjligtvis ska jesuiterna få cred för hur de utmanade påven att tänka om kring räntor och försäkringar på 1500-talet.

Men jag gillar biskopens övergripande budskap om hopp.

/AI tio gånger mer empatisk än läkare

Anders Hansen vill ha kvar sitt jobb som psykiatriker. Så läser jag hans senaste krönika i Dagens industri.

Det handlar om en fråga som är “långt mer komplicerad än vilka uppgifter AI kan utföra minst lika bra som människor, vi måste också väga in hur vi upplever det att arbeten utförs av något som inte kan känna.

Han menar att en AI-terapeut aldrig kommer bry sig om dig på riktigt. Inte heller en robot till cancerläkare.

Därför måste vi alltid fråga oss: “Är det här verkligen en arbetsuppgift vi vill lämna över till en maskin?

Jag antar att han känner obehag inför att något som inte kan känna gör vissa uppgifter eller hela jobb inom sjukvården.

Han har också, enligt sig själv, “mer ångest än genomsnittet”. Det påverkar förstås vad man efterfrågar hos sjukvårdspersonal. Så vad tycker genomsnittet om att bli bemötta av AI inom vården?

Här är en graf från en studie som kom i slutet av april. I fyra av fem fall var AI bättre än läkare på att svara på patienters frågor.

“AI kan ge patienter en känsla av närhet och medkänsla som ligger i linje med den standardläkare levererar idag“, som en AI-tjänst summerade det för mig.

Svaren som genererades av AI var fyra gånger bättre sett till kvaliteten, och tio gånger mer empatiska, enligt de dryga 200 personer som studerades. Wowza!

/Plusmeny

#1 🙄 

AI-system kan ha “tokfel”, och det måste skapare, användare och mottagare av AI-material ha med sig.

Det säger Moa Johansson, docent vid institutionen för data- och informationsteknik vid Chalmers tekniska högskola, i en intervju i Sydsvenskan.

Det är sant. Vi lever i en postrealitet. Johansson gör dock en viktigare poäng, som hade behövt komma fram oftare.

Debatten om vad AI är och kan göra är för extrem.

“I och med de här överdrifterna riskerar man att tappa fokus på viktiga frågor och de verkliga risker som finns med AI här och nu”.

Det är helt sant, tyvärr. Antingen är AI det nya guldet eller det nya kärnvapnet. Vi tycks ha svårt att förhålla oss till AI som en teknik. Det inkluderar mig själv.

Jag tror verkligen att AI skapar helt nya sätt att förstå oss själva och världen. Men det är något som tar många år att slå rot. I vardagen handlar det om bättre sjukvård eller bättre analyser av rapporter.

Sådant ställer de “viktiga frågor” som Johansson lyfter, exempelvis om patientsekretess och upphovsrätt. Det är vårt här och nu.

Renässansen blev känd först i efterhand. Där och då byggde man och målade bara annorlunda.

/Prat 🦜 

/Här tänkte jag berätta något tänkvärt från någon jag har pratat med eller lyssnat på.

I tisdags var jag på ett seminarium om AI och medvetande, arrangerat av förlaget Fri Tanke.

Filosofen David Chalmers, vars alster jag inte läst, stod i centrum. Hans bok om virtuella världar var färsk från tryckeriet.

Han sa en sak som fick mig att tänka.

Idag argumenterar många för att möss är medvetna, fast de har lägre kunskaper och intelligens.

David Chalmers

Varför ska AI behandlas annorlunda, var hans poäng.

Det är dit som Peter Godfrey-Smith drar i sin fantastiska bok om bläckfiskar och intelligens.

Det finns uppenbara invändningar. Möss är biologiska varelser. AI är en utombiologisk skapelse.

Men jag förstår Chalmer. Det kan komma en tid då det inte råder någon skillnad mellan kvaliteten på biologisk och utombiologisk intelligens. Då får vi svårt att neka den samma bemötande som andra människor får.

Samtidigt är medvetande möjligt först när någon erhåller moralisk status. Det händer med träd, floder och andra delar av naturen nu. Liksom det gjort med djur tidigare.

Det är intressant hur det ändå inte känns djärvt att Chalmers menar att AI kommer bli en teknik med medvetande och moralisk status.

Han menar också att virtuell verklighet (VR) kommer göra den nuvarande fysiska verkligheten obsolet och oskiljaktig från andra världar. Väldigt mycket Matrix!

Det vore också en lösning på Nozicks klassiska etiska experiment med en upplevelsemaskin. Matrix deluxe…

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.
/Håller jag med? 🤓 En yta för fri reflektion om något av det jag har läst.

#1. Varför AI.

Någon gång kommer AI-kunskaper inte vara en konkurrensfördel, utan en nödvändighet. Men den dagen är långt borta.

Så läser jag rapporten från Tillväxtanalys om hur sex svenska bolag ser på och använder AI.

Dålig eller otydlig reglering, dålig kvalitet eller brist på data samt kompetensbrist gör företagen sårbara. Samtidigt förkortas ingenjörers bäst-före-datum – och därmed även bolagens konkurrenskraft.

Det har exempelvis fått industrijätten ABB att starta ett eget internt universitet för att ge alla anställda specifika eller generella kunskaper inom AI. De har också en egen hubb, Genix, för nystartade bolag att nå ut till ABB:s befintliga kunder.

Det är rimligt. Förra våren fick varannan (!?) gymnasieelev underkänt på nationella provet i kursen matematik 1a.

Om skolsystemen inte producerar de kunskaper, färdigheter och personer som behövs inom industri- och tekniksektorerna får de göra det själva.

Det är en svårsmält pendang till vad Svenskt Näringsliv (#3) argumenterar för i sin rapport om hur skolsystemet inte producerar tillräckligt många som kan naturvetenskapliga ämnen tillräckligt väl för att försörja svensk industri.

Bra tryck i texten? Häng med på HAIK!