Om ingen får se algoritmen, har den då funnits? 🤔

Och: ingen mediedöd, datakonkurrens, teknooptimistens manifest.

Shalom! Denna meny består av 1064 ord och tar 4,5 minuter att tugga sig igenom.

Dagens takeaway: Ju viktigare språkmodeller blir för samhället, desto viktigare att de går att granska. Men transparensen blir bara sämre, enligt en ny rapport från HAI vid Stanforduniversitetet.

Förra veckans HAIK utgick av flera skäl. Det var INTE för att vi sprang vilse på långloppet 7 oktober. Nästa vecka är min sista på VLT, sen börjar en intensiv skrivperiod med reportageboken om AI. Är riktigt peppad!

/Dagens meny 🥘 

  • Om ingen får se algoritmen, har den då funnits? 🤔 

/Plusmeny 🍺 

  • En lysande satsning på Aftonbladet 💡 

  • Mediedöden är inte riktigt här 🪦 

/ Prat 🦜 

  • Björn Lundqvist från Stockholms universitet 🎓️ 

/ Digestif 🥃 

  • Teknooptimisterna mot apokalypsens lobbyister ⚡️ 

/ Alla borde prata modellopacitet 🤔 

Min namne (nästan) HAI är ett ställe jag verkligen gillar. Hela namnet är egentligen The Stanford Institute for Human-Centered Artificial Intelligence, men alla vet ju att AI-fältet bara består av akronymer.

HAI-institutet har ett forskningscentrum inom sig som kallas CFRM. Det forskar på hur grundmodellerna för många av dagens AI-tjänster utvecklas och fungerar.

I onsdags släppte de ett nytt index, FMTI, som mäter transparensen för de tio största grundläggande modellerna, exempelvis Claude från Anthropic, GPT4 från OpenAI, Stable Diffusion från Stability AI och Facebooks variant Llama.

Den 100 sidor långa sammanställningen är inte rolig läsning.

Det mest uppenbara resultatet är att utvecklare som kör med öppna kort ligger bättre till på varenda delmått av transparens, från datainsamling till träning till användningen.

Det lite mindre uppenbara är att bolagen bakom de stängda modellerna lägger mer tid och resurser på att engagera sig i och driva frågor om transparens, trovärdighet och risker.

Det är med andra ord en klassisk PR-strategi för att bygga en röst och en närvaro i diskussioner om öppenhet och pålitlighet, för att förknippas med den typen av ord och forum och därmed flytta fokus från sina egna tillkortakommanden. Som skaparna av indexet skriver:

Medan den sociala påverkan från grundläggande modeller växer, är transparensen på tillbakagång, vilket speglar den opacitet som plågat tidigare digitala teknologier (exempelvis sociala medier).

Det här är verkligen politikens största gissel, inte bara för en digitaliseringsminister eller några teknikintresserade riksdagsledamöter.

Vi kan inte upprepa samma misstag med stängda, självreglerande plattformar vars särintressen krockar med samhällsintressen att bygga dominans.

Jag tror dock att vissa länder, eller institutioner som EU, förstått vad digitala plattformar kan och ska ha för plats i demokratier.

/Plusmeny 🍺 

#1 💡 

Aftonbladet verkar gilla AI. Kanske för att de läst HAIK, vem vet. Men deras nya, sju man starka nav för att utforska tekniken är i mina ögon en kraftfull signal om hur de påverkas av utvecklingen.

Det fina är att navet inte bara ska göra medarbetarnas arbetssituation effektivare eller ge dem nya verktyg för att gräva i saker eller överblicka stora mängder information.

De skriver också att syftet är att göra jobbet roligare. Det är värdefullt i sig, men särskilt i relation till att många utgår från att de kommer bli mer avskärmade eller avhumaniserade i sitt jobb på grund av AI-tjänster.

#2 🪦 

Apropå medier och AI. I vintras gick jag kursen JournalismAI Discovery hos brittiska Polis, en tankesmedja inom London School of Economics.

Polis släppte redan i november 2019 en första sammanställning av hur media såg på och använde AI. Nu har de gjort en ny variant med nedslag i 46 länder.

Jag träffade i maj Charlie Beckett, ansvarig för Polis och hela rapporten. Han var verkligen taggad på att förstå hur medier omfamnat eller blundat för den generativa teknikens påverkan på deras uppdrag. Det syns exempelvis i deras funderingar i slutet av juni: Kommer det finnas riktiga AI-medier och AI-journalister?

När internet slog igenom påverkade det distributionen av och formatet på nyheter. Nu står vi, enligt Beckett, vid en liknande “kritisk vändpunkt” i mediehistorien.

Men tre av fyra medier är positiva till möjligheterna som AI skapar. Det betyder att vi kanske lärt oss ett och annat kring övergångar från ett tankesätt till ett annat de senaste 20 åren. Samtidigt menar de flesta i undersökningen att “bristen på fokus eller resurser i vår egen organisation är det största hindret” för att använda AI på medieföretag.

I feel you. Just nu jobbar jag på VLT i Västerås. Fantastiskt folk, väldigt bra arbete med nyheter, information och berättelser som berör läsare. Men på sin höjd är det någon som lekt lite med att generera bilder i en AI-tjänst. Det varken produceras med eller rapporteras om AI. Och de robottexter som skrivs om matcher i fotbollens division 6 eller fastighetsförsäljningar uppfattas som “AI-material”.

Om gemene man tycker att AI är svårt kan det nog finnas en viss förklaring i att deras medier är lika passiva (Aftonbladet får väl sägas vara det regelbekräftande undantaget).

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Jag träffade i veckan Björn Lundqvist, professor i europarätt med inriktning mot konkurrensrätt vid Stockholms universitet, för en fika och lite prat om öppen data, ägandet och delandet av data och rättvis konkurrens.

Björn har precis släppt en bok om precis detta, och körde nyss ett seminarium hos SNS på temat.

Vi såg ganska lika på frågan om hur politiken, juridiken och samhället ska angripa vem som tjänar på, och ska få tjäna på, den data som exempelvis AI-tjänster genererar. Det är inte lätt. Vi hamnade rätt snabbt i filosofi, sociologi, nationalekonomi och historia. Schumpeter, Hayek, Friedman och Marx nämndes.

Det kommer ta oss sekler att förstå hur det här hänger ihop.

Björn Lundqvist

Kuriosa: För länge sedan hade Björn faktiskt självaste Dragoș Tudorache, EU-parlamentarikern som drivit arbetet med EU:s lagpaket för AI, som student inom europarätt på SU. Han var tillbaka i våras för att prata om lagstiftningen, men var enligt uppgift “rätt svår att få tag på”. Bra att han jobbar.

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#3+4. Slagfältet.

Jag gillar Marc Andreessen. Hans snack om vad Galileo hade gjort i AI-tider är fortfarande en av de roligaste tankarna jag brukar leka med för att förstå hur världen relaterar till språkmodeller.

Han är djupt investerad, finansiellt och emotionellt, i AI. Så det är klart att han gillar det. Däremot så märks det att han genuint tror på det positiva inuti detta tekniska aber.

Hans manifest är extremt. Han skriver att våra efterlevande kommer bo “i stjärnorna” och att den “teknokapitalistiska maskinen” är fundamentalt människovänlig. Det GÅR dock att se hans poänger, om man är välvillig.

Men Andreessen har några amerikanska miljardärskompisar som tänker annorlunda, och därför plöjer in massiva summor i att nå beslutsfattare i kongressen.

Jag har återkommande skrivit om och följt senator Chuck Schumer som tagit en ledande position vad gäller AI-reglering. Hans tre närmsta medarbetare inom AI-policy, vilket får sägas vara hans just nu främsta område, har alla tjänstemän och rådgivare från Horizon Institute hos sig – avlönade genom miljardären Dustin Moskowitz, medgrundare till Facebook.

Horizon jobbar inom rörelsen för effektiv altruism, där bland andra Max Tegmark, Olle Häggström och Anders Sandberg är involverade, och vill att politiken fokuserar på människans överlevnad samt hoten mot vår existens från AI.

Det är kladdigt, jag vet. Men det är tydligt att politiken dras mellan två starka poler. Sanningar och framkomliga vägar ligger oftast mellan extremerna.

Bra tryck i texten? Häng med på HAIK!