Torgnys övriga frågor 👓️

AI och litteratur

Hej HAIK:are! Fjällen är bytt mot Luleå skärgård. Har funnits gott om tid för reflektioner senaste veckan.

I dag serveras därför en specialare om litteratur om AI.

För att skriva så behöver man fördjupa sig. Så det finns en del från bakgrundläsningen att rota vidare i.

Nu ska vedbastun eldas. Trevlig helg!

/Dagens meny 🥘 

  • Västerbottnisk AI 👓️

/ AI från Raggsjö 👓️ 

Det är söndag, runt 18-tiden. Aron har suttit hela mötet och lyssnat. Så når de dagordningens sista punkt: Övriga frågor. Det är, precis som Torgny Lindgren skriver i romanen med samma namn, en värdering: Det oviktiga tas upp på slutet.

När han väl ska tala om flyktingarnas situation har han dock ingen plan för hur arbetarekommunens sammanträde ska adresseras. Så han bara börjar.

Det har alltid varit svårt för Aron att börja. Den politiska kumpanen Evan har “försökt rita scheman åt mig: punkter, våglinjer, räta linjer, tankstreck och cirklar. Men de är oanvändbara.”

Det är en fin metafor för 1970-talets förvirrade och stingsliga socialdemokrati. Arons tal girar, kränger, snubblar.

“Ingenting av det jag hittills har sagt överensstämmer med vad vi hade tänkt ut i förväg… Ibland när vi sitter och förbereder oss ser meningarna ut som geometriska serier, där det första ordet redan ger en antydan om det andra och det tredje är självklart och allting är självklart ända fram till punkten som bara kommer som en bekräftelse. Och ibland snuddar man nästan vid de konvergenta serier där n löper ut i oändligheten.”

På sex rader, år 1973, fångar Lindgren vår debatt om artificiell intelligens (AI) och hur stora språkmodeller fungerar.

Oftast skapar de trovärdiga meningar. Men ibland fungerar de inte alls.

Bolaget Anthropics modell Claude räknade fram att i det engelska ordet mayonnaise förekommer bokstaven n fyra gånger: ​​Mayonnaise. Mayonnainse. Mayonnaine. Mayonnaisne. Googles modell Bard räknade i stället noll stycken e i ketchup. Varför?

Språkmodeller arbetar med så kallade tokens. Det är, grovt uttryckt, antingen ett kort ord eller en stavelse i ett längre ord. För Bard, Claude och alla andra modeller består ketchup inte av sju bokstäver utan av två tokens: ket och chup. Den första bokstaven i ketchup är ket, inte k.

Behöver vi verkligen förstå hur modellerna fungerar? Kanske inte. Men som vetenskapsjournalisten Elizabeth Lopatto skriver: “Om det är något chatbottar är värdefulla för, så är det att belysa saker om vår egen intelligens som vi tar för givna.”

Den som skriver schematiskt – ett torrt och förväntat språk, en standardiserad struktur – lär bli manglad.

Översättaren Niclas Hval, tillika styrelseledamot i Författarförbundet, har pratat om “formelartad litteratur”, exempelvis harlequin, som en utsatt genre. Språket är begagnat, dramaturgin lika algoritmisk som Aron och Evans sammanträde: ett möte, en sexscen, ett uppbrott, en återförening, toppat med giftermål eller graviditet.

Forskaren Elle O’Brien lät för sex år sedan en AI-modell träna på 20 000 boktitlar från genren för att skapa nya, med rätt rimliga resultat. Nu finns mycket mer avancerad AI att tillgå för vem som helst.

Den svenska språkmodellen GPT-SW3 är medelstor internationellt sett, men har tränats på textmängder motsvarande 1,2 miljoner kopior av Fjodor Dostojevskijs roman Brott och straff. Mängden engelskspråkig träningsdata, och därmed modellernas kapacitet, är långt större. Det har redan gjort avtryck i författandets värld.

Clarkesworld, ett av världens främsta förlag för sci-fi och fantasy, fick i vintras stänga sin manusmottagning. Över 500 AI-genererade bidrag inkom bara under februari, ibland 50 på en dag.

O’Briens experiment och modellernas storlek implicerar även sådant som feelgood-romaner. Men det är förmodligen för smalt tänkt. Deckare, krim och fantasy går utmärkt att bryta ner i de scheman som Evan försöker rita åt Aron. Och Niclas Hval fruktar för sitt eget jobb. Det är han inte ensam om.

Det är osäkert om exempelvis George Perecs lipogram Försvinna är enklare eller svårare för en språkmodell att skapa än en människa. Claude och konkurrenten GPT4 klarade inte, trots tydliga instruktioner, av att skriva en tusen ord lång berättelse utan bokstaven e i sig. Men det finns andra former av litterärt skapande.

En AI-modell har nyligen börjat avkoda och para ihop enorma mängder fragmentarisk babylonsk litteratur, däribland hittills oläsbara delar av Gilgamesheposet. Det bygger på hur man analyserar genetisk variation i DNA. På 150 år lyckades forskare identifiera 5 000 nya fragment som hör till redan kända texter. De senaste fem åren har 1 500 tillkommit med AI.

Det är alltid en mänsklig impuls som initierar och definierar skrivprocessen, tonläget, formen, avgränsningarna – antingen för sig själv eller åt en språkmodell. Det finns ingen chatbot som bestämt sig för att ägna all sin tid åt att skriva fram nya verkligheter.

Den som tror att AI kommer ta över världen har därför fel. För det krävs kontroll över massiva mängder människor, ihop med grundläggande resurser som el, olja, betong och stål. Ingen civilisation, hur smart den än har varit, har åstadkommit världsherravälde. Sådant nödgar övertygelse, övertalning och samarbete.

AI är en utombiologisk skapelse. Hur kan något som saknar kropp manipulera världen?

Förkroppsligad intelligens måste, enligt robotforskaren Joshua Bongard, “knuffa mot världen och observera världen knuffa tillbaka.”Där brister artificiell intelligens. Och det är precis så människan, författaren, kan relatera till språkmodeller.

Det blir mer värdefullt att leka med motsättningar, brutna röster, över- och underlägen och tidslinjebrott. Och varje skrivprocess kräver friktion. Kanske överför AI motståndet till läsprocessen, så att textens mottagare finns med på nya sätt i författandet.

Språkmodeller gör skrivandet ärligare. De kan inte redogöra för hur en enskild text genererats. Men det kan heller inte författare. Skrivandet har alltid omgärdats av osäkerhet, ett sökande, en okunskap – och hänsynslöshet till verkligheten. Att dikta är att ljuga sig fram till sanningen, som Eyvind Johnson menade.

Litteratur är att skriva i ett nu men bli förstådd i ett sen. Torgny Lindgren var språkmodellerna på spåren 1973. Kanske är modellerna den nya litteraturen på spåren, femtio år senare. Kanske skrivs det något nu som vi bara kan förstå sen.

Bra tryck i texten? Häng med på HAIK!