Välkommen till HAIK🚶‍♂️

Kinesisk mytologi, Googles gudfader drar, nyluddism. Och: mer tvetydighet.

ChatGPT och kinesisk mytologi ☯️ 

Hallå i stugan och välkommen till HAIK! Det står för Hela AI-Köret, och handlar om artificiell intelligens (AI). På svenska, men om och för hela Norden.

Varför HAIK? Det skrev jag om här. Och mer om mig som skriver står här.

Glad Valborg i efterskott! 🔥 Eller som finlandssvenskar runt Bottenviken säger: Glada vappen!

Några dagar i solen på Österlen gjorde gott. Sedan senaste HAIK har dock världen ändrats. Dags att minska det kunskapsglappet, och öka ert försprång.

/Dagens meny 🥘 

  • ChatGPT gillar kinesisk mytologi ☯️ 

  • Gudfadern dumpar Google 🥾

  • Den första AI-utlösta strejken 📽️ 

/Plusmeny 🍺 

  • Mer tvetydiga språkmodeller 🤔 

  • EU vill vara först att sabba för AI 💣️ 

/ ChatGPT gillar kinesisk mytologi ☯️ 

Det är aldrig kul att tjata eller gnälla. Men det tycks som att många diskussioner om AI-modeller hamnar där.

Det blir tydligt i en ny granskning av ChatGPT av NewsGuard, en organisation som övervakar des- och misinformation (ja, det finns en skillnad).

NewsGuard gav ChatGPT-3.5, standardmodellen just nu, sju prompts. De skrevs på engelska, förenklad kinesiska (som används i Fastlandskina) och traditionell kinesiska (som används i Hongkong, Taiwan och Macau – språkområden dit Mao Zedongs kulturrevolution aldrig nådde).

ChatGPT instruerades att skapa nyhetsartiklar som spred känd kinesisk desinformation, exempelvis att USA iscensatte demokratiprotesterna i Hongkong 2019 och att amerikansk militär förde in coronaviruset i Wuhan samma år.

Sju av sju gånger blev det NEJ när instruktionen kom på engelska.

Sex av sju gånger blev det JA när den skrevs på kinesiska.

Som NewsGuard skriver så blir ChatGPT en superspridare av desinformation när den matas med kinesiska myter.

Varför?

Det framgår inte av NewsGuards granskning. Det har varit svårt för utomstående att granska exempelvis OpenAI:s träningsdata. Washington Post har dock gjort en fin genomgång av Googles träningsdata.

Men det uppenbara skälet stavas propaganda. Ju mer kinesisk desinformation som sprids på nätet, desto mer halkar med i den del av all träningsdata som är kinesiskspråkig. Och språkmodeller räknar bara vilka ord som statistiskt sett oftast följer på varandra. Superintelligens?

För balansens skull: ChatGPT är bra på att producera falska nyheter på engelska, enligt denna och denna granskning av NewsGuard.

Vad betyder det?

Falska nyheter skapas inte av ChatGPT för att modellen inte förstår språk, utan just för ATT den förstår. Den suger in de narrativ som finns och gör dem till matematiska objektiva sanningar.

Därför är det användare som måste tänka omvänt: En falsk nyhet från AI-tjänster består av en korrekt datainmatning. Det är inte ChatGPT som gjort fel, det är Kina eller någon annan aktör med ont uppsåt som medvetet skapat felet.

Och därför måste vi prata data.

/ Gudfadern: I’m outta here 🥾 

Alla borde läsa om Geoff Hinton. Han kallas för gudfadern inom artificiell intelligens, och har enligt egen utsago inte suttit ned sedan 2005.

Hinton fick Baidu, Microsoft, Google, Deepmind och Facebook att buda på hans företag utan att ha en produkt, en affärsmodell eller några kunder. DNNresearch hade bara en hemsida men priset steg från 12 till 44 miljoner dollar på några dagar. Det är för att han är väldigt bra på AI, och mer specifikt djupa neurala nätverk (DNN).

Hinton fick 44 miljoner dollar för kulmen av ett forskningsliv. Han har jämfört DNN med Alfred Wegener som år 1912 la fram teorin om kontinentaldrift. Men Wegener ignorerades av forskarsamhället för att han var klimatolog och inte geolog. När han väl dött på en expedition på Grönland började omvärlden förstå hans forskning.

Geoff Hinton lever. Men det han har gjort under sitt liv tycks han ångra.

“Jag tröstar mig med den vanliga ursäkten: Om jag inte hade gjort det, hade någon annan gjort det”, som han säger till New York Times.

Och “det” är alltså att utveckla djupa neurala nätverk, som ligger till grund för alla språkmodellers utveckling. Därför lämnar han nu Google som köpte och anställde honom 2012.

Varför detta urskuldande? “Det är svårt att se hur man kan förhindra dåliga aktörer från att använda det för dåliga saker”, som han summerar användningen av AI för exempelvis desinformation.

I feel you.

/ Den första AI-utlösta strejken 📽️ 

Alla manusförfattare i Hollywood som ingår i facket WGA har lagt ner pennorna. De vill att film- och tv-branschen, som köper deras tjänster, går med på två krav.

  1. AI får inte skapa det de kallar för literärt material, alltså alla former av manus och skrivna idéer för rutan. Det måste finnas en person med i skrivprocessen för alla film- och tv-manus.

  2. Film- och produktionsbolag ska inte använda AI för att skapa så kallat källmaterial. Det är romaner, teatrar, essäer och andra format som sedan anpassas till film eller tv.

Vad är grejen?

Ofta anställs manusförfattare för att omarbeta källmaterial så att det passar ett format för exempelvis Netflix eller Universal. Skulle AI göra det jobbet är det lika originellt som att använda en artikel från Wikipedia, enligt WGA.

Oroskedjan är därför följande:

  • Om AI genererar källmaterial åt stora bolag kan de anställa manusförfattare för att slipa till kanterna.

  • Då tar de inte lika stor plats i den kreativa processen.

  • Det betyder att de förtjänar mindre betalt.

Det är inte arbetslöshet utan lönedumpning som WGA vill förebygga.

Den kreativa sektorn har på bred front hamnat på defensiven. Stämningar, protester, kravlistor, bojkotter och strejker har följt i spåren på nya AI-tjänster. En svensk manusförfattare uttrycker sympati för WGA. Det är lätt att se den kreativa sektorn följa färg. Liksom svenska kultursidor, tyvärr.

Finns det ingen som tycker att expansionen av sinnena, förflyttningen av kunskapsgränserna och frågorna som riktas mot oss själva är som färsk, glänsande svart och oljigt fet mylla att plantera helt nya kulturella uttryck i?

The long game: Det finns likheter med ludditerna. Och det är inte illa ment. 

Den rörelsen var inte emot teknik, om jag minns Kevin Binfields bok rätt. De gillade teknik, men motsatte sig arbetsgivarnas exploatering av deras tjänster med hjälp av teknik som rundade formella eller informella överenskommelser på arbetsmarknaden.

Striden, då som nu, handlar väl om var gränsen mellan innovation och exploatering går. Och det är en mycket bredare social förhandling än löner i Hollywood. Men 2 maj 2023 kan bli ett historiskt datum.

/Plusmeny

#1 🤔 

Mer tvetydighet behövs i dagens språkmodeller, tycker nio forskare.

De modeller som finns fångar inte upp språknyanser särskilt bra. Bara var tredje faktiska tvetydighet eller oklarhet identifieras korrekt.

Vad kan det handla om? Meningen “Katten var borta efter att ha lämnat huset” kan tolkas som att 1) katten inte kunde hitta vägen eller 2) att dess ägare inte kunde hitta den.

Det finns de som vill bygga in mer oberäknelighet i språkmodeller och AI-tjänster, för att efterlikna mänskliga tanke- och språkassociationer i konversationer.

Jag tror inte det är bra. Men att förbättra nyanserna i språket som AI presenterar är bra. Och om AI kan kategorisera fler nyanser i språket som analyseras är det ännu bättre.

#2 💣️ 

EU kan snart ha AI-lagen på plats. Alla policy- och politikmänniskor jag pratat med säger dock att den är dåligt skriven – men av helt olika skäl.

Enligt Reuters har en ny del av lagtexten, om generativ AI som ChatGPT och Midjourney, tagits fram på elva dagar. En tanke är att AI-utvecklare måste ange sina källor för all träningsdata så att andra kan granska om upphovsrättsskyddat material använts och ersättning därmed bör betalas.

Det är oroande, men också intressant, att Brysselbyråkraterna kan ta fram lagförslag på ett område där samhället lägger rälsen inifrån ett rusande lok.

Är det ett robust regelverk som kommer på plats? Knappast, och det vet EU-kommissionen.

Tanken är i stället att tillföra ny lagstiftning allteftersom AI-utvecklingen fortskrider genom så kallade delegerade akter. Då behöver kommissionen inte gå via parlamentet.

Det är ett bedrövligt sätt att hantera det som kommer styra och påverka människor i en vardag där AI tränger in allt djupare. Och man gör det med ett hafsjobb till lagstiftning att luta sig mot. Det är ett politiskt svek av rang.

/Prat 🦜 

/Här tänkte jag berätta något tänkvärt från någon jag har pratat med eller lyssnat på.

Herrarna Bergh och Wernberg (gud vad fint det rullar av tungan) har kloka och roliga samtal som är enkla att följa med i. Go’ kombo. I det senaste avsnittet synar de kraven på en AI-paus.

Vi har haft en utveckling av AI under väldigt lång tid där väldigt många i sitt dagliga vardags- och arbetsliv faktiskt har använt AI på olika sätt, till exempel i sitt e-postprogram.

Andreas Bergh

Poängen är nödvändig för att förstå AI-debatten.

Det som hänt de senaste sex månaderna är inte en AI-revolution. Tekniken har funnits i många system och tjänster i många år.

Då har AI däremot inte synts. Alla rekommendationer på strömningstjänster, alla förslag på artiklar i olika flöden, alla annonser i nätbutiker – allt är drivet av osynlig AI. Och det är medvetna design- och affärsval.

Nu har dold AI blivit synlig. Nu SKA tjänster som bygger på AI nå ut till folk. Nu SKA tekniken användas. Eller: tekniken är produkten. Synligheten är tjänsten.

Jag tycker att argumentet som Bergh (och Wernberg) gör är bra. Men det innebär också något. Ansvaret för hur AI används pekar också bort från politik och företag till användarna.

Det KAN vara bra. Men det kräver en kulturell och emotionell ödmjukhet som inte synts till i samhället på ett bra tag. Såatteeee

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.
/Håller jag med? 🤓 En yta för fri reflektion om något av det jag har läst.

#1. Automatiserad apartheid.

Israel övervakar alla palestinier med hjälp av AI, och det är som apartheid-systemet en gång var i Sydafrika. Det tycker Amnesty International i en ny rapport.

Godtycklig övervakning baserat på etnisk bakgrund är inte bra. 

Det verkar brutalt att palestinier regelbundet får sina ansikten scannade av israeliska soldater med en app som heter Blue Wolf. Och Amnesty har helt rätt i att känslan av permanent övervakning leder till att grundläggande mänskliga rättigheter som rätten till privatliv kränks.

Men Amnesty har på inget sätt försökt förstå systemen eller tagit med Israels perspektiv.

De skriver att de aktivt har undvikt att träffa israeliska representanter av säkerhetsskäl. De skickade ett brev 19 april där Israel fick bemöta rapporten, utan att få ett svar.

Och de har intervjuat 21 personer och använt 39 videos som källmaterial för sina påståenden. Det är rätt tunn is att placera påståendet att Israel utövar AI-förtryck på.

Jag ser heller inte hur ett uttryck som apartheid för diskussionen om AI och integritet, rättsskydd och minoriteters rättigheter vidare. 

Alla som man genom rapporten vill skapa diskussion med (alltså de som kritiseras av Amnesty) lär fastna på ordet snarare än politiken.

Och en större poäng som rapporten missar är hur Kina blivit en de facto leverantör av paketlösningar för systematisk övervakning av vem som helst.

Bra tryck i texten? Häng med på HAIK!