Vårriten 2.0

Och: In-N-Out, privat säkerhet, Altman.

Aloha! Denna meny består av 1074 ord och tar 5,3 minuter att tugga sig igenom.

Dagens takeaway: Regelarbetet börjar få upp farten globalt. Men det kan gå åt pipan redan här i starten. Vad företagen pratar om är inte nödvändigtvis samhällets bästa, och det måste politiken våga säga.

Jag har precis landat i Europa efter Dreamforce i San Francisco. Jag vet inte om jag ska sova eller vaka fram till lördag morgon. Hoppas ni får en vilsam helg!

/Dagens meny 🥘 

  • Harmoni, en bra melodi 🇪🇺 

  • Svängdörrar eller portvakter? 🔓️ 

/Plusmeny 🍺 

  • Ingen ARN för AI 🛒 

  • Lobbyism i praktiken 🤝 

/ Prat 🦜 

  • Sam Altman bredvid brasan 🔥 

/ Digestif 🥃 

  • Hjärnans plasticitet 🧠 

/ Vi behöver inte 60 ramverk för AI 🇪🇺 

På första dagen av Dreamforce satt jag ner med Eric Loeb, global chef för reglering på Salesforce.

Den övergripande poängen är att USA, precis som EU gjort, behöver ett riskbaserat ramverk för AI-reglering. Och att de måste linjera, ihop med exempelvis OECD:s policy, för att vara nyttiga.

Det är en bra början. Men OECD:s definitioner, som EU lagt sig tätt inpå, är inte särskilt bra enligt branschen. Eller: De har inte åstadkommit en gemensam riktning för vad som är värt att prioritera.

Loeb såg det som önskvärt att när land efter land börjar fundera på hur de vill förhålla sig till tekniken så finns det en skiss att börja ifrån. Det ska inte finnas 60 AI-ramverk.

Jag kan förstå intentionen. Men det vore olyckligt om USA väljer att lyfta in samma sorts språk i sin kommande lagstiftning, när de har exempelvis NIST, en expertmyndighet, som har en sund inställning till vilka regler som behövs till olika sektorer.

Loeb gjorde dock en bra poäng. Små svenska bolag kan, tack vare den harmoniserade regelboken och inre marknaden i EU, gå direkt till 27 länder och testa eller sälja sina produkter. De får förutsebarhet och skalbarhet samtidigt.

I USA har åtminstone elva delstater någon sorts AI-reglering, men de skiljer sig mer åt än vad de överlappar. Det ställer till det för innovationen.

Det var fint att få den sortens blick på EU. Vi blir nog lite fartblinda för ofta här hemma, och glömmer vad den ideologiska och den konkreta nyttan av en gemensam marknad faktiskt är.

En försvunnen pusselbit: Efter mötet skulle Loeb träffa brittiska diplomater. Han sa inget men jag antar att det är en del av förberedelserna för landets stora säkerhetsinriktade konferens i november.

Även om den svenska företagsdelegationen på Dreamforce var stor funderade jag på två saker. Varför är inte någon politiker, eller deras tjänstemän, här? Och var är offentlig sektor?

Ledtråden: I onsdags anordnades en frukost där “nordiska” generalkonsuler närvarade. Sverige har förvisso bara har ett honorärkonsulat i stan — generalkonsulatet öppnar efter årsskiftet, men generalkonsuln har tillträtt — men jag förmodar att hon var med.

/ Should I stay or should I go… 🔓️ 

Det finns en lurig dynamik i det politiska arbetet kring generativ AI.

Under första dagen av Dreamforce, 12 september, höll den demokratiske senatorn John Hickenlooper en öppen utfrågning i kongressen om hur politiken kan skapa bra regler.

Öppna sessioner är ofta ett spektakel för att visa på politisk handlingskraft. En annan demokrat, Amy Klobouchar, använde exempelvis sin tid till att presentera ett eget lagförslag om hur genererat material ska användas i politiska kampanjer.

Dagen efteråt samlade senator Chuck Schumer en drös techjättar för ett stängt möte.

Det framstår som tondövt. Men när jag pratade med Eric Loeb menade han att båda vägarna behövs.

Öppenhet bygger tillit. Men det är inte alltid cheferna för techjättar vågar eller får fråga dumma frågor eller be om hjälp, för att det inte är deras roll och för att det påverkar förtroendet för företaget. Då är stängda forum bra.

I no buy. Mer frivillighet och isolering är inte bra. Det är få som uppskattat att politiken lämnat reglering till techbolagen. Det har skapat misstro, konflikt och polarisering och de har fått fler chanser att förändra sig än de förtjänar.

/Plusmeny 🍺 

#1 🛒 

I USA pratade alla nästan alltid om konsumenten. Den ska skyddas, den ska hjälpas, den ska stärkas. Det är förvånande hur lite ord som samhället, medborgare och gemenskap förekommer.

Jag frågade flera stycken, däribland svenska representanter för Salesforce, om det riskerar att privatisera definitionen av säker och ansvarsfull användning av AI.

Landsmännen kunde se det. Amerikanarna tyckte att det bör och ska finnas konkurrens även inom etiska aspekter, just för konsumentens skull.

Jag tror det är helt fel om varje bolag eller sektor väljer hur de vill erbjuda tillit, trygghet och säkerhet utan att ta social hänsyn. Det går ju inte att gå till Allmänna reklamationsnämnden och be om hjälp när något händer med ens integritet, data eller sociala liv. Då raseras gemenskapen fort.

#2 🤝 

När jag satt och pratade med Eric Loeb berörde vi de stora firmornas ansvar att arbeta för ansvarsfull utveckling och användning av generativ AI.

Han hade en fjäder i hatten. Samma morgon presenterade Vita Huset “frivilliga åtaganden” från åtta AI-bolag, däribland Salesforce, för att möta risker.

Loeb förklarade att de hade fått presidentadministrationen att lyssna och ändra en del formuleringar utifrån vad de tyckte var viktigt. Mer konkret blev han aldrig.

Återigen: självreglering är säkert bättre, men jag tror det får konsekvensen att de med mycket makt kommer undan med det mesta, åtminstone i USA.

Man får dock inte underskatta vikten av landets säkerhetspolitiska strategi, där Kina och AI är det största framtida slagfältet.

Det är klart att man inte vill boxa in de egna kapaciteterna och spetsteknologierna.

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

Det var väldigt svårt att komma in till “samtalen vid brasan” i Yerba Buena Theatre, där Salesforces grundare och vd Marc Benioff pratade i en timme med Sam Altman, vd för OpenAI. Det var för övrigt i samma 300 platser stora/lilla salong som Steve Jobs presenterade en iPad för första gången, 27 januari 2010.

Några tyckte efteråt att samtalet var platt och förväntat. Altman är ju trots allt på en charmturné. Några kallade det för skrämmande. Ytterligare andra såg det som lärorikt.

En sak som fastnade var Altmans förvåning över hur AI-tjänster påverkar jobben.

För tio år sedan hade jag sagt att AI skulle påverka fysiskt arbete först, sen kognitivt, och sist de kreativa näringarna.

Sam Altman

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#3. Skalor.

Människor är dåliga på att hantera sanningen, så vi sprider falsk information oftare än botar och propagandafabriker. Därför är det våra beslut som AI-tjänster borde göra bättre, vi ska inte ge oss på dess svar.

Så kan man sammanfatta två AI-intresserade ekonomers tanke om människans plats i den kognitiva näringskedjan.

Deras egna ord är dock rätt talande: AI är inte det primära hotet för oss just nu, utan “det bästa verktyget för att dämpa ett mycket större hot mot mänskligheten: mänskligt beslutsfattande.

Jag tror att det är projicerat förakt för vanligt folk. Många andra tekniker som dykt upp och etablerat sig i samhällen har inte medfört att vi fattat sämre beslut då eller ens nu.

Vi fattar andra typer av beslut. Och det är svårare. Hjärnans plasticitet är begränsad alternativt trög alternativt gradvis nedsatt. Tänk Igor Stravinskijs premiär för baletten Våroffer, i Paris i maj 1913, som slutade med total urspårning.

Det är vi som sitter i publiken på nybyggda Théâtre des Champs-Elysées och Altman et al har precis dragit igång första akten.

Bra tryck i texten? Häng med på HAIK!