Vad den gamla styrelsen i OpenAI borde sagt om Sam Altman

Och: ChatGPT ≠ Google, designfel, Tegmarks trovärdighet.

Cześć! Denna meny består av 999 ord och tar 3,9 minuter att tugga i sig.

Dagens takeaway: OpenAI verkar må okej. Men fler borde prata om hur Sam Altman försöker sko sig på deras affärsmodell och påverka besluten utifrån.

Är nu en route till särintressenas huvudstad Bryssel för att marineras i AI-politik och annat. Planerad balans Nato/choklad/musslor: 40/30/30.

/Dagens meny 🥘 

  • Vad styrelsen för OpenAI borde sagt om Sam Altman 💰️ 

/Plusmeny 🍺 

  • Hur generativ AI inte är som Google 🌎️ 

/ Prat 🦜 

  • Vår förvirring beror på bra (dålig) design 📝 

/ Digestif 🥃 

  • Max Tegmark är inte jättebra på att kommunicera 🎤 

/ När Sam Altman böjde pengarören 💰️ 

Det råder inbördeskrig på OpenAI. En AI-forskare jag nyligen pratat med beskrev det som “Game of Thrones fast i Silicon Valley.”

Öppna makt- eller falangstrider på snabbt växande bolag är ingenting nytt. Det har skett i många industrier som järnväg, telekom och tobak förut. Sociala medier, främst Facebook, har sett sin beskärda del.

Bråken sker oftast när den gamla ordningen, med ursprungliga grundare och investerare, uppfattas som ett hinder för utvecklingen. De har sannolikt emotionella investeringar i verksamheten som inte linjerar med det utvidgade företagets bästa. Och då har en styrelse all rätt att kräva förändring.

Det är åtminstone en del av förklaringen till att Sam Altman haft tre jobb på tio dagar.

Det går att bryta ner ytterligare i fyra komponenter.

  1. Han åkte till Mellanöstern för att äska flera miljarder dollar till Tigris - ett projekt som ska bygga nya chip för bättre AI-utveckling.

  2. Han vill bygga “AI-erans iPhone” ihop med Apples förra designguru Jony Ive – hårdvara som ska använda ChatGPT. Pengar har raggats i bland annat odemokratiska Saudiarabien.

  3. Sam Altman har plöjt ner 375 miljoner dollar i Helion, ett nytt företag som år 2028 ska leverera fusionskraft till Microsoft – OpenAI:s största ägare.

  4. Han har personliga investeringar i drygt 400 techbolag som uppsnackade “Iphone-dödaren” Humane, samt andra som Asana och Cerebras – som alla använder OpenAI:s tjänster.

Sett var för sig är ingen av punkterna särskilt dåliga.

  • Ett nytt chipbolag utmanar Nvidia som har monopol på hårdvara för AI-utveckling. Konkurrens är bra.

  • En skärmfri tillvaro där våra enheter styrs med generativ AI, typ som Humane gör, är bra.

  • Billigare energi är bra. Om det därmed ger billigare utveckling och tillgång till AI-tjänster är det kanske bra.

  • Att sprida kunskap och kapital ut i innovationsekosystem är avgörande för människors och länders ekonomiska och sociala utveckling.

The Big But: De första två punkterna innebär att han för egen vinning använder OpenAI som en plattform att tjäna pengar vid sidan av. De andra två betyder att han genom egna medel influerar, direkt och indirekt, vad OpenAI ska ägna sig åt. Båda tendenserna måste en styrelse tämja.

Ett kliv bort: De som bygger AI, och som därmed har ekonomisk och social makt på en skala som knappt synts förut, har rätt extrema värderingar, enligt en studie av två svenska forskare. Det är värt att tänka på när vi använder eller diskuterar generativ AI.

/Plusmeny 🍺 

#1 🌎️ 

De flesta ungdomar som använder generativ AI, exempelvis ChatGPT, tycker att tjänsten är “som Google, fast bättre” för att citera en gymnasieelev jag träffat. En annan, som jag inte träffat, kallar den för “hela Google i ett paket”.

Det är intressant att tjänster som bygger på språkmodeller, exempelvis ChatGPT, börjat användas som sökmotorer fast de aldrig var byggda för det.

De ÄR däremot inte sökmotorer. Varför?

  • De kan skriva, korrigera och felsöka grammatik, programmeringskod och matematik. Googlar du ett mattetal eller stavning så får du resultat eller förslag som handlar om massor av annat som verkar innehålla de orden. Men du hittar inte rätt klipp som förklarar andragradsekvationer eller en sida som beskriver syntax.

  • De kan generera bilder, ljud och filmer. Google kan hänvisa till det, men aldrig skapa sådant material.

  • De ger enskilda svar. Vill du veta vilken bil du ska köpa kan du pressa tjänster som ChatGPT att svara. Det går inte att få personliga rekommendationer, hur godtyckliga de än är, via en sökmotor. De kommer visa sidor med biltester. (Vad för sorts data har ChatGPT tränats på för att rekommendera en Toyota och inte en Volvo? Är det jag som är tråkig?)

  • De ska förutspå nästa ord i en mening. Kanske uppenbart, men uppenbarligen inte tydligt nog bland gemene kid. Google har ägnat 25 år åt att skapa snabbare och mer relevanta sökresultat. Det gör inte OpenAI.

Förhoppningsvis går det att driva hem den här poängen hos kidsen, så vi inte tappar blicken på vad stora techbolag gör med vår data och varför, genom att sammanblanda deras syften, värden och affärsmodeller.

/Prat 🦜 

/Tänkvärdheter från någon jag har pratat med eller lyssnat på.

För länge sedan föreslog någon att debatten om artificiell generell intelligens (AGI) skulle bedarra om dagens AI-tjänster var mindre personliga. Exempelvis att svaren i ChatGPT (notera: inte från) inte får innehålla ord som jag, min eller vi. I stället kunde det stå något i stil med “databasen föreslår…”.

Det här verkar Frank Dignum, professor vid Institutionen för datavetenskap vid Umeå universitet, hålla med om. Vid en föreläsning om AGI tog han upp hur designen av tjänsten påverkar debatten.

Den uppfattning vi har om att ChatGPT resonerar som en mänsklig samtalspartner är alltså inte korrekt, utan främjas medvetet av OpenAI genom det gränssnitt de tillhandahåller.

Frank Dignum, Umeå universitet

/Läsbart 📚️ 

/Det här har jag tyckt om att dyka ner i på senaste och tror att du också kan göra det.

/En yta för fri reflektion om något av det jag har läst 🤓 

#4. Maxat.

De är inte brydda om säkerhet, så länge de tjänar pengar. Det är min summering av AI-pessimisten Max Tegmarks kommentar till SVT gällande inbördeskriget på OpenAI.

De är giriga i så måtto att de för några år sedan ändrade stadgarna i det som då enbart var en icke-vinstdrivande organisation, så att det ska gå att tjäna pengar på bättre AI.

Men att bolaget är nöjt med vad som helst så länge pengarna flödar, är det verkligen en rimlig beskrivning? De bryr sig, åtminstone enligt deras pr-strategi, om säkerhet.

Bolaget är tveksamt till att göra språkmodeller, algoritmer, dataset och specifikationer fritt tillgängliga just för att vem som helst då kan dra iväg och skapa kaos.

Det är ungefär vad Eliezer Yudkowsky, som lanserade tanken om vänlig AI, förespråkar: Det är säkrare att inte vara öppen. Han vill dock att all utveckling ska vara helt stängd, alltså nerstängd. Men folk litar på honom, så varför blir bolagets hållning misstänksam?

OpenAI är inte bra på kommunikation. Därför hamnar de ständigt i skottlinjen. Men Max Tegmark är inte heller jättebra.

Som en AI-forskare jag nyligen träffat summerade det: “Det som är synd är att han inte nödvändigtvis har fel, men folk inte vet vad de ska göra med informationen.”

Bra tryck i texten? Häng med på HAIK!