6 min read

Ukens notater #20: Kollektiv DeepSeek-panikk

Den siste uken i teknologi har stort sett handlet om en ting, DeepSeek. Det har blitt skrevet spaltemeter opp og ned om DeepSeek. Du kan rett og slett ikke ha unngått å få med deg DeepSeek i uka som gikk, men sitter man igjen med et korrekt inntrykk? Det virker som vi har fått kollektiv panikk. Til Dagsrevyen ga DeepSeek mer enn 5 minutter sendetid og heldigvis, heldigvis tok hele Norges AI-ekspert Inga Strumke det ned et par hakk live på NRK.

«Jeg må starte med å korrigere inntrykket. Dette har ikke revolusjonert KI-verden» - Inga Strumke på NRK Dagsrevyen

Vi trenger stemmer som Inga Strumke når hypen og panikken tar overhånd. DeepSeek har på ingen måte revolusjonert AI. Dette er språkmodeller som kan måle seg med flere av de mest avanserte modellene fra OpenAI, Google, Antrophic og Meta. Det kalles konkurranse. Allerede i 2023 ble et internt notat fra Google lekket hvor flere av de som jobbet med AI i Google hevder at verken Google eller OpenAI har noe «moat». De mente at Google, OpenAI og andre lukkede AI-modeller har få «forsvarsverk» mot de åpne modellene som f.eks. Llama fra Meta. Det er det DeepSeek viser enda tydeligere nå. En åpen modell kan komme like langt som en lukket modell.

Det som er mest overraskende er at et kinesisk selskap som sliter med tilgangen på de heftigste GPUene fra Nvidia på grunn av eksportkontroll har kommet så langt såpass fort og dette er nok årsaken til den kollektive panikken. Her er det nok også noen sannheter med modifikasjoner. DeepSeek har brukt mer enn 500 millioner dollar på GPUer, de har sannsynligvis fler og bedre GPUer enn de sier og foreløpig kan det se ut som de også har misbrukt OpenAI sine modeller til å trene egne modeller.

Men det de utvilsomt har greid og som er det mest spennende med DeepSeek, er at de på grunn av sine begrensede ressurser har blitt kreative. De har introdusert en rekke nye konsepter som gjør det enklere, billigere og mer energieffektiv å bruke disse modellene. Disse konseptene er nå åpen kildekode og hvem som helst kan benytte seg av de. Nvidia har foreløpig vært selskapet som har tjent mest på AI-boomen, men deres inntekter er også tett korrelert med at det trengs fler og fler GPUer for å trene bedre og bedre modeller. DeepSeek sin innovasjon stakk kanskje en hull på den boblen.

DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts
The DeepSeek Narrative Takes the World by Storm DeepSeek took the world by storm. For the last week, DeepSeek has been the only topic that anyone in the world wants to talk about. As it currently s…
How a top Chinese AI model overcame US sanctions
With a new reasoning model that matches the performance of ChatGPT o1, DeepSeek managed to turn restrictions into innovation.
The Short Case for Nvidia Stock
All the reasons why Nvidia will have a very hard time living up to the currently lofty expectations of the market.

DeepSeek som en tjeneste, dvs. appen du laster ned eller bruker på web, lagrer alt du skriver og deler med DeepSeek i Kina. Det er åpenbart problematisk, men DeepSeek har også sluppet den mest avanserte R1-modellen som åpen kildekode. Det betyr at du og jeg kan kjøre denne lokalt på våre datamaskiner og dermed ikke være bekymret over informasjonen som lagres i Kina. Den vil kun lagres på din egen datamaskin. Jeg har satt opp DeepSeek R1 på min egen Mac og laget en liten guide som viser deg hvordan du gjør det.

Slik kjører du DeepSeek R1 og andre modeller på din Mac
En enkel guide for å kjøre DeepSeek og andre AI-modeller lokalt på Macen din.

🤖 AI

🌎 Big Tech

🌟 Annet

  • Trump går til krig mot elbiler og undergraver effektivt den amerikanske bilindustriens muligheter til å konkurrere. Kan gå begge veier for Tesla.