8 min read

Ukens notater #37: Apples store uke

Ukens notater #37: Apples store uke
Photo by Artem Horovenko / Unsplash


Mandag i uken som gikk holdt Apple sin årlige utviklerkonferanse WWDC i Cupertino. På forhånd var forventningene dratt kraftig ned etter fjorårets lansering av en smartere Siri som har blitt utsatt til 2026. Noen ny Siri ble ikke vist fram, men hovedfokuset på årets konferansen var et helt nytt designspråk - Liquid Glass.

Dette er ikke bare en UI-oppfriskning. Det er en gjennomgripende og ganske ambisiøs endring av hvordan programvare skal se ut og fungere på Apple-enheter i årene som kommer. Liquid Glass kombinerer elementer fra VisionOS med iOS, iPadOS og macOS.

Enkelt forklart kan man si at det er et gjennomsiktig, glassaktig design som etterligner de optiske egenskapene til ekte glass. Beveger du f.eks. telefonen eller iPaden vil du se at lyset i «glasset» reflekteres i takt med dine bevegelser. Glasset tilpasset seg innholdet og konteksten i sanntid ved å endre farger og lysstyrker. Dette er et veldig lekent, morsomt og gjør grensesnittet veldig levende, samtidig som det også innfører en del utfordringer.

0:00
/0:20


Med Liquid Glass flytter Apple visjonen de har hatt for VisionOS over til alle Apples systemer. Uansett om du har en iPhone, iPad, Mac, Apple Watch eller Apple TV så får du nå et nytt grensesnitt. Dette lukter veldig langsiktig planlegging. Det er ikke veldig vanskelig å forestille seg at dette er designgrunnlaget for fremtidige Apple-briller som det ryktes at selskapet jobber med som videreutvikling av Vision Pro.

Som alltid med store designendringer, kommer det også umiddelbare motreaksjoner. De fleste mennesker hater forandring – i hvert fall i grensesnitt. Men kritikken av Liquid Glass handler ikke bare om uvant design og endringer. Det handler også om svak kontrast, rare skygger og andre valg som gjør Apples produkter mindre tilgjengelige for brukere med nedsatt syn og andre handikapp. En relativt dårlig utvikling. Alt dette er problemer som må løses før lansering i september og vi som har vært med en stund på disse lanseringene vet at mye skjer mellom juni og september. Dette er en utviklerversjon, ikke et ferdig produkt.

Likevel synes jeg det er noe friskt og modig her. Apple kunne valgt en trygg iterasjon. I stedet går de for et tydelig designsystem som bryter med mye av det man har gjort før. Det er absolutt ikke nøytralt. Det har en klar idé om hvordan fremtiden bør se ut. Kanskje måtte de også gjøre dette for å nullstille litt etter fjorårets Siri-flause. Kanskje er dette også en måte å skille seg enda tydeligere fra Android, Google og webapps. Apple skaper et grensesnitt som vanskelig kan tilfredsstilles gjennom en nettleser. Kontrasten på de fantastiske brukeropplevelsene man kan bygge native og web blir større.

Samtidig fikk iPad sin kanskje viktigste oppdatering på mange år. Med iPadOS 26 er iPaden oppgradert til å bli en virkelig utfordrer for Mac og PC. Nå kan du multitaske med flere vinduer oppe samtidig, du kan flytte vinduer der du vil ha dem og ikke minst har vi også fått en meny-linje i toppen samt en ordentlig musepeker. Det har tatt Apple mange år, men nå ser vi som elsker iPad lys i tunellen på å bruke den som et seriøst verktøy.

Og så var det Siri og AI. Apple snakket mye om AI, men en smartere Siri glimrer fortsatt med sitt fravær. De mest spennende AI-nyhetene fra Apple var i mine øyne muligheten for utviklere å nå kjører Apples egne LLMer lokalt på iPhone/iPad via «Foundational Model Framework». Dette er Apples kompakte språkmodell (LLM) med rundt 3 milliarder parametere, optimalisert for å kjøre direkte på Apple-enheter. Denne modellen kan utføre oppgaver som tekstforståelse, oppsummering, tekstforbedring, korte dialoger og generering av innhold lokalt på enheten, uten å sende data til skyen. Ifølge Apple er den på par med Googles Gemma3. Utviklere får tilgang til disse modellene for å bygge egne AI-funksjoner inn i sine apper uten å måtte betale OpenAI, Google eller andre. Det er svært godt nytt for utviklere.

Norge var forøvrig også godt representert i år. Kahoot! og deres bruk av Apples AI-modeller ble nevnt og Agens sitt Skate City: New York ble også vist fram. Ganske kult!

Apples WWDC 2025 kan oppsummeres slik: en stor designendring, en etterlengtet frigjøring av iPad, og begynnelsen på en AI-retning hvor Apple jobber videre med det de er gode på - kombinasjonen av hardware og software. Det er et Apple i endring, men med mer tålmodighet enn hastverk. Verken Liquid Glass eller AI kommer til å være perfekt i september, men kanskje er det heller ikke poenget. Apple tenker i tiår. Så er spørsmålet om Apples polerte lanseringer én gang i året er kompatibelt med suksess innen AI. AI utvikles kaotisk og kontinuerlig, ikke polert.

Apple WWDC 2025: the 13 biggest announcements
Here’s a roundup of the most exciting updates.
Updates to Apple’s On-Device and Server Foundation Language Models
With Apple Intelligence, we’re integrating powerful generative AI right into the apps and experiences people use every day, all while…
An Introduction to Apple’s Foundation Model Framework
Apple’s on-device, private large language models are open to developers, here’s how to use them.
Apple Retreats
Apple’s WWDC was a retreat from not just last year’s WWDC, but potentially a broader reset for the company. That’s why it was a great presentation.
This is what really happened with Siri and Apple Intelligence, according to Apple
Is it a delay, a strategy... or something else?

🤖 AI

🌎 Big Tech

  • Variety har et bra intervju med Tim Cook og Lewis Hamilton om Apples storsatsning på AppleTV+ filmen «F1». Det ser ut som Apple går «all in» på at denne filmen skal bli en suksess og har til og med laget en egen «haptic trailer» for iPhone. Se den på en iPhone for en interessant opplevelse.
  • Google begynner utrullingen av Android 16. En vesentlig mindre oppdatering enn hva Apple presenterte under WWDC, men samtidig en del fine nye funksjoner - som f.eks. Googles variant av live updates.

🔎 Small Tech

🌟 Annet

📈 Interessante data