Jag har testat den senaste versionen av Apples operativsystem för iPhone, iOS 26.1, som inom kort kommer rullas ut till alla iPhone-användare utanför betaprogrammet. För de flesta kanske det bara ser ut som ännu en vanlig uppdatering. Några buggfixar, lite stabilitetsförbättringar, kanske en ny ikon eller två. Men för oss i Sverige betyder den här uppdateringen faktiskt något större. Något som många har väntat på länge. Något JAG har väntat på länge.
Innan jag börjar med det uppenbara, så vill jag bara säga att iOS 26.1 introducerar betydliga förbättringar till kameran på iPhone. Bilder ser nästan surrealistiskt bra ut, även i komplicerade ljusförhållanden och på långa avstånd. Något jag inte riktigt var beredd på, men som uppenbarligen Apple också arbetat på.
Den stora grejen är att med iOS 26.1 så får vi tillgång till Apple Intelligence, på svenska! Äntligen!
Det här är inte bara en ny funktion. Det är Apples egen tolkning av hur artificiell intelligens ska integreras i våra vardagliga enheter och nu när den äntligen pratar vårt språk, så börjar det hela kännas lite mer verkligt.
Jag har för vana att hålla mig undan betaversioner av Apples operativsystem. Det brukar alltid vara någon app som slutar fungera, batteritiden som halveras eller någon funktion som kraschar precis när man behöver den. Men när jag hörde att Apple Intelligence skulle börja fungera på svenska, då kunde jag inte låta bli att hoppa på tåget i förtid.
För att vara tydlig med alla som är nyfikna, det här är fortfarande en ganska försiktig start. Apple Intelligence är inte en enda stor ny funktion som man kan öppna och testa, utan snarare ett lager av smarthet som läggs ovanpå allt annat och integreras i telefonens befintliga ekosystem av appar och funktioner.
Apple Intelligence märks på små sätt, som i textförslag, i mejl, i hur Siri svarar, och i hur bilder och filer hanteras. Men saken är den att det märks och fungerar.
Den första skillnaden jag märkte var Siri. På svenska känns Siri plötsligt mer naturlig, mer lyssnande och mindre som en stel robot från 2013. Det finns fortfarande lite kantighet här och där, men det är tydligt att den förstår sammanhang bättre. Även om den Siri som finns i iOS 26.1 inte är “riktiga AI Siri”, som kommer att introduceras i iOS 26.4. Men jag märkte rätt så snabbt att något har förändrats.
Det finns väldigt kort väntetid mellan när man “beordrar” Siri att utföra något tills det verkligen utförs. Det är lättare att diktera och det sker betydligt mindre fel. Att skicka iMessage, något som jag ofta gör när jag kör bil och vill behålla fokus på vägen, är betydligt mer korrekt, trots högre ljudnivå. Om det inte finns täckning där man befinner sig så kan Siri ändå utföra många funktioner, offline.
Tidigare hade Siri problem med att förstå när man dikterade längre textmeddelanden i bilen, nu har den börjat skicka meddelandet utan att upprepa allt jag sagt, om den är säker på vad jag sa. En sak som först gjorde mig lite nervös, men som nu har visat sig vara rätt på pålitligt. Det är precis den typen av små saker som gör att man plötsligt känner att det finns något nytt här. Något som äntligen börjar peka i rätt riktning.
En annan funktion som nu fungerar på svenska är Apples inbyggda skrivassistans. När man skriver ett mejl, ett anteckningsblock eller till och med ett meddelande, kan man låta systemet föreslå bättre formuleringar eller sammanfatta och korta ned texten. iMessage kan föreslå svar på meddelanden för att snabba upp och underlätta för när man är upptagen men ändå inte vill låta stressad eller otrevlig.
Jag testade att låta Apple Intelligence sammanfatta en lång anteckning jag gjort om fiberprojektet här uppe i norr. På ett ögonblick hade den kokat ner fem stycken till tre meningar, det blev faktiskt riktigt bra. Inte perfekt, men tillräckligt för att spara tid och underlätta min vardag, vilket uppskattas.
Det är också möjligt att låta systemet ändra tonläge. Man kan be det låta mer “vänligt”, “formellt” eller “kortfattat”. På engelska har det här funnits ett bra tag, men på svenska är det nytt, och det funkar förvånansvärt bra.
Apple Intelligence kan också analysera bilder. Det betyder inte att den “ser” allt i bilderna på samma sätt som vissa AI-appar gör, men den kan förstå sammanhang. Du kan fråga:
“Visa bilder på Ludde och mig i skogen.”
Och då hittar den just de bilderna, utan att man behöver ange datum eller plats, eller ens förklara vem Ludde är, eller var skogen finns. Det bara fungerar.
Jag testade det här med bilder från fjället, på bilar och mycket annat. Den lyckades pricka rätt på förvånansvärt många. Det är nästan lite kusligt när det fungerar, men också väldigt praktiskt.
Det som skiljer Apple Intelligence från många andra AI-lösningar är att den inte skickar allt till molnet. Mycket av det som bearbetas stannar på själva telefonen. Det här är något Apple trycker hårt på, och det märks att de försöker balansera mellan att vara “smart” och att vara “säker”. För oss som bor i Europa, där dataskydd och integritet betyder mycket, är det här faktiskt en stor grej.
Apple använder något de kallar för Private Cloud Compute en sorts mellanlösning där din data bara används tillfälligt, på ett sätt som inte lämnar spår. Det är deras sätt att säga: “Vi kan ge dig AI-funktioner utan att sälja din själ till algoritmerna.” Precis detta är en av anledningarna till att Apple stryker mig medhårs och gör att jag kan slappna av lite, även om jag vill ha bekvämligheterna med att få hjälp från AI.
Om man ska tro dem, så fungerar integritet och skydd väldigt bra. Jag är långt ifrån så duktig att jag kan säga med säkerhet om det verkligen gör det, på riktigt. Men Apple Intelligence är något speciellt och jag hoppas verkligen att dom håller vad dom lovat så att jag slipper oroa mig i onödan.
Frågan jag ställde mig redan efter några dagar med iOS 26.1 var: förändrar det här verkligen hur jag använder telefonen? Det enkla svaret är, inte riktigt ännu… eller kanske snarare “inte på det sätt jag trodde”.
Apple Intelligence på svenska är fortfarande i sin linda. Det finns en grundläggande smarthet där, men det är mer som ett diskret lager som gör allt lite bättre, snarare än något som förändrar allt över en natt. Men samtidigt är det också just det som känns typiskt Apple. De släpper sällan något som är halvdant. Istället låter de det växa fram organiskt, så att det successivt blir en naturlig del av vardagen.
Med detta i bakhuvudet så tänker jag att under denna tid med Apple Intelligence så har jag säkert haft mer nytta av denna AI än vad jag själv insett. Den är så integrerad i telefonens övriga funktioner att man knappt märker den. Ingenting skriker “Jag är AI”, men det fungerar ändå på något Apple-magiskt sätt.
Något jag dock har märkt är att jag börjat interagera med telefonen på ett annat sätt. Jag pratar mer med Siri. Jag ber den skriva om saker. Jag låter den sammanfatta anteckningar. Saken är den att det känns naturligt och enkelt, utan att man behöver instruktionsböcker eller djup förståelse för hur AI fungerar.
Att det fungerar på svenska gör mer skillnad än man kanske tror. Tidigare när AI-funktioner bara fungerade på engelska så kändes det alltid som att man använde någon annans verktyg. Man fick anpassa sitt språk, tänka på hur man formulerade sig, och ibland undvika vissa ord. Att skriva om texter och skicka meddelanden gick förstås inte så bra, vilket gjorde att man undvek att använda Siri till sådana aktiviteter.
Men det är ju det som är speciellt med att ha AI på sitt eget språk. Nu kan man prata som man tänker, vilket gör att det börjar kännas riktigt integrerat och naturligt. Det finns små språkliga missar här och där, förstås. Ibland tolkar den dialekter konstigt, och vissa uttryck får lite märkliga översättningar. Men helhetsintrycket är ändå väldigt positivt.
Det finns redan massor av AI-lösningar ute på marknaden – ChatGPT, Google Gemini, Copilot och så vidare. Men Apple går sin egen väg, som vanligt. De integrerar AI i allt, men utan att kalla det för AI i varje mening. Jag tror inte att Apple någonsin försökte att imponera, utan om att göra vardagen lite enklare. Det är små förbättringar överallt, smartare mejl, bättre sökresultat, en lite mer kapabel Siri, och bättre förståelse för kontext.
Jag tror faktiskt att Apple är något på spåret här. Det är nog så här framtiden ser ut. Inte som en chattbot man öppnar ibland, utan som en tyst assistent som förstår vad man behöver innan man hinner be om det. Något som arbetar i bakgrunden och underlättar, förbättrar och förstår, utan att vara “in your face” och tvinga fram konversationer i tid och otid.
iOS 26.1 känns som en större uppdatering än siffran antyder. Det är inte bara en “.1”-version, det är en startpunkt för något nytt och något som många, många har väntat på.
Apple Intelligence på svenska är fortfarande lite rå i kanterna, tycker i alla fall jag. Men det är en imponerande början. För första gången känns det som att min iPhone faktiskt förstår mig, på riktigt, på mitt språk. Det är inte revolutionerande ännu, men det är på väg dit.
Bara det faktum att Apple lyckats integrera så mycket intelligens utan att kompromissa med integriteten gör att jag känner mig mer bekväm med att låta den här tekniken ta plats i min vardag. Om jag behöver något mer komplicerat, eller prata idéer med en chattbot, då kan jag lika gärna prata med ChatGPT. Min telefon ska dock fokusera på dess funktioner och mina behov, så blir det otroligt bra i slutänden.
Ha en riktigt bra dag så hörs vi snart igen.



Lämna ett svar