- Apple redesigner Siri ved at udnytte Apple Intelligence og modeller som Gemini med en gradvis udrulning i iOS 26.4, 26.5 og 27.
- De første vigtige forbedringer er personlig kontekst, skærmbevidsthed og handlinger på tværs af apps via app-intentioner.
- Køreplanen kulminerer i en chatbot-lignende Siri, der er i stand til lange samtaler, indholdsgenerering og dybdegående systemkontrol.
- Streng privatlivspolitik og begrænset kompatibilitet med nyere enheder vil afgøre, hvilke brugere der kan drage fuld fordel af den nye Siri.

Hvis du nogensinde har tænkt det Siri var sakket bagud i forhold til ChatGPT eller GeminiDu er ikke alene. I årevis har Apples assistent været meget nyttig til hurtige opgaver, men kortsynet, når vi beder den om noget mere komplekst, især sammenlignet med den nyeste generation af chatbots.
Vi er nu ved et vendepunkt: Apple genopfinder Siri ved at stole på Apple Intelligence og i modeller som Google GeminiMed en køreplan, der udfolder sig på tværs af flere iOS-versioner (26.4, 26.5 og 27) og også påvirker iPadOS, macOS og CarPlay, er dette ikke en lille ændring: den berører privatliv, intern arkitektur, hvordan iPhone bruges og endda Apples forhold til andre AI-giganter.
Hvad er Siri i dag, og hvorfor redesigner Apple det?
Siri blev født som en virtuel assistent eksklusiv til Apples økosystem.Den er tilgængelig på iOS, macOS, watchOS og tvOS og bruger naturlig sprogbehandling til at forstå dine anmodninger, kontakte webtjenester og give et svar eller udføre en handling: indstille en alarm, sende en besked, oprette en note eller tjekke vejret.
I sin oprindelse, Siri var et projekt fra SRI International (SRI Venture Group)Siri stammer fra et DARPA-forskningsprogram kaldet CALO, der betragtes som et af de mest ambitiøse kunstig intelligens-projekter på sin tid. I 2010 opkøbte Apple virksomheden bag Siri, annullerede sine planer for Android og Blackberry og integrerede assistenten indbygget i iPhone 4S i 2011.
Siden da Siri er blevet udvidet til flere sprog, flere lande og flere platforme.Den kom til iPad, Apple Watch, Apple TV og Mac (med macOS Sierra i 2016). Med iOS 6 forbedrede den integrationen med apps som Kort og Påmindelser, tilføjede Bluetooth-kompatibilitet til biler og funktioner som "Eyes Free", der er designet til at bruge Siri fra rattets knapper.
Assistenten er afhængig af et økosystem af eksterne tjenester, der forsyner dens svar: OpenTable eller Yelp til restauranter, MovieTickets eller RottenTomatoes til filmTrue Knowledge, Bing Answers eller Wolfram Alpha til referencedata, foruden Bing og Google til internettet. Alt dette giver dig mulighed for at besvare spørgsmål, foretage reservationer eller få kontekstuel information.
På et praktisk plan, Siri har altid været en meget nyttig assistent til specifikke opgaverTjek vejret, find en restaurant i nærheden, planlæg aftaler, dikter beskeder, søg på nettet eller åbn apps. Den har endda en mere legende side med vittigheder, raps, historier og finurlige svar, der er blevet populære blandt brugerne.

Men konfronteret med konkurrenter som Google Assistant, Amazon Alexa eller Samsung BixbyOg for nylig, med fremkomsten af store sprogmodeller som ChatGPT, Gemini og Claude, har Siri vist visse begrænsninger: et relativt lukket system, delvis integration med tredjepartsapps og en følelse af stagnation i samtaleaspektet.
Privatliv og design: den mest diskrete assistent i økosystemet
En af de grundprincipper, som Apple konstant gentager, er, at Siri er designet til at være en meget personlig, men ekstremt diskret assistent.Systemet lærer dine rutiner og præferencer at kende, men det gør det på en måde, så det, du beder om, ikke er knyttet til din Apple-konto som en direkte identifikator.
Takket være Neural Engine i dens chips, Meget af tale- og sprogbehandlingen foregår direkte på enheden —iPhone, iPad eller Apple Watch—. Lyden af dine anmodninger forlader ikke enheden, medmindre du udtrykkeligt giver tilladelse til at dele den, og Apple understreger, at samtaler med Siri ikke bruges til reklameformål.
På dette grundlag opbygger han sin vision om Apple Intelligence og Private Cloud ComputeDisse modeller kører på selve enheden til normale anmodninger, og når der er behov for mere strøm, er de afhængige af servere designet med et ekstra lag af privatliv. Ifølge Craig Federighi er ideen, at når en model modtager dit spørgsmål, forbliver dataene private og gemmes ikke eller bruges til at træne tredjepartsmodeller.
Denne tilgang, som nogle gange forsinker udviklingen af funktioner baseret på personoplysninger, forklarer også nogle af forsinkelserne: At beskytte dit privatliv i fuldt omfang gør det meget sværere for Siri at få adgang til dine personlige oplysninger., såsom beskeder, e-mails eller filer, lige hvad der skal til for at gøre det virkelig "smart" i hverdagen.
Sådan aktiverer du Siri i dag på iPhone, iPad, Mac, Apple Watch og CarPlay
Ud over den nye AI, Måden at tilkalde Siri på er fortsat nøglen til problemfri brug.Apple tilbyder forskellige metoder afhængigt af enheden og dine tilgængelighedsindstillinger.
På iPhone kan du, efter du har konfigureret assistenten, påkald den med din stemme ved at sige "Siri" eller "Hej Siri"Du kan også trykke på og holde sideknappen nede på modeller med Face ID eller Hjem-knappen på ældre modeller. Hvis du bruger kablede EarPods, skal du blot trykke på og holde den midterste knap nede; med CarPlay kan du bruge stemmekommandoknappen på rattet eller Hjem-knappen på CarPlay-skærmen.
På Apple Watch, især fra serie 3 og fremefterDu har flere muligheder: løft dit håndled op til munden og tal, tryk og hold på Digital Crown, eller brug stemmekommandoer, hvis du har aktiveret always-on-lytning. På Mac-computere med en Apple-chip kan du også sige "Siri" eller "Hey Siri", bruge det dedikerede ikon i menulinjen og konfigurere tastaturgenveje.
For dem der foretrækker at skrive, er der funktionen "Skriv til Siri" i TilgængelighedDen aktiveres fra Indstillinger > Tilgængelighed > Siri, hvor du kan aktivere Skriv til Siri på iPhone eller iPad. Når den er aktiveret, skal du blot trykke på Siri-knappen og holde den nede og skrive din anmodning, hvilket er især nyttigt i situationer, hvor du ikke vil tale højt.
Når du bruger en fysisk knap til at åbne Siri, Stemmesvaret tilpasser sig lydløs tilstand På iPhone: Hvis aktiveret, svarer assistenten lydløst; hvis ikke, taler den højt. Hvis du aktiverer den med din stemme, svarer Siri normalt højt, selvom du kan justere denne funktionsmåde i assistentens indstillinger.
CarPlay, tredjeparts chatbots og Siris rolle i bilen
Indtil nu, Bilen var praktisk talt Siris eksklusive territorium.I CarPlay var den eneste stemmestyrede assistent Apples, med mindre undtagelser såsom stemmesøgning i kortapps. Det er ved at ændre sig.
Apple arbejder på at sikre, at Kunstig intelligens-applikationer med stemmetilstand, såsom ChatGPT, Gemini eller Claude, kan have deres egen app i CarPlayIdeen er, at du kan køre bil, stille et arbejdsrelateret spørgsmål eller forhøre dig om en by, du passerer igennem, og tale med en af disse chatbots uden at tage hænderne fra rattet.
Virksomheden sætter dog meget klare grænser: Du vil ikke kunne erstatte Siri-knappen på rattet eller bruge et vækkeord som "Hey ChatGPT" eller "Ok Google".Siri vil fortsat være den eneste officielt integrerede assistent til at styre systemet på bilniveau.
I praksis betyder det det For at bruge en tredjepartschatbot skal du først åbne dens applikation i CarPlay.Udviklere vil kunne aktivere stemmetilstand automatisk, når appen åbnes, men der vil altid være det første trin med at trykke på skærmen. Desuden vil disse chatbots ikke være i stand til at styre bil- eller iPhone-funktioner: de vil fokusere på at besvare komplekse spørgsmål, ikke på at aktivere lys, ændre systemmusik eller starte opkald fra enheden uden for deres egen app.
I mellemtiden forbereder Apple sine egne forbedringer: Med iOS 26.4 vil Siri begynde at bruge en Google Gemini-model i Apples infrastruktur. Og senere, med iOS 27, planlægger de at tilbyde en fuldt konversationsassistent, der vil konkurrere direkte med ChatGPT, Gemini og Claude.
Køreplan: fra iOS 26.4 og 26.5 til en chatbot-lignende Siri i iOS 27
Apple har lavet annonceringer og udsættelser om den nye Siri i et stykke tid nu. Ved WWDC 2024 afslørede Apple Apple Intelligence og en langt mere kraftfuld Siri.i stand til at bruge personlige data, forstå skærmen og styre apps på en avanceret måde, med et initialt løfte om ankomst i starten af 2025.
Imidlertid Virksomheden udsatte lanceringen hele tidenFørst flyttede den den til 2026 uden at angive specifikke datoer, og senere forbandt den internt udgivelsen med iOS 26.4, en forårsopdatering, der historisk set har medført vigtige ændringer (som 16.4, 17.4 og 18.4).
Ifølge forskellige lækager, herunder dem fra Bloomberg og Mark Gurman, Den nuværende plan involverer en gradvis udrulning mellem iOS 26.4, iOS 26.5 og iOS 27.Ideen: at bruge 26.4 som en strukturel base, 26.5 som en udvidelse, der stadig er under test af flere nøglefunktioner, og 27 som et stort kommercielt udstillingsvindue med den fuldt chatbottede Siri.
I de sidste uger af intern testning dog store problemer er opståetlangsommelighed, nøjagtighedsfejl, manglende evne til at håndtere komplekse forespørgsler godt og en særligt irriterende fejl, der får Siri til at afbryde brugeren, hvis de taler for hurtigt. Desuden delegerer assistenten nogle gange simple opgaver til sin ChatGPT-integration, når den burde kunne håndtere dem selv.
Disse tilbageslag har tvunget Apple til Overvej at udskyde nogle af de planlagte funktioner til iOS 26.4 til iOS 26.5 eller endda iOS 27Medarbejderne selv, der tester de interne versioner, har erkendt, at systemet ved udgangen af 2025 var så langsomt, at flere ekstra måneders arbejde syntes uundgåeligt.
Hvad iOS 26.4 vil bringe til Siri: personlig kontekst, skærm og handlinger i apps
iOS 26.4 præsenteres som en Strukturel opgradering, der lægger det tekniske grundlag for den nye SiriApple er mere end bare en stor marketingoverskrift. Det forbereder den første betaversion for udviklere i ugen fra den 23. februar, en offentlig betaversion kort efter og en endelig udgivelse mellem slutningen af marts og begyndelsen af april.
Den store nyhed er, at Apple Intelligence begynder for alvor at nå Siri på tre fronter: forståelse af personlig kontekst, bevidsthed om, hvad der er på skærmen, og handlinger i og mellem applikationer gennem App Intents-frameworket.
Først Personlig kontekst giver Siri mulighed for at have noget, der ligner korttidshukommelse. og være i stand til at forstå pronominer, vage referencer og data, der allerede findes på din enhed: Beskeder eller WhatsApp-samtaler, kalenderbegivenheder, e-mails eller seneste noter.
For det andet Skærmbevidsthed vil gøre det muligt at referere til "denne", "denne fil" eller "denne besked" Uden at skulle kopiere og indsætte eller forklare alt fra bunden. Systemet vil vide, hvilket indhold der er relevant i den app, du bruger, og vil være i stand til at handle på det, forudsat at applikationen eksponerer informationen korrekt via de relevante API'er.
Endelig App-intentioner vil gå fra at være skjult bag genveje til at blive det sprog, som apps bruger til at oprette forbindelse til Siri.Hver udvikler definerer, hvad deres applikation kan gøre (oprette opgaver, ændre reservationer, sende interne beskeder, behandle betalinger osv.), og systemet kan kæde disse handlinger sammen baseret på en kommando i naturligt sprog.
Funktioner, der kan blive forsinket indtil iOS 26.5
Selvom nogle af disse funktioner var beregnet til iOS 26.4, Nylige tests tyder på, at nogle vil ankomme i begrænset form eller i "forhåndsvisningstilstand" i iOS 26.5Apple har instrueret sine ingeniører i at teste de nye Siri-funktioner på interne builds af 26.5, hvilket tyder på en delvis forsinkelse.
Et af luftens kendetegn er Siris udvidede mulighed for at få adgang til dybe personlige dataMålet: at du kan spørge den noget i retning af "find den podcast, som Marcos sendte mig via besked for et par måneder siden, og afspil den", og få assistenten til at finde linket i dine gamle samtaler og starte den direkte.
Interne versioner af iOS 26.5 inkluderer en knap, der aktiverer en forhåndsvisning af disse avancerede funktioner, med ideen om at advare brugeren om, at det er noget eksperimentelt, der sandsynligvis vil mislykkes eller ændre sig, i stil med offentlige betaversioner af systemet.
De er også forsinkede Mere kraftfulde kommandoer til at styre handlinger i appsunderstøttet af App Intents. Det typiske eksempel ville være at sige "find et billede, retoucher det og send det til Laura", og Siri kan finde billedet, anvende grundlæggende redigering og dele det, alt sammen med en enkelt kommando.
Medarbejdere, der tester iOS 26.5, rapporterer, at Der er i starten understøttelse af disse funktioner, men deres pålidelighed lader stadig meget tilbage at ønske.Derfor overvejer Apple at udgive dem som en forhåndsvisning, så forventningerne holdes under kontrol, mens de indsamler brugs- og fejldata.
Den store satsning: Siri som chatbot i iOS 27 og "Field/Fields"-projektet
Ud over 26.4 og 26.5 kommer det store kommercielle spring med iOS 27, iPadOS 27 og macOS 27, som vil introducere en Siri transformeret til en chatbot kodenavnet "Field" eller "Fields". Ideen er at erstatte den nuværende brugerflade med en systemomfattende integreret chatoplevelse, der er tilgængelig via både tale og tekst.
Denne nye Siri-chatbot vil være i stand til at Hold lange samtaler i ChatGPT-stil, med en kontinuerlig tråd, hvor du kan anmode om resuméer, tekstgenerering, billedoprettelse, avancerede websøgninger og håndtering af komplekse opgaver uden at forlade samtalen.
På et teknisk niveau Arkitekturen er baseret på Apple Foundations Models-platformensom nu inkorporerer teknologi fra Google Gemini-teamet. En del af behandlingen vil blive udført på selve enhederne (primært iPhones og Macs med nyere chips), og en anden del i datacentre med chips designet af Apple inden for Project Baltra, med fokus på AI-behandling i skyen.
Virksomheden eksperimenterer også med en selvstændig app til at administrere tidligere interaktioner med chatbottenDette minder om en historik, som du kan gennemgå, redigere eller genbruge til nye opgaver. Herfra kan du f.eks. hente en samtale, hvor du oprettede et dokument eller billede, og fortsætte tråden.
En central del af denne næste generation af Siri vil være dybdegående kontrol over systemfunktioner og sikker adgang til personoplysningerFiler, e-mails, begivenheder, kontakter, noter og meget mere. Apple ønsker, at du skal kunne bede dem om at omorganisere din dag, gennemgå dokumenter, slå vigtige oplysninger op og udføre handlinger i apps som Mail, Kalender eller Safari med kommandoer på højt niveau.
Apple, Google og Gemini-aftalen
Siris forvandling kan ikke forstås uden Den strategiske alliance mellem Apple og Google for at integrere Gemini i Apple IntelligenceDenne aftale, som blev synlig i begyndelsen af året, er nøglen til at give assistenten og andre iOS-funktioner generativ muskelkraft.
Mærkeligt nok Offentlig kommunikation af pagten har været ret asymmetriskMeddelelsen vises primært på Googles kanaler, mens Apples officielle platforme tilbyder få detaljer. Aftalen eksisterer, men synligheden er i høj grad på Alphabets side, hvilket rejser spørgsmål blandt analytikere og investorer.
På en konference med Alphabet-investorer, Analytiker Ken Gawrelski spurgte eksplicit, hvordan denne type aftale passer ind med partnere som Apple.I en kontekst, hvor platformens brugervenlighed og generativ AI kan opveje traditionelle søgeklik, fokuserede Philipp Schindlers svar på den samlede søgeydelse og AI-integration, men han undgik at give specifikke detaljer om aftalen med Apple.
I Apple-investoropkaldet, Tim Cook var noget mere direkte i teknologiske spørgsmål, men lige så undvigende i kontraktmæssige spørgsmål.Han argumenterede for, at Googles AI giver et meget kompetent fundament for Apples Foundation Models, og at de sammen vil låse op for vigtige oplevelser, men gjorde det klart, at aftalens vilkår ikke vil blive offentliggjort.
For investorer, Disse resultatkonferencer er blevet et afgørende vindue til at forstå omfanget af forklaringerne. om aftaler, der kan påvirke produkt, strategi og fakturering. Selvom virksomheder undgår detaljerne, stiger presset for klarhed i takt med at AI bliver central for deres værdiskabelse.
Indvirkningen af denne Siri-genstart på økosystemet og brugerne
Genlanceringen af Siri er ikke kun et spørgsmål om teknologisk prestige: Apple risikerer en del af den opfattede værdi af iPhone og dens økosystemiPhones tegner sig allerede for omkring 20 % af det globale smartphonesalg og 25 % af den globale installerede base, med cirka 1.500 milliarder aktive iPhone-brugere.
På markeder som Spanien, iOS har en markedsandel på omkring 28-29% inden for mobilmarkedet Og Apple er den førende producent, når det kommer til aktiv enhedsbrug, foran Samsung. Enhver reel forbedring af Siri betyder, at millioner af mennesker kan få mere ud af en enhed, de allerede har betalt for, uden at skulle opgradere deres hardware.
Men De mest avancerede funktioner i Apple Intelligence og den nye Siri vil være begrænset til nyere modellerLigesom med den første bølge er denne opdatering begrænset til iPhone 15 Pro, iPhone 16 og Macs med en M1-chip eller højere. Dette udelader en betydelig procentdel af markedet, omkring 20-30% ifølge nogle analytikere.
Denne flaskehals tjener et dobbelt formål: Det kan tilskynde til enhedsopgraderinger på et modent markedMen det kan også skabe frustration blandt dem, der ser, at "deres" Siri ikke ligner den, Apple viser frem i præsentationer. Følelsen af at bruge en nedskaleret version af assistenten kan have en negativ indflydelse på brandopfattelsen.
Parallelt, Den akkumulerede forsinkelse kommer på det værst tænkelige tidspunkt.Mens verden vænner sig til at interagere med ChatGPT, Gemini eller Claude, har iPhones indbyggede assistent fortsat fungeret i vid udstrækning, som den gjorde i 2016. Hver måneds forsinkelse forekommer på en basis af hundredvis af millioner aktive enheder.
Eksempler fra den virkelige verden på brugen af den nye Siri
For at forstå alt dette tekniske setup er det nyttigt at forestille sig, hvordan Hverdagen vil ændre sig med den nye Siri under iOS 26.4 og senere 27.Her er tre meget specifikke scener.
Tænk først på et kompliceret møde: Du har en e-mail med en åben kontrakt og en chat med din advokat.Med iOS 26.4 kunne du sige noget i retning af: "Siri, flyt dette møde med Ana til det første ledige tidspunkt i eftermiddag, og send kontrakten til hende igen." Systemet bruger personlig kontekst (hvem Ana er), kalenderoplysninger og indhold på skærmen til at foretage ændringerne og sende det korrekte dokument.
Med iOS 27, Den samme situation bliver rigereSiri kunne foreslå alternativer, tilføje en compliance officer, udarbejde en e-mail med juridiske nuancer og spørge, om man vil gemme en ændret version af kontrakten, alt sammen i en kontinuerlig samtale med chatbotten.
Andet eksempel: en forretningsrejse med ændringer i sidste øjeblikBilletter i Wallet, reservationer i PDF-filer i Filer og møder i Kalender. I version 26.4 kunne du spørge: "Udsæt alle torsdagsmøder til fredag, underret de berørte, og skift returflyvningen til den første flyvning lørdag morgen." Siri ville skulle koordinere flyselskabets App Intents, din kalender og beskedapps for at udføre dette sæt af handlinger.
En 27, assistenten kunne gå et skridt videreGentænk hele rejsen, foreslå alternative hoteller, genberegn budgettet og forbered en opsummering klar til Finans, alt sammen uden at forlade samtaletråden, hvor du godkender hver ændring.
Tredje scenarie: en dag fyldt med spredte oplysningerDu læser en makrorapport i Safari, modtager en markedsundersøgelse i e-mailen og brainstormer idéer til en præsentation i Notes. I 26.4 kan du sige: "Siri, opret en note med de vigtigste idéer herfra, og indstil en påmindelse til mig i morgen klokken 8 om at gennemgå den," og systemet vil bruge skærmbevidsthed og personlig kontekst til at registrere det relevante indhold.
Med chatbotten version 27, Du kan bede den om at opsummere begge dokumenter, krydsreferere data, generere en præsentationsdisposition og foreslå flere overskrifter. at dele dem direkte med dit team, alt sammen i et enkelt samtaleflow, hvor du finjusterer resultatet.
Når man ser på helheden, Siris nye fase kombinerer et aggressivt skub for generativ AI med et stærkt forsvar for privatlivets fred.Ved at udnytte sine egne modeller, alliancen med Google Gemini og et gennemgribende redesign af, hvordan apps eksponeres for systemet, kan den assistent, der i årevis har været "til simple ting", endelig blive det lag, der orkestrerer næsten alt, hvad du gør med din iPhone, din iPad, din Mac og endda din bil, hvis Apple får udførelsen rigtigt og formår at få udviklere og brugere med om bord.