Apple har kraftigt utökat sina artificiella intelligensmöjligheter med en ny våg av Apple Intelligence-funktioner som kommer att förändra hur användare interagerar med sina enheter.
Kärnan i uppdateringen är visuell intelligens, som utökar AI-funktioner till innehållet som visas på iPhone-skärmar. Denna teknik gör det möjligt för användare att söka och agera på allt de ser i appar. Användare kan ställa frågor till ChatGPT om innehållet på skärmen, söka efter liknande objekt via Google eller Etsy, och markera specifika objekt för att hitta liknande produkter online.
Visuell intelligens känner även av när användare tittar på information om evenemang och kan föreslå att lägga till det i kalendern, genom att automatiskt extrahera relevanta detaljer som datum, tid och plats. Användare når dessa funktioner via samma knappar som används för att ta skärmdumpar, vilket ger möjlighet att spara, dela eller utforska med visuell intelligens.
För träningsentusiaster får Apple Watch Workout Buddy, en upplevelse som är först i sitt slag och drivs av Apple Intelligence. Denna funktion analyserar aktuell träningsdata tillsammans med träningshistorik för att generera personliga, motiverande insikter i realtid. Med hjälp av mätvärden som puls, tempo, distans och aktivitetssringens framsteg levererar en ny text-till-tal-modell dessa insikter via en dynamisk röst baserad på inspelningar från Fitness+-tränare. Workout Buddy behandlar all data privat och säkert, och kräver Bluetooth-hörlurar samt en närliggande iPhone med stöd för Apple Intelligence.
Utvecklarna har inte heller glömts bort. Det nya Foundation Models-ramverket kompletterar en uppsättning verktyg som gör det möjligt att utnyttja intelligens direkt på enheten, medan Xcode 26 använder stora språkmodeller som ChatGPT. Dessa tillägg kompletterar Apples omfattande uppsättning av över 250 000 API:er som möjliggör integration med hårdvaru- och programvarufunktioner inom maskininlärning, förstärkt verklighet, hälsa och träning, spatial databehandling och högpresterande grafik.
Alla dessa funktioner kan testas via Apple Developer Program från och med idag, med en publik beta som släpps nästa månad via Apple Beta Software Program. Den fullständiga lanseringen är planerad till hösten och stöder alla iPhone 16-modeller, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro) samt iPad- och Mac-modeller med M1 och senare.
Inledningsvis kommer Apple Intelligence att stödja engelska, franska, tyska, italienska, portugisiska (Brasilien), spanska, japanska, koreanska och kinesiska (förenklad), med fler språk senare under året: danska, nederländska, norska, portugisiska (Portugal), svenska, turkiska, kinesiska (traditionell) och vietnamesiska. Vissa funktioner kan ha begränsad tillgänglighet beroende på regionala lagar och regler.
Denna utökning av AI-funktioner över Apples ekosystem är företagets mest ambitiösa satsning hittills inom artificiell intelligens och för med sig avancerade funktioner direkt till hundratals miljoner användare världen över.