Apple znacząco poszerzyło swoje możliwości w zakresie sztucznej inteligencji, wprowadzając nową falę funkcji Apple Intelligence, które zrewolucjonizują sposób interakcji użytkowników z ich urządzeniami.
Sercem aktualizacji jest inteligencja wizualna, która rozszerza możliwości AI na treści wyświetlane na ekranach iPhone’ów. Technologia ta pozwala użytkownikom wyszukiwać i podejmować działania na dowolnych treściach widocznych w aplikacjach. Użytkownicy mogą zadawać ChatGPT pytania dotyczące tego, co widzą na ekranie, wyszukiwać podobne przedmioty w Google lub na Etsy oraz zaznaczać konkretne obiekty, aby znaleźć podobne produkty online.
Inteligencja wizualna rozpoznaje także, gdy użytkownik przegląda informacje o wydarzeniach i może zasugerować dodanie ich do kalendarza, automatycznie wyciągając istotne szczegóły, takie jak data, godzina i miejsce. Dostęp do tych funkcji uzyskuje się przez te same przyciski, które służą do robienia zrzutów ekranu, co daje możliwość zapisania, udostępnienia lub dalszej eksploracji za pomocą inteligencji wizualnej.
Dla entuzjastów fitnessu Apple Watch zyskuje Trenera Treningowego (Workout Buddy) – pierwsze tego typu rozwiązanie oparte na Apple Intelligence. Funkcja analizuje aktualne dane treningowe wraz z historią aktywności, by generować spersonalizowane, motywujące wskazówki w czasie rzeczywistym. Wykorzystując takie metryki jak tętno, tempo, dystans czy postęp w pierścieniach aktywności, nowy model tekst-na-mowę przekazuje te wskazówki dynamicznym głosem stworzonym na bazie nagrań trenerów Fitness+. Workout Buddy przetwarza wszystkie dane prywatnie i bezpiecznie, wymagając słuchawek Bluetooth oraz iPhone’a z obsługą Apple Intelligence w pobliżu.
Deweloperzy również nie zostali pominięci. Nowy framework Foundation Models dołącza do zestawu narzędzi pozwalających korzystać z inteligencji na urządzeniu, a Xcode 26 wykorzystuje duże modele językowe, takie jak ChatGPT. Te dodatki uzupełniają rozbudowany zestaw ponad 250 000 API, umożliwiających integrację z funkcjami sprzętowymi i programowymi w obszarach uczenia maszynowego, rzeczywistości rozszerzonej, zdrowia i fitnessu, komputerów przestrzennych oraz grafiki wysokiej wydajności.
Wszystkie te funkcje są już dostępne do testowania w ramach Apple Developer Program, a publiczna beta pojawi się w przyszłym miesiącu poprzez Apple Beta Software Program. Pełna premiera planowana jest na jesień i obejmie wszystkie modele iPhone 16, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro) oraz iPady i Maki z procesorami M1 i nowszymi.
Początkowo Apple Intelligence będzie obsługiwać języki: angielski, francuski, niemiecki, włoski, portugalski (Brazylia), hiszpański, japoński, koreański i chiński uproszczony. Do końca roku dołączą kolejne: duński, niderlandzki, norweski, portugalski (Portugalia), szwedzki, turecki, chiński tradycyjny i wietnamski. Niektóre funkcje mogą być ograniczone ze względu na lokalne przepisy i regulacje.
To rozszerzenie możliwości AI w ekosystemie Apple stanowi najbardziej ambitny krok firmy w kierunku sztucznej inteligencji, wprowadzając zaawansowane funkcje bezpośrednio do rąk setek milionów użytkowników na całym świecie.