menu
close

Apple udvider AI-funktioner på tværs af hele enhedsøkosystemet

Apple har præsenteret et udvidet sæt af Apple Intelligence-funktioner, der forbedrer brugeroplevelsen på iPhone, iPad, Mac, Apple Watch og Apple Vision Pro. De nye muligheder omfatter visuel intelligens til skærmindhold, ChatGPT-integration og den banebrydende Workout Buddy til Apple Watch. Funktionerne kan allerede nu testes af udviklere, mens en offentlig beta lanceres næste måned og den fulde udgivelse følger til efteråret på understøttede enheder.
Apple udvider AI-funktioner på tværs af hele enhedsøkosystemet

Apple har markant udvidet sine muligheder inden for kunstig intelligens med en ny bølge af Apple Intelligence-funktioner, der vil forandre måden, brugerne interagerer med deres enheder på.

Kernen i opdateringen er visuel intelligens, som bringer AI-funktionalitet til indholdet på iPhone-skærmen. Denne teknologi gør det muligt for brugerne at søge og handle på alt, de ser på tværs af apps. Brugere kan stille ChatGPT spørgsmål om det viste indhold, søge efter lignende produkter via Google eller Etsy og fremhæve specifikke objekter for at finde tilsvarende varer online.

Visuel intelligens genkender også, når brugeren ser på information om begivenheder, og kan foreslå at tilføje dem til kalenderen ved automatisk at udtrække relevante detaljer som dato, tidspunkt og sted. Brugerne får adgang til disse funktioner via de samme knapper, der bruges til at tage skærmbilleder, hvilket giver mulighed for at gemme, dele eller udforske med visuel intelligens.

For fitnessentusiaster introducerer Apple Watch Workout Buddy – en banebrydende oplevelse drevet af Apple Intelligence. Funktionen analyserer aktuelle træningsdata sammen med brugerens træningshistorik for at generere personlige, motiverende indsigter i realtid. Ved hjælp af målinger som puls, tempo, distance og Activity ring-fremskridt leverer en ny tekst-til-tale-model disse indsigter via en dynamisk stemme baseret på Fitness+-træneres optagelser. Workout Buddy behandler alle data privat og sikkert og kræver Bluetooth-hovedtelefoner samt en iPhone med Apple Intelligence i nærheden.

Udviklerne er heller ikke glemt. Det nye Foundation Models-framework føjer sig til en række værktøjer, der giver adgang til on-device intelligens, mens Xcode 26 udnytter store sprogmodeller som ChatGPT. Disse tilføjelser supplerer Apples omfattende samling af over 250.000 API’er, der muliggør integration med hardware- og softwarefunktioner inden for maskinlæring, augmented reality, sundhed og fitness, spatial computing og højtydende grafik.

Alle disse funktioner kan testes via Apple Developer Program allerede i dag, mens en offentlig beta bliver tilgængelig næste måned gennem Apple Beta Software Program. Den fulde lancering er planlagt til efteråret og understøtter alle iPhone 16-modeller, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro) samt iPad- og Mac-modeller med M1-chip eller nyere.

I første omgang vil Apple Intelligence understøtte engelsk, fransk, tysk, italiensk, portugisisk (Brasilien), spansk, japansk, koreansk og kinesisk (forenklet), mens flere sprog tilføjes inden årets udgang: dansk, hollandsk, norsk, portugisisk (Portugal), svensk, tyrkisk, kinesisk (traditionelt) og vietnamesisk. Nogle funktioner kan have begrænset tilgængelighed på grund af lokale love og regulativer.

Denne udvidelse af AI-funktionalitet på tværs af Apples økosystem markerer selskabets hidtil mest ambitiøse satsning på kunstig intelligens og bringer avancerede funktioner direkte ud til hundredvis af millioner af brugere verden over.

Source:

Latest News