Η Google ανακοίνωσε επίσημα την ολοκλήρωση της διάθεσης των δυνατοτήτων κάμερας και κοινής χρήσης οθόνης του Gemini Live σε όλους τους χρήστες iOS, σηματοδοτώντας μια σημαντική επέκταση των οπτικών δυνατοτήτων αλληλεπίδρασης του βοηθού τεχνητής νοημοσύνης πέρα από τις συσκευές Android.
Η λειτουργία, που ανακοινώθηκε για πρώτη φορά στο Google I/O 2025 τον Μάιο, ξεκίνησε σταδιακά να διατίθεται σε χρήστες iPhone και iPad τις τελευταίες εβδομάδες. Από τις 13 Ιουνίου, η λειτουργικότητα είναι πλέον ευρέως διαθέσιμη σε όλους τους χρήστες της εφαρμογής Gemini σε iOS, ανεξάρτητα από το αν διαθέτουν συνδρομή στα premium AI προγράμματα της Google ή χρησιμοποιούν τη δωρεάν έκδοση.
Οι νέες δυνατότητες αλλάζουν τον τρόπο με τον οποίο οι χρήστες iPhone αλληλεπιδρούν με τον βοηθό τεχνητής νοημοσύνης της Google. Πατώντας το εικονίδιο κυματομορφής στην εφαρμογή Gemini, οι χρήστες έχουν πλέον πρόσβαση σε δύο νέα κουμπιά στη διεπαφή Live: ένα για κοινή χρήση κάμερας και ένα για κοινή χρήση οθόνης. Η λειτουργία κάμερας ανοίγει ένα εικονοσκόπιο που επιτρέπει στους χρήστες να στρέφουν το τηλέφωνό τους σε αντικείμενα, σκηνές ή κείμενο στον πραγματικό κόσμο και να συζητούν σε πραγματικό χρόνο με το Gemini για ό,τι βλέπουν. Παράλληλα, η κοινή χρήση οθόνης επιτρέπει στους χρήστες να περιηγούνται σε ιστοσελίδες, να συγκρίνουν προϊόντα ή να εξετάζουν έγγραφα, λαμβάνοντας ταυτόχρονα πληροφορίες και βοήθεια με τεχνητή νοημοσύνη.
Αυτή η οπτική επέκταση αποτελεί μέρος της ευρύτερης στρατηγικής της Google για βαθύτερη ενσωμάτωση του Gemini στις καθημερινές δραστηριότητες. Τις επόμενες εβδομάδες, η Google θα διαθέσει ενσωμάτωση με τα Maps, Calendar, Tasks και Keep, επιτρέποντας στους χρήστες να εκτελούν ενέργειες απευθείας μέσα από τις συνομιλίες στο Gemini Live. Για παράδειγμα, οι χρήστες θα μπορούν να συζητούν για σχέδια δείπνου και το Gemini να δημιουργεί άμεσα ένα γεγονός στο ημερολόγιο ή να ρωτούν για κοντινά εστιατόρια και να λαμβάνουν άμεσες πληροφορίες από τα Google Maps.
Η λειτουργία αξιοποιεί την τεχνολογία Project Astra της Google DeepMind, η οποία επιτρέπει στο Gemini να κατανοεί και να ανταποκρίνεται σε οπτικό περιβάλλον. Ενώ οι χρήστες Android έχουν πρόσβαση σε αυτές τις δυνατότητες από τον Μάρτιο (αρχικά στα Pixel 9 και Samsung Galaxy S25 πριν επεκταθεί σε όλους τους χρήστες Android), η διάθεση στο iOS ολοκληρώνει το όραμα της Google για διαλειτουργικότητα των οπτικών δυνατοτήτων του Gemini σε όλες τις πλατφόρμες.
Η Google έχει δηλώσει ότι σχεδιάζει επιπλέον διασυνδέσεις με το οικοσύστημα της Google πέρα από τις αρχικές τέσσερις εφαρμογές, καθώς συνεχίζει να τοποθετεί το Gemini ως έναν όλο και πιο προσωπικό και προδραστικό βοηθό τεχνητής νοημοσύνης.