Google przedstawił swoją wizję przyszłości - wypuści w sieci swoich agentów AI, którzy będą przeszukiwać internet i odpowiadać na pytania w oparciu o rzeczywiste otoczenie, gusta i preferencje danej osoby. Dodatkowo wprowadzi także tłumaczenie symultaniczne podczas spotkań w Google Meet.


Google stoi przed jednym z zakrętów śmierci? Sztuczna inteligencja stanowi większą konkurencję niż kiedykolwiek, a chatboty tj. ChatGPT czy wyszukiwarki oparte na AI np. Perplexity wyrastają na alternatywne poszukiwanie informacji, czy znajdowanie rozwiązań, co uderza w podstawową działalność koncernu. Google więc pochwalił się pracami nad nowym urządzeniem, które mają udowodnić i użytkownikom i inwestorom, że licząca 30 lat wyszukiwarka będzie się liczyć i w kolejnej dekadzie swojego istnienia.
Google rozszerza swój tryb AI na wszystkich użytkowników (na razie tych w USA). Pierwszą różnicą będzie sposób przetwarzania zapytań. Zamiast patrzeć na całe pytanie, sztuczna inteligencja podzieli je na "podhasła" i wygeneruje na ich podstawie dodatkowe wyszukiwania. Wykorzysta także historię wpisywanych w Google'a zagadnień, by mocniej spersonalizować odpowiedzi. To od użytkowników będzie zależało czy połączą je także z Gmailem i innymi aplikacjami Google'a.
Zmieni się także samo wyszukiwanie. Nie będzie tylko oparte na zapytaniach wpisywanych przez użytkowników, ale i za pomocą aparatu, który zeskanuje otoczenie.
Portfel Google jak bank – nie zweryfikujesz się, nie wejdziesz
Część użytkowników Google Wallet już dostrzegła subtelną zmianę w działaniu aplikacji. Nawet jeśli mieliśmy odblokowany telefon, to po uruchomieniu portfela pojawia się ekran wymuszający weryfikację użytkownika. Wbrew pozorom ten krok ma sens.
Google też sam wypełni za nas odpowiednie formularze przy zakupie powiedzmy biletów. Wystarczy zapytać wyszukiwarkę np. o najtańsze bilety na koncert Bryana Adamsa. AI przejrzy najbliższe występy pod kątem różnych lokalizacji i cen, następnie wypełni dane wymagane przy zakupie i już sprezentuje nam "gotowy produkt", za który przyjdzie zaledwie zapłacić. Na tej samej zasadzie ma się odbywać rezerwacja w restauracjach czy kawiarniach.
Usługa Lens pójdzie o krok dalej. Obecnie pozwala zadawać pytania odnośnie do zrobionych zdjęć. Teraz jednak będzie odpowiadać na pytania tj. czy ta śrubka rowerowa (zdjęcie) nadaję się do naprawy ramy roweru, którą obejmiemy aparatem w telefonie.
Google wprowadziło także tłumaczenie mowy w czasie rzeczywistym w Google Meet. Na razie funkcja jest dostępna jedynie dla subskrybentów planu AI Premium. Ale już wiadomo, że to, co oni przetestują, niebawem może wejść do powszechnego użycia. Gdy użytkownik w rozmowie wideo Google Meet włącza tę funkcję, model audio AI wykorzysta jego mowę do tłumaczenia na żywo na inny język. Google zaczął od angielskiego i hiszpańskiego, lecz kolejne języki pojawią się w ciągu najbliższych kilku tygodni. Zupełnie jakby się oglądało film w telewizji - oryginalny dźwięk będzie odrobinę wyciszony, a przetłumaczone słowa mają się wybijać.
- Pomyśl o tłumaczu symultanicznym lub kimś, kto słucha mówcy, jednocześnie wypowiadając słowa w innym języku - opisuje Yulie Kwon Kim, wiceprezes ds. produktu w Google Workspace. - Przenieśliśmy to na wyższy poziom. Tłumacz nie jest głosem innej osoby, ale własnym głosem mówcy".
Live speech translation in Google Meet is here. Speak naturally—your words are translated in near real time while preserving your tone, voice, and expression. Available in English and Spanish, with more languages coming soon. → https://t.co/c3Do5qhPNu#GoogleIO pic.twitter.com/Yd793BYKtQ
— Google Workspace (@GoogleWorkspace) May 20, 2025
Google postanowil także ścigać się w dyscyplinie "okulary" m.in. z Metą. Nowe urządzenie, które jeszcze nie otrzymało oficjalnej nazwy, ma wbudowany ekran, głośnik i kamerę. W przeciwieństwie do poprzednich produktów w oprawkach od Google'a na pierwszy rzut oka wyglądają jak zwykłe okulary. Może zostać także wyposażone w szkła korekcyjne.
Android XR został w nich połączony z aystentem AI Gemini, co otwiera wręcz nieograniczone możliwości. Np. słuchanie osoby w języku nam nieznanym i możliwość włączenia napisów, tłumaczacych jej wypowiedź na wzór napisów w kinie. Wbudowany ekran pozwala nie tylko wyświetlać tekst, ale także obrazy czy aplikacje. Zwiedzając więc nieznane miasto można sobie właczyć Google Maps na szkłach, a nie chodzić z nosem w smartfonie. Okulary można także wykorzystać do robienia zdjęć.
- Gdy patrzę na świat, mam przebłyski proaktywnego świata, na który odpowiedź dostarczą m.in. agenci AI Wszystko będzie coraz lepsze - powiedział Sundar Pichai, dyrektor generalny Google'a i jego spółki macierzystej Alphabet cytowany przez CNN.
Wystąpienie na konferencji deweloperów:
Or on X here: https://t.co/FjpBuW9x8X
— Sundar Pichai (@sundarpichai) May 20, 2025
opr. aw