home.social

#googleio2025 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #googleio2025, aggregated by home.social.

  1. Google testuje Skills w Chrome – przeglądarka staje się twoim agentem

    Czy przeglądarka powinna klikać za ciebie? Google właśnie testuje pomysł, który na to pytanie odpowiada: „a czemu nie?

    Czytaj dalej:
    pressmind.org/google-testuje-s

    #PressMindLabs #chrome #chromium #gemini #gemininano #googleio2025

  2. Gemini Live staje się prawdziwym asystentem. Integracja z Kalendarzem i Zadaniami trafia do wszystkich

    Google rozpoczęło szeroką dystrybucję nowej, kluczowej funkcji dla swojego konwersacyjnego asystenta AI, Gemini Live.

    Od teraz asystent na urządzeniach z Androidem i iOS może w czasie rzeczywistym uzyskiwać dostęp do osobistych informacji z aplikacji takich jak Kalendarz Google, Zadania i Keep, a także tworzyć w nich nowe wpisy. To fundamentalna zmiana, która przekształca Gemini z encyklopedii ogólnej wiedzy w prawdziwie osobistego pomocnika.

    Funkcjonalność ta została po raz pierwszy zapowiedziana podczas majowej konferencji Google I/O 2025. Choć pierwsi użytkownicy zaczęli otrzymywać do niej dostęp już pod koniec czerwca, proces wdrażania był bardzo powolny. Nawet w połowie lipca, przy okazji ogłoszenia tzw. „Gemini Drop”, nowość wciąż nie była powszechnie dostępna. Sytuacja zmieniła się w ostatnich dniach, gdy integracja z aplikacjami zaczęła masowo pojawiać się u użytkowników na całym świecie.

    Aby skorzystać z integracji, użytkownicy mogą w rozmowie z Gemini Live bezpośrednio wywołać nazwę aplikacji lub zadać bardziej ogólne pytanie, np. „czy mam jakieś przypomnienia na dziś?”. Gdy asystent odwołuje się do aplikacji, na ekranie pojawia się specjalny wskaźnik z jej ikoną i animacją ładowania. Przy niektórych wykonanych akcjach, jak np. utworzenie listy, dostępny jest również przycisk „Cofnij”, pozwalający na szybkie wycofanie polecenia.

    Możliwości nie kończą się na aplikacjach do produktywności. Gemini Live potrafi również korzystać z Map Google do wyszukiwania informacji o miejscach. Co więcej, funkcja działa równolegle z udostępnianiem obrazu z kamery lub ekranu, co pozwala na przykład utworzyć wydarzenie w kalendarzu na podstawie daty zauważonej na plakacie lub stronie internetowej. Warto dodać, że na urządzeniach firmy Samsung asystent ma dostęp do Kalendarza, Notatek i Przypomnień.

    Samsung Galaxy Z Fold 7 – flagowa funkcjonalność z AI na pokładzie

    Nowa funkcja jest wdrażana poprzez aktualizację aplikacji Google (zarówno w wersji stabilnej, jak i beta) na urządzeniach z systemem Android oraz w dedykowanej aplikacji na iOS. To kolejny krok w ewolucji asystentów AI, które coraz głębiej integrują się z cyfrowym życiem użytkowników, oferując pomoc kontekstową i spersonalizowaną.

    Google wprowadza nowe funkcje do Gemini Live – AI widzi otoczenie w czasie rzeczywistym

    #AI #Android #aplikacjeGoogle #AsystentGoogle #GeminiLive #GoogleGemini #GoogleIO2025 #googleKeep #GoogleTasks #integracja #iOS #KalendarzGoogle #news #sztucznaInteligencja

  3. Gemini Live staje się prawdziwym asystentem. Integracja z Kalendarzem i Zadaniami trafia do wszystkich

    Google rozpoczęło szeroką dystrybucję nowej, kluczowej funkcji dla swojego konwersacyjnego asystenta AI, Gemini Live.

    Od teraz asystent na urządzeniach z Androidem i iOS może w czasie rzeczywistym uzyskiwać dostęp do osobistych informacji z aplikacji takich jak Kalendarz Google, Zadania i Keep, a także tworzyć w nich nowe wpisy. To fundamentalna zmiana, która przekształca Gemini z encyklopedii ogólnej wiedzy w prawdziwie osobistego pomocnika.

    Funkcjonalność ta została po raz pierwszy zapowiedziana podczas majowej konferencji Google I/O 2025. Choć pierwsi użytkownicy zaczęli otrzymywać do niej dostęp już pod koniec czerwca, proces wdrażania był bardzo powolny. Nawet w połowie lipca, przy okazji ogłoszenia tzw. „Gemini Drop”, nowość wciąż nie była powszechnie dostępna. Sytuacja zmieniła się w ostatnich dniach, gdy integracja z aplikacjami zaczęła masowo pojawiać się u użytkowników na całym świecie.

    Aby skorzystać z integracji, użytkownicy mogą w rozmowie z Gemini Live bezpośrednio wywołać nazwę aplikacji lub zadać bardziej ogólne pytanie, np. „czy mam jakieś przypomnienia na dziś?”. Gdy asystent odwołuje się do aplikacji, na ekranie pojawia się specjalny wskaźnik z jej ikoną i animacją ładowania. Przy niektórych wykonanych akcjach, jak np. utworzenie listy, dostępny jest również przycisk „Cofnij”, pozwalający na szybkie wycofanie polecenia.

    Możliwości nie kończą się na aplikacjach do produktywności. Gemini Live potrafi również korzystać z Map Google do wyszukiwania informacji o miejscach. Co więcej, funkcja działa równolegle z udostępnianiem obrazu z kamery lub ekranu, co pozwala na przykład utworzyć wydarzenie w kalendarzu na podstawie daty zauważonej na plakacie lub stronie internetowej. Warto dodać, że na urządzeniach firmy Samsung asystent ma dostęp do Kalendarza, Notatek i Przypomnień.

    Samsung Galaxy Z Fold 7 – flagowa funkcjonalność z AI na pokładzie

    Nowa funkcja jest wdrażana poprzez aktualizację aplikacji Google (zarówno w wersji stabilnej, jak i beta) na urządzeniach z systemem Android oraz w dedykowanej aplikacji na iOS. To kolejny krok w ewolucji asystentów AI, które coraz głębiej integrują się z cyfrowym życiem użytkowników, oferując pomoc kontekstową i spersonalizowaną.

    Google wprowadza nowe funkcje do Gemini Live – AI widzi otoczenie w czasie rzeczywistym

    #AI #Android #aplikacjeGoogle #AsystentGoogle #GeminiLive #GoogleGemini #GoogleIO2025 #googleKeep #GoogleTasks #integracja #iOS #KalendarzGoogle #news #sztucznaInteligencja

  4. Gemini Live staje się prawdziwym asystentem. Integracja z Kalendarzem i Zadaniami trafia do wszystkich

    Google rozpoczęło szeroką dystrybucję nowej, kluczowej funkcji dla swojego konwersacyjnego asystenta AI, Gemini Live.

    Od teraz asystent na urządzeniach z Androidem i iOS może w czasie rzeczywistym uzyskiwać dostęp do osobistych informacji z aplikacji takich jak Kalendarz Google, Zadania i Keep, a także tworzyć w nich nowe wpisy. To fundamentalna zmiana, która przekształca Gemini z encyklopedii ogólnej wiedzy w prawdziwie osobistego pomocnika.

    Funkcjonalność ta została po raz pierwszy zapowiedziana podczas majowej konferencji Google I/O 2025. Choć pierwsi użytkownicy zaczęli otrzymywać do niej dostęp już pod koniec czerwca, proces wdrażania był bardzo powolny. Nawet w połowie lipca, przy okazji ogłoszenia tzw. „Gemini Drop”, nowość wciąż nie była powszechnie dostępna. Sytuacja zmieniła się w ostatnich dniach, gdy integracja z aplikacjami zaczęła masowo pojawiać się u użytkowników na całym świecie.

    Aby skorzystać z integracji, użytkownicy mogą w rozmowie z Gemini Live bezpośrednio wywołać nazwę aplikacji lub zadać bardziej ogólne pytanie, np. „czy mam jakieś przypomnienia na dziś?”. Gdy asystent odwołuje się do aplikacji, na ekranie pojawia się specjalny wskaźnik z jej ikoną i animacją ładowania. Przy niektórych wykonanych akcjach, jak np. utworzenie listy, dostępny jest również przycisk „Cofnij”, pozwalający na szybkie wycofanie polecenia.

    Możliwości nie kończą się na aplikacjach do produktywności. Gemini Live potrafi również korzystać z Map Google do wyszukiwania informacji o miejscach. Co więcej, funkcja działa równolegle z udostępnianiem obrazu z kamery lub ekranu, co pozwala na przykład utworzyć wydarzenie w kalendarzu na podstawie daty zauważonej na plakacie lub stronie internetowej. Warto dodać, że na urządzeniach firmy Samsung asystent ma dostęp do Kalendarza, Notatek i Przypomnień.

    Samsung Galaxy Z Fold 7 – flagowa funkcjonalność z AI na pokładzie

    Nowa funkcja jest wdrażana poprzez aktualizację aplikacji Google (zarówno w wersji stabilnej, jak i beta) na urządzeniach z systemem Android oraz w dedykowanej aplikacji na iOS. To kolejny krok w ewolucji asystentów AI, które coraz głębiej integrują się z cyfrowym życiem użytkowników, oferując pomoc kontekstową i spersonalizowaną.

    Google wprowadza nowe funkcje do Gemini Live – AI widzi otoczenie w czasie rzeczywistym

    #AI #Android #aplikacjeGoogle #AsystentGoogle #GeminiLive #GoogleGemini #GoogleIO2025 #googleKeep #GoogleTasks #integracja #iOS #KalendarzGoogle #news #sztucznaInteligencja

  5. Angular Blog editor Minko Gechev shares what's new on Angular 20. Highlights include newly stabilized APIs, improved debugging tools, a more polished developer experience, and features to enhance generative AI development.

    Also, the Angular team has launched an RFC to pick an official mascot for Angular. Isn't that great?

    "Announcing Angular v20"

    blog.angular.dev/announcing-an

    #angular #programming #webdev #frontend #typescript #googleio2025

  6. Angular Blog editor Minko Gechev shares what's new on Angular 20. Highlights include newly stabilized APIs, improved debugging tools, a more polished developer experience, and features to enhance generative AI development.

    Also, the Angular team has launched an RFC to pick an official mascot for Angular. Isn't that great?

    "Announcing Angular v20"

    blog.angular.dev/announcing-an

    #angular #programming #webdev #frontend #typescript #googleio2025

  7. Angular Blog editor Minko Gechev shares what's new on Angular 20. Highlights include newly stabilized APIs, improved debugging tools, a more polished developer experience, and features to enhance generative AI development.

    Also, the Angular team has launched an RFC to pick an official mascot for Angular. Isn't that great?

    "Announcing Angular v20"

    blog.angular.dev/announcing-an

    #angular #programming #webdev #frontend #typescript #googleio2025

  8. Angular Blog editor Minko Gechev shares what's new on Angular 20. Highlights include newly stabilized APIs, improved debugging tools, a more polished developer experience, and features to enhance generative AI development.

    Also, the Angular team has launched an RFC to pick an official mascot for Angular. Isn't that great?

    "Announcing Angular v20"

    blog.angular.dev/announcing-an

    #angular #programming #webdev #frontend #typescript #googleio2025

  9. Angular Blog editor Minko Gechev shares what's new on Angular 20. Highlights include newly stabilized APIs, improved debugging tools, a more polished developer experience, and features to enhance generative AI development.

    Also, the Angular team has launched an RFC to pick an official mascot for Angular. Isn't that great?

    "Announcing Angular v20"

    blog.angular.dev/announcing-an

    #angular #programming #webdev #frontend #typescript #googleio2025

  10. 🚨 New episode of Now in Android is out! 🚨
    Catch all the highlights from #GoogleIO2025 — from Jetpack Compose updates to new Android Studio features. A must-watch for Android devs! 📲

    🎥 Watch now: youtu.be/Q_ZHnyVFqMc

    #AndroidDev #NowInAndroid #Android #JetpackCompose

  11. 🚨 New episode of Now in Android is out! 🚨
    Catch all the highlights from #GoogleIO2025 — from Jetpack Compose updates to new Android Studio features. A must-watch for Android devs! 📲

    🎥 Watch now: youtu.be/Q_ZHnyVFqMc

    #AndroidDev #NowInAndroid #Android #JetpackCompose

  12. Samsung’s upcoming Android XR headset, built with Google and powered by the Snapdragon XR2+ Gen 2, is set for a late 2025 release. Leaks confirm 16GB RAM, Android 14, and Gemini AI integration for immersive, intelligent XR experiences. Expect 4.3K visuals, 90fps, and support for 12+ cameras, promising cutting-edge performance.

    Read Full Article Here :- techi.com/samsung-android-xr-h

  13. Samsung’s upcoming Android XR headset, built with Google and powered by the Snapdragon XR2+ Gen 2, is set for a late 2025 release. Leaks confirm 16GB RAM, Android 14, and Gemini AI integration for immersive, intelligent XR experiences. Expect 4.3K visuals, 90fps, and support for 12+ cameras, promising cutting-edge performance.

    #SamsungXR #AndroidXR #ProjectMoohan #SnapdragonXR2PlusGen2 #GeminiAI #AR #VR #TechLeaks #GoogleIO2025 #TECHi

    Read Full Article Here :- techi.com/samsung-android-xr-h

  14. Samsung’s upcoming Android XR headset, built with Google and powered by the Snapdragon XR2+ Gen 2, is set for a late 2025 release. Leaks confirm 16GB RAM, Android 14, and Gemini AI integration for immersive, intelligent XR experiences. Expect 4.3K visuals, 90fps, and support for 12+ cameras, promising cutting-edge performance.

    #SamsungXR #AndroidXR #ProjectMoohan #SnapdragonXR2PlusGen2 #GeminiAI #AR #VR #TechLeaks #GoogleIO2025 #TECHi

    Read Full Article Here :- techi.com/samsung-android-xr-h

  15. 🚀 Exciting news from #GoogleIO! Dive into the latest Android #updates, including enhanced #AI features, improved privacy controls, and new tools for developers.

    Watch the full recap here:
    youtube.com/watch?v=IaNpcrCSDi

    #Android #GoogleIO2025 #TechNews #AndroidDev #Kotlin

  16. 🚀 Exciting news from #GoogleIO! Dive into the latest Android #updates, including enhanced #AI features, improved privacy controls, and new tools for developers.

    Watch the full recap here:
    youtube.com/watch?v=IaNpcrCSDi

    #Android #GoogleIO2025 #TechNews #AndroidDev #Kotlin

  17. 🤖 Gemini 2.5 thinks before it answers. Flow directs scenes like a filmmaker. Ironwood crunches 42.5 exaflops.

    Google I/O 2025 wasn’t just product talk — it was a blueprint for AI that collaborates, reasons, and co-creates.

    Step into the future of participatory intelligence 🔍🎬⚡

    #GoogleIO2025 #GeminiAI #CognitiveComputing #AIUX #FlowByGoogle

    👉
    medium.com/@rogt.x1997/from-qu

  18. “Thinking budget” is such an amusingly ominous name for a feature.

    “Yes I want you to think this through but not too much because that would be expensive“ as a feature for a thing that is already the cheap version of something that is already sometimes quite inconsequential and unreliable.

    #GoogleIO2025

  19. “Thinking budget” is such an amusingly ominous name for a feature.

    “Yes I want you to think this through but not too much because that would be expensive“ as a feature for a thing that is already the cheap version of something that is already sometimes quite inconsequential and unreliable.

    #GoogleIO2025

  20. “Thinking budget” is such an amusingly ominous name for a feature.

    “Yes I want you to think this through but not too much because that would be expensive“ as a feature for a thing that is already the cheap version of something that is already sometimes quite inconsequential and unreliable.

    #GoogleIO2025