home.social

#asystentglosowy — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #asystentglosowy, aggregated by home.social.

  1. Wielkie porządki w Google Home. Gemini wreszcie zrozumie kontekst (i daje nadzieję na nowe języki)

    Dział inteligentnego domu w Google nareszcie zabrał się za łatanie irytujących błędów swojego asystenta.

    Anish Kattukaran, dyrektor produktowy odpowiedzialny za Google Home, ogłosił potężną paczkę poprawek dla usługi Gemini for Home. System ma być mądrzejszy, mniej nadgorliwy i zaoferować nowe wyzwalacze automatyzacji. Dla polskich użytkowników najważniejsza wiadomość kryje się jednak w jednym z komentarzy.

    Choć modele z rodziny Gemini potrafią imponować, ich integracja z inteligentnym domem często bywała frustrująca. Najnowsza aktualizacja, o której poinformował przedstawiciel Google za pośrednictwem platformy X (dawniej Twitter), ma bezpośrednio odpowiadać na najczęstsze skargi użytkowników.

    We've been heads down working on improvements based on your feedback. Looking forward to sharing a number of fixes and updates today across Gemini for Home, the home app, automations and a number of our devices.

    — Anish Kattukaran (@AnishKattukaran) March 2, 2026

    Koniec z wyłączaniem połowy domu

    Aktualizacja skupia się przede wszystkim na precyzji i kontekście. Od teraz komenda „wyłącz kuchnię” zgasi wyłącznie światła, ignorując inteligentne gniazdka czy inne, nieprzypisane wprost urządzenia. Naprawiono również błąd z poleceniem wyłączenia „wszystkich świateł” – Gemini wykona tę akcję tylko w bieżącym domu, zamiast aktywować ją we wszystkich lokalizacjach przypisanych do konta.

    System nauczył się też lepszego rozpoznawania urządzeń (rozumie, czym jest dany sprzęt, nawet jeśli jego typ nie jest wprost wpisany w nazwę) oraz bezwzględnie trzyma się adresu domowego zdefiniowanego w aplikacji Google Home. Co równie istotne, Google deklaruje „znaczące zredukowanie” sytuacji, w których asystent przedwcześnie ucinał naszą wypowiedź. Poprawiono również stabilność codziennych komend: minutników, notatek i przypomnień.

    Nowe warunki automatyzacji i integracje sprzętowe

    Google Home zyskuje także nowe wyzwalacze dla rutyn. Użytkownicy mogą teraz tworzyć automatyzacje uruchamiane w oparciu o nowe scenariusze, takie jak: „kiedy system alarmowy zostanie uzbrojony…”, „jeśli urządzenie zostanie podłączone do prądu…” czy dość specyficzne: „jeśli Pixel Tablet nie zostanie zadokowany do godziny 21:00”.

    Nowości dotknęły również konkretnych urządzeń:

    • „Live Search” dla kamer: użytkownicy z płatną subskrypcją Google Home Premium Advanced mogą teraz zadawać Gemini naturalne pytania o aktualny stan domu, bazując na bieżącym obrazie z kamer Nest.
    • Nest x Yale Lock: oficjalnie wdrożono wsparcie dla tych inteligentnych zamków.
    • Nest Wifi Pro: rozpoczęło się wdrażanie marcowej aktualizacji, która ma poprawić wydajność sieci mesh.

    Co z nowymi językami?

    Obecnie pełne środowisko Gemini for Home jest ograniczone terytorialnie i językowo. Wątek ten został jednak poruszony pod wpisem dyrektora Google. Na bezpośrednie pytanie jednego z użytkowników serwisu X o to, kiedy pojawią się nowe języki, Anish Kattukaran odpowiedział krótko: „Jeszcze nie jesteśmy na tym etapie. Ale nastąpi to bardzo niedługo”.

    Pozostaje nam trzymać trzymać kciuki, by w tym „niedługo” znalazło się również miejsce na oficjalne wsparcie dla języka polskiego.

    Google zabezpiecza internet przed komputerami kwantowymi. Rozwiązanie to czysty geniusz

    #AnishKattukaran #asystentGłosowy #automatyzacjeGoogleHome #GeminiForHome #GeminiPoPolsku #GoogleHome #inteligentnyDom #NestWifiPro #NestXYaleLock #smartHomeAktualizacja
  2. TomTom na CES 2026: twój samochód w końcu Cię zrozumie. Współpraca z Amazon i SoundHound AI

    Pisaliśmy już o tym, że mapy TomToma będą napędzać Ubera i autonomiczne systemy Volkswagena. Ale co z nami, kierowcami? Holenderski gigant na CES 2026 pokazuje ludzką twarz technologii (dosłownie).

    Dzięki integracji z Amazonem i SoundHound, nawigacja przestaje być niemą mapą, a zaczyna rozumieć kontekst.

    Do tej pory systemy głosowe w autach działały na zasadzie prostych komend: „Prowadź do domu”. TomTom chce to zmienić, wprowadzając TomTom AI Agent – rozwiązanie, które pozwala prowadzić z autem naturalną rozmowę. Aby to osiągnąć, firma sprzymierzyła się z dwoma gigantami, dając producentom aut wybór.

    Opcja nr 1: TomTom + Amazon Alexa (Agentic AI)

    Współpraca z Amazonem opiera się na nowej architekturze „Alexa+”. To nie jest zwykła asystentka, która potrafi tylko włączyć muzykę. Dzięki Agentic AI, system rozumie złożone, wielowątkowe polecenia.

    W praktyce? Zamiast wydawać serię komend, możesz powiedzieć: „Alexa, znajdź ładowarkę po drodze, ale taką z szybkim ładowaniem, gdzie mogę kupić kawę, a potem usuń ten przystanek w centrum, bo nie zdążę” (oczywiście po angielsku, Alexa niestety nie zna polskiego). AI Agent przetworzy to wszystko naraz, zmodyfikuje trasę w nawigacji TomToma i zaproponuje rozwiązania. To koniec ery „przepraszam, nie zrozumiałam”.

    Opcja nr 2: TomTom + SoundHound AI (Pełna kontrola auta)

    Dla producentów, którzy wolą niezależne rozwiązania, TomTom zintegrował się z SoundHound AI. Tutaj „głos” sięga głębiej – nie tylko steruje mapą, ale też systemami pokładowymi.

    Asystent SoundHound potrafi jednocześnie wyznaczyć trasę do hotelu i… zmienić temperaturę klimatyzacji czy otworzyć szyby, jeśli o to poprosimy w jednym zdaniu. To poziom integracji, który sprawia, że fizyczne przyciski (i ekrany dotykowe) stają się zbędne.

    TomTom nakarmi systemy Volkswagena. Orbis Maps fundamentem autonomicznej jazdy w autach giganta

    TomTom jako „mózg” operacji

    Ruch TomToma jest jasny. Podczas gdy dla Volkswagena czy Ubera dostarczają „surowe” dane mapowe (Orbis Maps), dla końcowego użytkownika chcą być interfejsem pierwszego wyboru. Zamiast walczyć z gigantami AI, TomTom postanowił stać się dla nich najlepszą platformą nawigacyjną.

    Rozwiązania te są już gotowe i dostępne dla producentów samochodów (OEM). Pytanie tylko, która marka pierwsza wdroży je do seryjnych modeli?

    TomTom i Uber odnawiają „małżeństwo”. Mapy Holendrów mają naprawić największe bolączki przejazdów

    #agenticAI #amazonAlexa #asystentGłosowy #CES2026 #nawigacjaGłosowa #news #SoundHoundAI #TomTom
  3. Bixby zmartwychwstał. Samsung reanimuje asystenta, w czym pomoże mu silnik Perplexity

    Wydawało się, że dni autorskiego asystenta Samsunga są policzone na rzecz Google Gemini. Tymczasem Koreańczycy szykują niespodziankę, o której pierwszych symptomach informowaliśmy już w listopadzie.

    Do sieci wyciekły pierwsze zrzuty ekranu nowej wersji Bixby, która dzięki integracji z Perplexity w końcu potrafi odpowiadać na pytania jak człowiek.

    Choć Samsung oficjalnie i blisko współpracuje z Google przy wdrażaniu AI (Gemini), firma potwierdziła wcześniej, że zamierza oferować funkcje sztucznej inteligencji wykraczające poza ekosystem giganta z Mountain View. Teraz mamy pierwszy wgląd w to, jak to będzie wyglądać w praktyce.

    Samsung reanimuje Bixby? Perplexity ma wesprzeć asystenta zamiast Google Gemini

    Wyciek z bety One UI 8.5

    Odświeżony asystent miał zadebiutować dopiero w przyszłym roku wraz z serią Galaxy S26, ale wygląda na to, że testy już trwają. Jeden z użytkowników serwisu X (dawniej Twitter) zauważył, że po aktualizacji aplikacji Bixby do wersji 4.0.50.4 na becie systemu One UI 8.5, asystent zyskał nowe możliwości.

    Big enhancement for Bixby. Now Bixby can ask Perplexity to answer complicated questions. pic.twitter.com/xyyCgV3h68

    — Ach (@achultra) December 27, 2025

    Zgodnie z przeciekami, nowy system ma działać hybrydowo: „stary” Bixby obsługuje proste zadania systemowe, a wszystko, co wymaga szerszej wiedzy i analizy, jest przekazywane do silnika Perplexity.

    Koniec z „nie rozumiem pytania”

    Różnicę widać na konkretnym przykładzie. Na udostępnionym zrzucie ekranu Bixby odpowiada na zapytanie dotyczące pogody (prawdopodobnie w stylu: „czy powinienem założyć kurtkę?”). Zamiast wyświetlić suchą ikonkę słońca czy chmury, asystent udzielił rozbudowanej porady.

    Partnerstwo z Perplexity ma więc zmienić Bixby’ego z narzędzia do ustawiania budzika w realną konkurencję dla ChatGPT czy Gemini na telefonach Samsunga.

    #AI #asystentGłosowy #bixby #GalaxyS26 #OneUI85 #Perplexity #Samsung
  4. Wyrok na Asystenta Google wydany? Znamy datę końca wsparcia w Android Auto

    Google powoli, ale konsekwentnie wygasza swoje starsze usługi na rzecz nowej gwiazdy – Gemini.

    Najnowsze odkrycie na stronach wsparcia technicznego sugeruje, że dni klasycznego Asystenta Google są już policzone. Koncern z Mountain View po raz pierwszy wskazał konkretną datę graniczną: marzec 2026 roku.

    Informacja ta pojawiła się na stronie pomocy dotyczącej Android Auto. W sekcji poświęconej przejściu na nowy model AI znalazł się komunikat: „Google Assistant jest nadal dostępny do użycia do marca 2026 r.”. Choć firma oficjalnie promuje Gemini jako następcę Asystenta na „większości urządzeń mobilnych”, to właśnie w kontekście systemu samochodowego po raz pierwszy padła sztywna data zakończenia wsparcia.

    Czy to koniec Asystenta wszędzie?

    Na ten moment data marca 2026 r. widnieje wyłącznie w dokumentacji Android Auto. Nie ma pewności, czy ten sam termin dotyczy inteligentnych głośników Nest, telewizorów z Google TV czy innych urządzeń smart home, które wciąż w dużej mierze polegają na starszej technologii.

    Niemniej, kierunek zmian jest jasny. Google intensywnie wdraża Gemini, który ma rozumieć te same komendy co Asystent, ale oferować znacznie bardziej naturalną konwersację. Biorąc pod uwagę zapowiedzi o wprowadzeniu Gemini do głośników w przyszłym roku, całkowite wyłączenie Asystenta w 2026 roku wydaje się prawdopodobnym scenariuszem dla całego ekosystemu. Dla użytkowników oznacza to jeszcze ponad rok spokoju, ale też wyraźny sygnał, by powoli przyzwyczajać się do nowej, opartej na generatywnej sztucznej inteligencji rzeczywistości.

    Gemini oficjalnie startuje w Android Auto. Asystent AI zastąpi Asystenta Google w samochodach [wideo]

    #aiSi #androidAuto #asystentGlosowy #gemini #google #googleAssistant #news

  5. Samsung reanimuje Bixby? Perplexity ma wesprzeć asystenta zamiast Google Gemini

    Wydawało się, że dni Bixby są policzone, albo że wkrótce zostanie on całkowicie zdominowany przez ekosystem Google Gemini. Jest zwrot w akcji.

    Tymczasem Samsung szykuje niespodziankę. Według najnowszych doniesień, koreański gigant planuje znaczącą aktualizację swojego asystenta, ale technologicznym partnerem w tym przedsięwzięciu ma być Perplexity, a nie Google.

    Samsung Galaxy Buds 4 Pro nieoficjalnie: nowy design i przełomowe sterowanie głową. Słuchawki same znajdą Twój telefon

    Jak twierdzi znany leaker @chunvn8888, Samsung zamierza zintegrować silnik Perplexity z Bixby na zasadach bardzo zbliżonych do modelu przyjętego przez Apple, łączącego Siri z ChatGPT.

    W praktyce podział obowiązków ma być klarowny: Bixby nadal będzie obsługiwać podstawowe, systemowe polecenia, natomiast w momencie, gdy użytkownik zada bardziej skomplikowane pytanie wymagające szerszej wiedzy i kontekstu, pałeczkę przejmie Perplexity.

    Debiut tego rozwiązania przewidywany jest wraz z premierą serii Galaxy S26 na początku przyszłego roku. Ruch ten wpisuje się w wcześniejsze zapowiedzi Samsunga – przedstawiciele firmy otwarcie sugerowali, że Google Gemini „nie będzie jedynym asystentem AI”, który trafi do ekosystemu Galaxy. Wygląda na to, że Koreańczycy chcą zachować pewną niezależność od giganta z Mountain View, stawiając na dywersyfikację dostawców sztucznej inteligencji.

    Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    #aiSi #asystentGlosowy #bixby #galaxyS26 #googleGemini #news #perplexity #samsung

  6. „Kup to za mnie”. Google wprowadza agentów AI, którzy sami dzwonią do sklepów i finalizują zakupy

    Google zbroi się na przedświąteczny szał zakupowy i wprowadza funkcje, które brzmią jak ziszczenie wizji o osobistym asystencie.

    Firma zaczyna wdrażać w USA tzw. „agentic AI” – sztuczną inteligencję, która nie tylko wyszukuje produkty, ale potrafi też fizycznie zadzwonić do sklepu, by sprawdzić towar, a nawet sama przeklikać proces zakupu.

    Choć nowości te debiutują na razie w Stanach Zjednoczonych, pokazują one wyraźnie, jak wkrótce może wyglądać handel w internecie na całym świecie. Google przesuwa ciężar z „wyszukiwania” na „załatwianie spraw”.

    Przycisk „Buy for me” – AI robi zakupy za Ciebie

    To funkcja, którą Google zapowiadało już na I/O 2025, a teraz trafia ona do użytkowników. Mechanizm jest powiązany z funkcją śledzenia cen. Gdy produkt osiągnie pożądaną cenę, użytkownik otrzymuje powiadomienie z przyciskiem „Buy for me” (Kup za mnie).

    Po jego kliknięciu i zatwierdzeniu danych (płatność, adres), agent AI wkracza do akcji. Najpierw samodzielnie wchodzi na stronę sprzedawcy, następnie potwierdza cenę. Później przechodzi przez proces checkoutu i bezpiecznie dokonuje zakupu w imieniu użytkownika. Na start funkcja działa z wybranymi sklepami w USA (m.in. Wayfair, Chewy).

    „Niech Google zadzwoni” – powrót technologii Duplex

    Kolejną nowością jest funkcja automatycznego dzwonienia do sklepów stacjonarnych. Szukając produktów w okolicy (np. zabawek czy elektroniki), użytkownik zobaczy przycisk „Let Google Call”.

    Wystarczy określić, czego szukamy (np. konkretny model, zakres cenowy), a AI – wykorzystując technologię Duplex i modele Gemini – wykona telefony do okolicznych sklepów. Asystent zapyta o dostępność towaru, cenę i promocje, a następnie prześle użytkownikowi podsumowanie rozmów mailem lub SMS-em.

    Gemini zrozumie kontekst, a nie tylko słowa kluczowe

    Google aktualizuje też sam sposób wyszukiwania produktów. Zamiast wpisywać hasła typu „sweter wełniany”, będzie można opisać potrzebę w naturalny sposób, np.: „Potrzebuję lekkiego swetra na wyjazd do Atlanty, musi być ponadczasowy i pasować do jeansów”.

    Podobno AI uwzględni w wynikach kontekst (np. sprawdzi pogodę w Atlancie), dobierze styl i wygeneruje interaktywne tabele porównawcze produktów.

    Google odpowiada Apple. Oto „Private AI Compute” – bezpieczna chmura dla Twoich danych

    #aiSi #asystentGlosowy #buyForMe #eCommerce #gemini #google #googleDuplex #news #sztucznaInteligencja #zakupy

  7. Gemini Live uczy się aktorstwa. Możesz kazać mu mówić szybciej, wolniej albo z akcentem kowboja

    Rozmowy z asystentem AI stają się coraz bardziej naturalne, a teraz także… teatralne.

    Google wdraża właśnie aktualizację dla Gemini Live na Androida i iOS, która czyni asystenta znacznie bardziej „adaptacyjnym i ekspresyjnym”.

    Dzięki nowym modelom AI znacznie lepiej rozumie niuanse ludzkiej mowy i potrafi dynamicznie dostosować swój styl wypowiedzi.

    „Mów szybciej!”

    Praktyczną nowością jest kontrola tempa. Możesz teraz powiedzieć do Gemini: „Mów szybciej”, jeśli chcesz błyskawicznego streszczenia tematu, albo „Mów wolniej”, co może być nieocenione np. podczas nauki języków obcych.

    AI z akcentem

    Google dodało też element zabawy. Gemini Live potrafi teraz naśladować różne akcenty i style mowy na życzenie. Google podaje przykłady:

    • Możesz poprosić o przepis na niedzielną pieczeń mówiony z brytyjskim akcentem Cockney.
    • Albo przeprowadzić burzę mózgów na temat imprezy, rozmawiając z AI udającym kowboja.
    • Lub poprosić o lekcję historii o Rzymie z perspektywy (i głosem) samego Juliusza Cezara.

    Te zmiany stylu obowiązują przez czas trwania danej rozmowy. Aktualizacja jest już udostępniana użytkownikom na Androidzie i iOS. Uwaga: funkcje te (zwłaszcza te dotyczące konkretnych akcentów i stylów mówienia) są wdrażane przede wszystkim dla języka angielskiego. W języku polskim ich dostępność może być na razie ograniczona. Niemniej biorąc pod uwagę, że dziś Gemini Live może w Polsce, po polsku mówić różnymi głosami, kwestia dodania stosownych akcentów (wyobraźcie sobie Gemini gadające akcentem z Podlasia) również dla języka polskiego wydaje się prawdopodobna.

    Gemini recenzuje ChatGPT: „To skorumpowany, sfabrykowany bałagan”

    #aiSi #aktualizacja #android #asystentGlosowy #gemini25 #geminiLive #google #ios #news

  8. Coraz trudniej uwierzyć, że Apple dostarczy nową Siri zgodnie z obietnicami

    Ben Lovejoy z serwisu 9to5Mac zauważa, że wiara w sukces nowej Siri słabnie z każdym miesiącem.

    Choć Apple od lat podkreśla, że chce być „najlepsze, a nie pierwsze”, tempo rozwoju asystenta głosowego nie napawa optymizmem — zwłaszcza wobec rosnącej konkurencji ze strony ChatGPT, Claude, Gemini, Llama czy Amazona.

    Apple od dawna tłumaczy wolny postęp dbałością o prywatność użytkowników, jednak niedawne opóźnienia w planach dotyczących trzech kluczowych funkcji Siri – bez podania nowych terminów – budzą frustrację. To właśnie te funkcje miały uczynić Siri prawdziwie inteligentną.

    Według najnowszych doniesień Bloomberga, nawet pracownicy Apple testujący iOS 26.4 są rozczarowani wydajnością nowej wersji Siri. Zamiast przełomu, asystent ma wciąż odstawać od obecnych rywali.

    Lovejoy zauważa, że jeśli Apple nie pokaże czegoś naprawdę spektakularnego, Siri 2027 będzie porównywana nie do dzisiejszych chatbotów, lecz do tego, co powstanie za dwa lata — a to poprzeczka wyjątkowo wysoko.

    Wielu użytkowników uważa dziś, że Apple powinno pozwolić na wybór alternatywnego asystenta głosowego w swoich urządzeniach — być może to jedyne realne rozwiązanie na najbliższy czas.

    iOS 26.1–26.4: nowe funkcje, które wkrótce trafią na iPhone’ów

    #AI #Apple #AppleIntelligence #asystentgłosowy #Bloomberg #ChatGPT #ios26 #iOS264 #nowaSiri #Siri #sztucznainteligencja #technologiaApple

  9. Gemini trafia na telewizory z Google TV. Zmieni sposób, w jaki szukamy filmów i seriali

    Google oficjalnie wprowadza swojego zaawansowanego asystenta AI, Gemini, do systemu operacyjnego Google TV.

    To znaczący krok, który ma na celu przekształcenie telewizora z prostego odbiornika w interaktywne centrum informacji i rozrywki. Na razie nowa funkcja debiutuje wyłącznie na najnowszych telewizorach z serii TCL QM9K, ale firma zapowiada szeroką dostępność jeszcze w tym roku.

    Choć użytkownicy urządzeń z Google TV są już przyzwyczajeni do Asystenta Google, Gemini ma być rewolucją w sposobie interakcji z telewizorem. Zamiast wydawania prostych, pojedynczych poleceń, nowy asystent pozwala na prowadzenie płynnych, naturalnych rozmów. Aktywowany komendą głosową lub przyciskiem mikrofonu na pilocie, ma lepiej rozumieć złożony kontekst i intencje użytkownika, co otwiera zupełnie nowe możliwości.

    XGIMI odświeża popularny projektor. MoGo 2 Pro GTV ma teraz Google TV i wbudowanego Netfliksa

    Głównym zadaniem Gemini będzie oczywiście pomoc w odnalezieniu idealnego seansu. Asystent potrafi przetwarzać znacznie bardziej skomplikowane zapytania. Można go poprosić na przykład: „Znajdź coś do obejrzenia z mężem. Ja lubię dramaty, a on filmy SF”. Gemini ma też służyć jako pomoc dla zapominalskich – potrafi streścić fabułę poprzedniego sezonu serialu, zanim zaczniemy oglądać nowy. Bez problemu odpowie też na nieprecyzyjne pytania w stylu: „Jaki jest ten nowy serial o smokach, o którym wszyscy mówią?”.

    Możliwości asystenta wykraczają jednak daleko poza świat filmów i seriali. Google demonstrowało na targach CES, jak Gemini na prośbę „wytłumacz układ słoneczny trzecioklasiście” nie tylko udziela odpowiedzi, ale także sugeruje powiązane tematycznie filmy na YouTube. W ten sam sposób można poprosić go o przepis kulinarny czy instrukcje dotyczące nauki nowej umiejętności, a odpowiedź tekstową uzupełnią materiały wideo.

    Wdrożenie Gemini do Google TV to wyraźny sygnał, że era prostych wyszukiwarek głosowych na telewizorach dobiega końca. Google planuje w przyszłości dodawać kolejne funkcje, co sugeruje, że to dopiero początek integracji zaawansowanej AI z naszymi salonami. Na szerszą dostępność usługi, m.in. na urządzeniach Chromecast z Google TV czy telewizorach innych marek niż TCL, będziemy musieli jednak poczekać do końca tego roku.

    Kino w plenerze z Netflixem i Google TV. XGIMI wprowadza mobilne projektory MoGo 4

    #AI #asystentGłosowy #Chromecast #Gemini #Google #GoogleTV #news #SmartTV #streaming #sztucznaInteligencja #TCL

  10. Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

    Robby Walker, były dyrektor wyższego szczebla odpowiedzialny za rozwój asystenta głosowego Siri, odchodzi z Apple.

    Jak donosi Mark Gurman z agencji Bloomberg, Walker zakończy pracę w firmie z końcem października. Jego odejście następuje w burzliwym dla projektu okresie, naznaczonym opóźnieniem kluczowych funkcji Apple Intelligence zapowiedzianych w 2024 roku.

    Walker stał się szerzej znany w branży po wewnętrznym spotkaniu z zespołem Siri w maju 2025 roku, tuż po ogłoszeniu poślizgu w pracach nad nową wersją asystenta. W swojej mowie motywacyjnej miał porównać wysiłki inżynierów do próby przepłynięcia oceanu na Hawaje. „Przepłynęliśmy setki mil – ustanowiliśmy rekord Guinnessa w pływaniu na odległość – ale wciąż nie dopłynęliśmy na Hawaje” – miał powiedzieć. Podkreślał, że zespół jest krytykowany za niedosiągnięcie celu, a nie za ogromny wysiłek, dodając, że wysokie standardy jakościowe Apple nie pozwalały na wypuszczenie niedopracowanego produktu.

    Po ogłoszeniu opóźnienia doszło do znaczących zmian organizacyjnych. Projekt Siri został przeniesiony spod kurateli szefa działu AI, Johna Giannandrei, i trafił pod nadzór Mike’a Rockwella, który wcześniej z sukcesem kierował pracami nad goglami Apple Vision Pro. Sam Robby Walker został przesunięty do innego zespołu, gdzie pracował nad nowym projektem wyszukiwarki AI o nazwie „Answers”.

    Według informacji Bloomberga, odejście menedżera nie powinno wpłynąć na dalszy rozwój projektu „Answers”, który ma zadebiutować w 2026 roku. Natomiast nowa, znacznie ulepszona wersja Siri, wykorzystująca zaawansowane modele językowe, ma pojawić się najwcześniej wiosną 2026 roku. Wciąż pojawiają się doniesienia, że Apple rozważa wykorzystanie technologii Gemini od Google do zasilenia części funkcji swojego asystenta.

    Odejście tak ważnej postaci jak Robby Walker pokazuje, jak dużym wyzwaniem dla Apple jest dogonienie konkurencji na polu generatywnej sztucznej inteligencji. Opóźnienia kluczowych produktów i funkcji prowadzą do przetasowań personalnych, podczas gdy firma stara się sprostać zarówno oczekiwaniom rynku, jak i własnym, rygorystycznym standardom jakości.

    Apple Event iPhone 17 – moje wrażenia z Apple Park

    #AI #Apple #AppleIntelligence #asystentGłosowy #Bloomberg #GoogleGemini #JohnGiannandrea #MarkGurman #MikeRockwell #news #odejścieZPracy #RobbyWalker #Siri #sztucznaInteligencja #technologia #VisionPro

  11. Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

    Robby Walker, były dyrektor wyższego szczebla odpowiedzialny za rozwój asystenta głosowego Siri, odchodzi z Apple.

    Jak donosi Mark Gurman z agencji Bloomberg, Walker zakończy pracę w firmie z końcem października. Jego odejście następuje w burzliwym dla projektu okresie, naznaczonym opóźnieniem kluczowych funkcji Apple Intelligence zapowiedzianych w 2024 roku.

    Walker stał się szerzej znany w branży po wewnętrznym spotkaniu z zespołem Siri w maju 2025 roku, tuż po ogłoszeniu poślizgu w pracach nad nową wersją asystenta. W swojej mowie motywacyjnej miał porównać wysiłki inżynierów do próby przepłynięcia oceanu na Hawaje. „Przepłynęliśmy setki mil – ustanowiliśmy rekord Guinnessa w pływaniu na odległość – ale wciąż nie dopłynęliśmy na Hawaje” – miał powiedzieć. Podkreślał, że zespół jest krytykowany za niedosiągnięcie celu, a nie za ogromny wysiłek, dodając, że wysokie standardy jakościowe Apple nie pozwalały na wypuszczenie niedopracowanego produktu.

    Po ogłoszeniu opóźnienia doszło do znaczących zmian organizacyjnych. Projekt Siri został przeniesiony spod kurateli szefa działu AI, Johna Giannandrei, i trafił pod nadzór Mike’a Rockwella, który wcześniej z sukcesem kierował pracami nad goglami Apple Vision Pro. Sam Robby Walker został przesunięty do innego zespołu, gdzie pracował nad nowym projektem wyszukiwarki AI o nazwie „Answers”.

    Według informacji Bloomberga, odejście menedżera nie powinno wpłynąć na dalszy rozwój projektu „Answers”, który ma zadebiutować w 2026 roku. Natomiast nowa, znacznie ulepszona wersja Siri, wykorzystująca zaawansowane modele językowe, ma pojawić się najwcześniej wiosną 2026 roku. Wciąż pojawiają się doniesienia, że Apple rozważa wykorzystanie technologii Gemini od Google do zasilenia części funkcji swojego asystenta.

    Odejście tak ważnej postaci jak Robby Walker pokazuje, jak dużym wyzwaniem dla Apple jest dogonienie konkurencji na polu generatywnej sztucznej inteligencji. Opóźnienia kluczowych produktów i funkcji prowadzą do przetasowań personalnych, podczas gdy firma stara się sprostać zarówno oczekiwaniom rynku, jak i własnym, rygorystycznym standardom jakości.

    Apple Event iPhone 17 – moje wrażenia z Apple Park

    #AI #Apple #AppleIntelligence #asystentGłosowy #Bloomberg #GoogleGemini #JohnGiannandrea #MarkGurman #MikeRockwell #news #odejścieZPracy #RobbyWalker #Siri #sztucznaInteligencja #technologia #VisionPro

  12. Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

    Robby Walker, były dyrektor wyższego szczebla odpowiedzialny za rozwój asystenta głosowego Siri, odchodzi z Apple.

    Jak donosi Mark Gurman z agencji Bloomberg, Walker zakończy pracę w firmie z końcem października. Jego odejście następuje w burzliwym dla projektu okresie, naznaczonym opóźnieniem kluczowych funkcji Apple Intelligence zapowiedzianych w 2024 roku.

    Walker stał się szerzej znany w branży po wewnętrznym spotkaniu z zespołem Siri w maju 2025 roku, tuż po ogłoszeniu poślizgu w pracach nad nową wersją asystenta. W swojej mowie motywacyjnej miał porównać wysiłki inżynierów do próby przepłynięcia oceanu na Hawaje. „Przepłynęliśmy setki mil – ustanowiliśmy rekord Guinnessa w pływaniu na odległość – ale wciąż nie dopłynęliśmy na Hawaje” – miał powiedzieć. Podkreślał, że zespół jest krytykowany za niedosiągnięcie celu, a nie za ogromny wysiłek, dodając, że wysokie standardy jakościowe Apple nie pozwalały na wypuszczenie niedopracowanego produktu.

    Po ogłoszeniu opóźnienia doszło do znaczących zmian organizacyjnych. Projekt Siri został przeniesiony spod kurateli szefa działu AI, Johna Giannandrei, i trafił pod nadzór Mike’a Rockwella, który wcześniej z sukcesem kierował pracami nad goglami Apple Vision Pro. Sam Robby Walker został przesunięty do innego zespołu, gdzie pracował nad nowym projektem wyszukiwarki AI o nazwie „Answers”.

    Według informacji Bloomberga, odejście menedżera nie powinno wpłynąć na dalszy rozwój projektu „Answers”, który ma zadebiutować w 2026 roku. Natomiast nowa, znacznie ulepszona wersja Siri, wykorzystująca zaawansowane modele językowe, ma pojawić się najwcześniej wiosną 2026 roku. Wciąż pojawiają się doniesienia, że Apple rozważa wykorzystanie technologii Gemini od Google do zasilenia części funkcji swojego asystenta.

    Odejście tak ważnej postaci jak Robby Walker pokazuje, jak dużym wyzwaniem dla Apple jest dogonienie konkurencji na polu generatywnej sztucznej inteligencji. Opóźnienia kluczowych produktów i funkcji prowadzą do przetasowań personalnych, podczas gdy firma stara się sprostać zarówno oczekiwaniom rynku, jak i własnym, rygorystycznym standardom jakości.

    Apple Event iPhone 17 – moje wrażenia z Apple Park

    #AI #Apple #AppleIntelligence #asystentGłosowy #Bloomberg #GoogleGemini #JohnGiannandrea #MarkGurman #MikeRockwell #news #odejścieZPracy #RobbyWalker #Siri #sztucznaInteligencja #technologia #VisionPro

  13. Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

    Robby Walker, były dyrektor wyższego szczebla odpowiedzialny za rozwój asystenta głosowego Siri, odchodzi z Apple.

    Jak donosi Mark Gurman z agencji Bloomberg, Walker zakończy pracę w firmie z końcem października. Jego odejście następuje w burzliwym dla projektu okresie, naznaczonym opóźnieniem kluczowych funkcji Apple Intelligence zapowiedzianych w 2024 roku.

    Walker stał się szerzej znany w branży po wewnętrznym spotkaniu z zespołem Siri w maju 2025 roku, tuż po ogłoszeniu poślizgu w pracach nad nową wersją asystenta. W swojej mowie motywacyjnej miał porównać wysiłki inżynierów do próby przepłynięcia oceanu na Hawaje. „Przepłynęliśmy setki mil – ustanowiliśmy rekord Guinnessa w pływaniu na odległość – ale wciąż nie dopłynęliśmy na Hawaje” – miał powiedzieć. Podkreślał, że zespół jest krytykowany za niedosiągnięcie celu, a nie za ogromny wysiłek, dodając, że wysokie standardy jakościowe Apple nie pozwalały na wypuszczenie niedopracowanego produktu.

    Po ogłoszeniu opóźnienia doszło do znaczących zmian organizacyjnych. Projekt Siri został przeniesiony spod kurateli szefa działu AI, Johna Giannandrei, i trafił pod nadzór Mike’a Rockwella, który wcześniej z sukcesem kierował pracami nad goglami Apple Vision Pro. Sam Robby Walker został przesunięty do innego zespołu, gdzie pracował nad nowym projektem wyszukiwarki AI o nazwie „Answers”.

    Według informacji Bloomberga, odejście menedżera nie powinno wpłynąć na dalszy rozwój projektu „Answers”, który ma zadebiutować w 2026 roku. Natomiast nowa, znacznie ulepszona wersja Siri, wykorzystująca zaawansowane modele językowe, ma pojawić się najwcześniej wiosną 2026 roku. Wciąż pojawiają się doniesienia, że Apple rozważa wykorzystanie technologii Gemini od Google do zasilenia części funkcji swojego asystenta.

    Odejście tak ważnej postaci jak Robby Walker pokazuje, jak dużym wyzwaniem dla Apple jest dogonienie konkurencji na polu generatywnej sztucznej inteligencji. Opóźnienia kluczowych produktów i funkcji prowadzą do przetasowań personalnych, podczas gdy firma stara się sprostać zarówno oczekiwaniom rynku, jak i własnym, rygorystycznym standardom jakości.

    Apple Event iPhone 17 – moje wrażenia z Apple Park

    #AI #Apple #AppleIntelligence #asystentGłosowy #Bloomberg #GoogleGemini #JohnGiannandrea #MarkGurman #MikeRockwell #news #odejścieZPracy #RobbyWalker #Siri #sztucznaInteligencja #technologia #VisionPro

  14. Sonos Voice Control obsłuży oświetlenie Philips Hue. Integracja stawia na prywatność i działanie offline

    Sonos i Philips Hue ogłosiły nawiązanie współpracy, której efektem będzie integracja inteligentnego oświetlenia z asystentem głosowym Sonos Voice Control.

    Już we wrześniu użytkownicy głośników Sonos wyposażonych w mikrofon będą mogli za pomocą prostych komend głosowych sterować oświetleniem Philips Hue, włączając w to zmianę jasności, koloru czy aktywację zapisanych scen.

    Nowa funkcja, według zapowiedzi, była jedną z najbardziej oczekiwanych przez użytkowników systemu Sonos i stanowi naturalny krok w rozwoju firmowego asystenta głosowego, rozszerzając jego możliwości poza sterowanie muzyką. Integracja ma na celu stworzenie bardziej zintegrowanego i intuicyjnego inteligentnego domu, w którym dźwięk i światło współdziałają ze sobą.

    Dzięki współpracy, za pomocą poleceń głosowych wydawanych do głośnika Sonos, użytkownicy będą mogli bez użycia rąk włączać i wyłączać światła, regulować ich jasność i temperaturę barwową, a także uruchamiać wcześniej zdefiniowane sceny oświetleniowe Hue. Co więcej, sterowanie obejmie również inteligentne gniazdka podłączone do systemu Philips Hue.

    Kluczowym elementem wyróżniającym Sonos Voice Control jest podejście do prywatności. W przeciwieństwie do popularnych asystentów, całe przetwarzanie poleceń głosowych odbywa się w pełni lokalnie, na urządzeniu Sonos. Oznacza to, że żadne dane głosowe nie są wysyłane do chmury, nagrywane ani analizowane przez zewnętrzne serwery. Taka architektura zapewnia nie tylko najwyższy poziom ochrony prywatności, ale także szybkość działania, ponieważ do wykonania komendy nie jest wymagane aktywne połączenie z internetem.

    Nowa funkcja zostanie udostępniona użytkownikom na całym świecie (z wyjątkiem Chin) w ramach wrześniowej aktualizacji. Należy jednak zaznaczyć, że w pierwszym etapie sterowanie będzie dostępne w języku angielskim i francuskim.

    #asystentGłosowy #głośniki #inteligentneOświetlenie #inteligentnyDom #news #philipsHue #prywatność #smartHome #sonos #SonosVoiceControl #technologia

  15. Microsoft Copilot trafia do telewizorów Samsunga. Co potrafi asystent AI na dużym ekranie?

    Samsung ogłosił strategiczną współpracę z Microsoftem, na mocy której asystent AI Copilot zostanie zintegrowany z najnowszą linią telewizorów i monitorów typu smart z rocznika 2025.

    To kolejny krok w realizacji wizji „Samsung Vision AI”, której celem jest dostarczanie użytkownikom bardziej spersonalizowanych i inteligentnych funkcji bezpośrednio na największym domowym ekranie.

    Integracja pozwoli użytkownikom na bezpośrednią, konwersacyjną interakcję z telewizorem. Dostęp do asystenta Copilot będzie możliwy za pomocą komendy głosowej lub dedykowanego przycisku na pilocie. Funkcja zostanie wbudowana w system operacyjny Tizen, będzie można ją wywołać za pomocą hub Samsung Daily+ oraz będzie dostępna w ramach opcji „Click to Search”. Ma to na celu ułatwienie wyszukiwania informacji i treści bez odrywania się od oglądania.

    Jakie możliwości zaoferuje Copilot na telewizorze? Użytkownicy będą mogli zadawać pytania kontekstowe dotyczące oglądanego materiału. Asystent błyskawicznie dostarczy informacji o aktorach występujących w filmie, streści fabułę czy przytoczy dodatkowe fakty na temat oglądanego meczu. Samsung podkreśla, że funkcja pomoże także w nauce, na przykład wyjaśniając skomplikowane pojęcia naukowe czy wspierając w nauce języka obcego.

    „Nawiązując współpracę z partnerami zajmującymi się sztuczną inteligencją, Samsung wyznacza nowe standardy w zakresie opartych na AI ekranów” – zauważa Kevin Lee z Samsung Electronics. Z kolei David Washington z Microsoft AI dodaje, że celem jest stworzenie „wykorzystującego AI kompana, dostępnego w prywatnym salonie”, który pomoże w uzyskaniu rekomendacji filmowych czy planowaniu codziennych zadań.

    Asystent Microsoft Copilot trafi do wybranych urządzeń z gamy modelowej na 2025 rok. Na liście znajdują się telewizory z serii Micro RGB, Neo QLED Mini LED, OLED oraz The Frame i The Frame Pro. Funkcja zostanie udostępniona również w monitorach z linii Smart M7, M8 i M9. Samsung zapowiada, że z czasem rozwiązanie będzie dostępne w coraz większej liczbie regionów i modeli.

    Samsung z nową funkcją dla właścicieli zwierząt. Telewizor pozwoli zdalnie monitorować pupila

    #AI #asystentGłosowy #MicrosoftCopilot #NeoQLED #news #OLED #Samsung #Samsung2025 #SmartTV #sztucznaInteligencja #Telewizory #theFrame #Tizen

  16. Microsoft Copilot trafia do telewizorów Samsunga. Co potrafi asystent AI na dużym ekranie?

    Samsung ogłosił strategiczną współpracę z Microsoftem, na mocy której asystent AI Copilot zostanie zintegrowany z najnowszą linią telewizorów i monitorów typu smart z rocznika 2025.

    To kolejny krok w realizacji wizji „Samsung Vision AI”, której celem jest dostarczanie użytkownikom bardziej spersonalizowanych i inteligentnych funkcji bezpośrednio na największym domowym ekranie.

    Integracja pozwoli użytkownikom na bezpośrednią, konwersacyjną interakcję z telewizorem. Dostęp do asystenta Copilot będzie możliwy za pomocą komendy głosowej lub dedykowanego przycisku na pilocie. Funkcja zostanie wbudowana w system operacyjny Tizen, będzie można ją wywołać za pomocą hub Samsung Daily+ oraz będzie dostępna w ramach opcji „Click to Search”. Ma to na celu ułatwienie wyszukiwania informacji i treści bez odrywania się od oglądania.

    Jakie możliwości zaoferuje Copilot na telewizorze? Użytkownicy będą mogli zadawać pytania kontekstowe dotyczące oglądanego materiału. Asystent błyskawicznie dostarczy informacji o aktorach występujących w filmie, streści fabułę czy przytoczy dodatkowe fakty na temat oglądanego meczu. Samsung podkreśla, że funkcja pomoże także w nauce, na przykład wyjaśniając skomplikowane pojęcia naukowe czy wspierając w nauce języka obcego.

    „Nawiązując współpracę z partnerami zajmującymi się sztuczną inteligencją, Samsung wyznacza nowe standardy w zakresie opartych na AI ekranów” – zauważa Kevin Lee z Samsung Electronics. Z kolei David Washington z Microsoft AI dodaje, że celem jest stworzenie „wykorzystującego AI kompana, dostępnego w prywatnym salonie”, który pomoże w uzyskaniu rekomendacji filmowych czy planowaniu codziennych zadań.

    Asystent Microsoft Copilot trafi do wybranych urządzeń z gamy modelowej na 2025 rok. Na liście znajdują się telewizory z serii Micro RGB, Neo QLED Mini LED, OLED oraz The Frame i The Frame Pro. Funkcja zostanie udostępniona również w monitorach z linii Smart M7, M8 i M9. Samsung zapowiada, że z czasem rozwiązanie będzie dostępne w coraz większej liczbie regionów i modeli.

    Samsung z nową funkcją dla właścicieli zwierząt. Telewizor pozwoli zdalnie monitorować pupila

    #AI #asystentGłosowy #MicrosoftCopilot #NeoQLED #news #OLED #Samsung #Samsung2025 #SmartTV #sztucznaInteligencja #Telewizory #theFrame #Tizen

  17. Microsoft Copilot trafia do telewizorów Samsunga. Co potrafi asystent AI na dużym ekranie?

    Samsung ogłosił strategiczną współpracę z Microsoftem, na mocy której asystent AI Copilot zostanie zintegrowany z najnowszą linią telewizorów i monitorów typu smart z rocznika 2025.

    To kolejny krok w realizacji wizji „Samsung Vision AI”, której celem jest dostarczanie użytkownikom bardziej spersonalizowanych i inteligentnych funkcji bezpośrednio na największym domowym ekranie.

    Integracja pozwoli użytkownikom na bezpośrednią, konwersacyjną interakcję z telewizorem. Dostęp do asystenta Copilot będzie możliwy za pomocą komendy głosowej lub dedykowanego przycisku na pilocie. Funkcja zostanie wbudowana w system operacyjny Tizen, będzie można ją wywołać za pomocą hub Samsung Daily+ oraz będzie dostępna w ramach opcji „Click to Search”. Ma to na celu ułatwienie wyszukiwania informacji i treści bez odrywania się od oglądania.

    Jakie możliwości zaoferuje Copilot na telewizorze? Użytkownicy będą mogli zadawać pytania kontekstowe dotyczące oglądanego materiału. Asystent błyskawicznie dostarczy informacji o aktorach występujących w filmie, streści fabułę czy przytoczy dodatkowe fakty na temat oglądanego meczu. Samsung podkreśla, że funkcja pomoże także w nauce, na przykład wyjaśniając skomplikowane pojęcia naukowe czy wspierając w nauce języka obcego.

    „Nawiązując współpracę z partnerami zajmującymi się sztuczną inteligencją, Samsung wyznacza nowe standardy w zakresie opartych na AI ekranów” – zauważa Kevin Lee z Samsung Electronics. Z kolei David Washington z Microsoft AI dodaje, że celem jest stworzenie „wykorzystującego AI kompana, dostępnego w prywatnym salonie”, który pomoże w uzyskaniu rekomendacji filmowych czy planowaniu codziennych zadań.

    Asystent Microsoft Copilot trafi do wybranych urządzeń z gamy modelowej na 2025 rok. Na liście znajdują się telewizory z serii Micro RGB, Neo QLED Mini LED, OLED oraz The Frame i The Frame Pro. Funkcja zostanie udostępniona również w monitorach z linii Smart M7, M8 i M9. Samsung zapowiada, że z czasem rozwiązanie będzie dostępne w coraz większej liczbie regionów i modeli.

    Samsung z nową funkcją dla właścicieli zwierząt. Telewizor pozwoli zdalnie monitorować pupila

    #AI #asystentGłosowy #MicrosoftCopilot #NeoQLED #news #OLED #Samsung #Samsung2025 #SmartTV #sztucznaInteligencja #Telewizory #theFrame #Tizen

  18. Microsoft Copilot trafia do telewizorów Samsunga. Co potrafi asystent AI na dużym ekranie?

    Samsung ogłosił strategiczną współpracę z Microsoftem, na mocy której asystent AI Copilot zostanie zintegrowany z najnowszą linią telewizorów i monitorów typu smart z rocznika 2025.

    To kolejny krok w realizacji wizji „Samsung Vision AI”, której celem jest dostarczanie użytkownikom bardziej spersonalizowanych i inteligentnych funkcji bezpośrednio na największym domowym ekranie.

    Integracja pozwoli użytkownikom na bezpośrednią, konwersacyjną interakcję z telewizorem. Dostęp do asystenta Copilot będzie możliwy za pomocą komendy głosowej lub dedykowanego przycisku na pilocie. Funkcja zostanie wbudowana w system operacyjny Tizen, będzie można ją wywołać za pomocą hub Samsung Daily+ oraz będzie dostępna w ramach opcji „Click to Search”. Ma to na celu ułatwienie wyszukiwania informacji i treści bez odrywania się od oglądania.

    Jakie możliwości zaoferuje Copilot na telewizorze? Użytkownicy będą mogli zadawać pytania kontekstowe dotyczące oglądanego materiału. Asystent błyskawicznie dostarczy informacji o aktorach występujących w filmie, streści fabułę czy przytoczy dodatkowe fakty na temat oglądanego meczu. Samsung podkreśla, że funkcja pomoże także w nauce, na przykład wyjaśniając skomplikowane pojęcia naukowe czy wspierając w nauce języka obcego.

    „Nawiązując współpracę z partnerami zajmującymi się sztuczną inteligencją, Samsung wyznacza nowe standardy w zakresie opartych na AI ekranów” – zauważa Kevin Lee z Samsung Electronics. Z kolei David Washington z Microsoft AI dodaje, że celem jest stworzenie „wykorzystującego AI kompana, dostępnego w prywatnym salonie”, który pomoże w uzyskaniu rekomendacji filmowych czy planowaniu codziennych zadań.

    Asystent Microsoft Copilot trafi do wybranych urządzeń z gamy modelowej na 2025 rok. Na liście znajdują się telewizory z serii Micro RGB, Neo QLED Mini LED, OLED oraz The Frame i The Frame Pro. Funkcja zostanie udostępniona również w monitorach z linii Smart M7, M8 i M9. Samsung zapowiada, że z czasem rozwiązanie będzie dostępne w coraz większej liczbie regionów i modeli.

    Samsung z nową funkcją dla właścicieli zwierząt. Telewizor pozwoli zdalnie monitorować pupila

    #AI #asystentGłosowy #MicrosoftCopilot #NeoQLED #news #OLED #Samsung #Samsung2025 #SmartTV #sztucznaInteligencja #Telewizory #theFrame #Tizen

  19. Gurman: Siri nie będzie głównym tematem WWDC 2025

    Według Marka Gurmana z Bloomberga, podczas czerwcowego WWDC 2025 Apple nie poświęci wiele uwagi Siri – mimo wcześniejszych zapowiedzi rozbudowy jej możliwości w ramach Apple Intelligence. Powodem mają być wewnętrzne opóźnienia i strategiczne błędy kierownictwa Apple.

    Craig Federighi, szef działu oprogramowania, przez długi czas nie traktował sztucznej inteligencji jako priorytetu. Jego sceptycyzm podzielali również inni liderzy w firmie. Mimo prób przekonania zarządu do większych inwestycji w AI, wiele inicjatyw zostało zablokowanych lub opóźnionych.

    Gurman informuje, że Apple pracuje nad nową wersją Siri opartą o LLM (duże modele językowe), jednak firma chce oddzielić markę „Apple Intelligence” od Siri, której reputacja osłabia komunikację marketingową. Co więcej, Apple nie chce już zapowiadać funkcji, które nie są gotowe do premiery w ciągu kilku miesięcy.

    Wśród planowanych nowości znalazły się:

    • narzędzie do optymalizacji baterii oparte na AI,
    • wirtualny trener zdrowia „Project Mulberry”,
    • możliwość zastąpienia Siri innym asystentem głosowym w UE (niezależnie od integracji z ChatGPT).

    Choć zmiany są w toku, na rewolucję w Siri trzeba jeszcze poczekać – nawet do 2026 roku.

    WWDC25 – jest oficjalne ogłoszenie dotyczące wydarzenia

    #aiApple #Apple #AppleIntelligence #asystentGłosowy #iOS19 #MarkGurman #optymalizacjaBateriiAI #plotka #Plotki #ProjectMulberry #Siri #SiriLLM #SiriUE #WWDC2025