home.social

#ai-si — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #ai-si, aggregated by home.social.

fetched live
  1. Comunque, GPT-5.5 si conferma tra i modelli più forti in ambito cyber non perché sia “magico”, ma perché integra meglio ragionamento lungo orizzonte, coding e autonomia.

    I test #AISI mostrano alti pass‑rate su CTF avanzati e la capacità di orchestrare attacchi end‑to‑end in cyber‑range realistici, segnale che le capacità offensive emergono naturalmente dai miglioramenti generali.

    #openai #llm #ai #cybersecurity #gpt5 #sicurezzainformatica

  2. Comunque, GPT-5.5 si conferma tra i modelli più forti in ambito cyber non perché sia “magico”, ma perché integra meglio ragionamento lungo orizzonte, coding e autonomia.

    I test #AISI mostrano alti pass‑rate su CTF avanzati e la capacità di orchestrare attacchi end‑to‑end in cyber‑range realistici, segnale che le capacità offensive emergono naturalmente dai miglioramenti generali.

    #openai #llm #ai #cybersecurity #gpt5 #sicurezzainformatica

  3. Comunque, GPT-5.5 si conferma tra i modelli più forti in ambito cyber non perché sia “magico”, ma perché integra meglio ragionamento lungo orizzonte, coding e autonomia.

    I test #AISI mostrano alti pass‑rate su CTF avanzati e la capacità di orchestrare attacchi end‑to‑end in cyber‑range realistici, segnale che le capacità offensive emergono naturalmente dai miglioramenti generali.

    #openai #llm #ai #cybersecurity #gpt5 #sicurezzainformatica

  4. Comunque, GPT-5.5 si conferma tra i modelli più forti in ambito cyber non perché sia “magico”, ma perché integra meglio ragionamento lungo orizzonte, coding e autonomia.

    I test #AISI mostrano alti pass‑rate su CTF avanzati e la capacità di orchestrare attacchi end‑to‑end in cyber‑range realistici, segnale che le capacità offensive emergono naturalmente dai miglioramenti generali.

    #openai #llm #ai #cybersecurity #gpt5 #sicurezzainformatica

  5. Comunque, GPT-5.5 si conferma tra i modelli più forti in ambito cyber non perché sia “magico”, ma perché integra meglio ragionamento lungo orizzonte, coding e autonomia.

    I test #AISI mostrano alti pass‑rate su CTF avanzati e la capacità di orchestrare attacchi end‑to‑end in cyber‑range realistici, segnale che le capacità offensive emergono naturalmente dai miglioramenti generali.

    #openai #llm #ai #cybersecurity #gpt5 #sicurezzainformatica

  6. GPT-5.5 übertrifft Claude Mythos Preview bei Experten-Aufgaben und erreicht eine Erfolgsquote von 71,4 Prozent.

    Das AISI testete 95 CTF-Herausforderungen. GPT-5.5 bewältigte einen 32-stufigen Netzwerkangriff in zwei von zehn Versuchen vollständig. Ein Red Team entwickelte in sechs Stunden einen universellen Jailbreak.

    #GPT5 #OpenAI #CyberSecurity #AISI #AIGeneratedImage

    all-ai.de/news/news26top/gpt-5

  7. GPT-5.5 übertrifft Claude Mythos Preview bei Experten-Aufgaben und erreicht eine Erfolgsquote von 71,4 Prozent.

    Das AISI testete 95 CTF-Herausforderungen. GPT-5.5 bewältigte einen 32-stufigen Netzwerkangriff in zwei von zehn Versuchen vollständig. Ein Red Team entwickelte in sechs Stunden einen universellen Jailbreak.

    #GPT5 #OpenAI #CyberSecurity #AISI #AIGeneratedImage

    all-ai.de/news/news26top/gpt-5

  8. GPT-5.5 übertrifft Claude Mythos Preview bei Experten-Aufgaben und erreicht eine Erfolgsquote von 71,4 Prozent.

    Das AISI testete 95 CTF-Herausforderungen. GPT-5.5 bewältigte einen 32-stufigen Netzwerkangriff in zwei von zehn Versuchen vollständig. Ein Red Team entwickelte in sechs Stunden einen universellen Jailbreak.

    #GPT5 #OpenAI #CyberSecurity #AISI #AIGeneratedImage

    all-ai.de/news/news26top/gpt-5

  9. GPT-5.5 übertrifft Claude Mythos Preview bei Experten-Aufgaben und erreicht eine Erfolgsquote von 71,4 Prozent.

    Das AISI testete 95 CTF-Herausforderungen. GPT-5.5 bewältigte einen 32-stufigen Netzwerkangriff in zwei von zehn Versuchen vollständig. Ein Red Team entwickelte in sechs Stunden einen universellen Jailbreak.

    #GPT5 #OpenAI #CyberSecurity #AISI #AIGeneratedImage

    all-ai.de/news/news26top/gpt-5

  10. GPT-5.5 übertrifft Claude Mythos Preview bei Experten-Aufgaben und erreicht eine Erfolgsquote von 71,4 Prozent.

    Das AISI testete 95 CTF-Herausforderungen. GPT-5.5 bewältigte einen 32-stufigen Netzwerkangriff in zwei von zehn Versuchen vollständig. Ein Red Team entwickelte in sechs Stunden einen universellen Jailbreak.

    #GPT5 #OpenAI #CyberSecurity #AISI #AIGeneratedImage

    all-ai.de/news/news26top/gpt-5

  11. 📢 Spyware Paragon/Graphite en Italie : enquêtes judiciaires, contrats AISI/AISE et contradictions institutionnelles
    📝 ## 🗓️ Contexte

    Source : Wired Italia, publié le 28 avril 2026.
    📖 cyberveille : cyberveille.ch/posts/2026-05-0
    🌐 source : wired.it/article/paragon-spywa
    #AISE #AISI #Cyberveille

  12. TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

    I have to say I’m currently with the realist ‘here-and-now’ group.

    The article is behind a ‘subscribe for free’ wall unfortunately.
    crikey.com.au/2026/03/02/austr

    #AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

  13. TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

    I have to say I’m currently with the realist ‘here-and-now’ group.

    The article is behind a ‘subscribe for free’ wall unfortunately.
    crikey.com.au/2026/03/02/austr

    #AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

  14. TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

    I have to say I’m currently with the realist ‘here-and-now’ group.

    The article is behind a ‘subscribe for free’ wall unfortunately.
    crikey.com.au/2026/03/02/austr

    #AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

  15. TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

    I have to say I’m currently with the realist ‘here-and-now’ group.

    The article is behind a ‘subscribe for free’ wall unfortunately.
    crikey.com.au/2026/03/02/austr

    #AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

  16. TIL that the federal government had committed to establishin an AI Safety Institute (AISI) when it signed the Seoul Declaration at South Korea’s AI summit in 2024. To date, nothing concrete has been put in place. Cam Wilson’s article brings us up to date with what this AISI is all about and the different ‘camps’ alligned to different attitudes towards #GenAISlop lobbying about it.

    I have to say I’m currently with the realist ‘here-and-now’ group.

    The article is behind a ‘subscribe for free’ wall unfortunately.
    crikey.com.au/2026/03/02/austr

    #AISI #SeoulDeclaration #TechBros #AIBubble #TechDisaster #CopyrightViolion #OnlineSafety #ToxicTech

  17. Android 16 ląduje na tańszych Nothingach. Nothing OS 4.0 dla modeli (3a) i (3a) Pro

    Carl Pei i jego zespół nie zwalniają tempa. Zaledwie tydzień po udostępnieniu stabilnej wersji Nothing OS 4.0 dla flagowego modelu Phone (3), aktualizacja oparta na Androidzie 16 trafia do użytkowników tańszych urządzeń.

    To świetna wiadomość dla posiadaczy modeli Nothing Phone (3a) oraz (3a) Pro, którzy nie muszą czekać miesiącami na najnowsze funkcje.

    Nothing przedstawia Phone (3a) i Phone (3a) Pro

    Nothing OS 4.0 to spora ewolucja nakładki, która przynosi nie tylko nowości z samego Androida 16, ale też autorskie rozwiązania producenta. Aktualizacja jest już udostępniana w kanale stabilnym, choć producent zaznacza, że wdrażanie odbywa się etapami – na początek trafi do ograniczonej liczby użytkowników, by wykluczyć ewentualne błędy krytyczne.

    Nothing udostępniania najnowszy system Nothing OS 4.0

    Co nowego w Nothing OS 4.0?

    Lista zmian jest obszerna i prezentowaliśmy więcej szczegółów we wcześniejszym materiale o Nothing OS 4.0. Dla przypomnienia: najciekawszą nowością wydaje się pulpit nawigacyjny użycia AI. W dobie wszechobecnej sztucznej inteligencji Nothing stawia na transparentność – system automatycznie śledzi, jak i kiedy wykorzystywane są duże modele językowe (LLM) w telefonie.

    Oto najważniejsze zmiany:

    • Nowy wygląd: odświeżono ikony aplikacji systemowych oraz pasek statusu.
    • Pojawił się też tryb „Extra dark mode” dla fanów głębokiej czerni.
    • Prywatność: możliwość ukrywania aplikacji bezpośrednio z poziomu ekranu głównego i szuflady aplikacji.
    • Aparat: odświeżony interfejs, nowe presety kolorystyczne, ulepszone filtry oraz szybsze uruchamianie.
    • Glyph Interface: lepsza integracja z powiadomieniami „Live Update” z Androida 16 oraz nowa opcja decydująca, czy odwrócenie telefonu (Flip to Glyph) ma go wyciszać całkowicie, czy przełączać na wibracje.

    Pojawił się też Playground (w wersji Alpha) – przestrzeń dla społeczności, gdzie użytkownicy mogą dzielić się własnymi profilami korektora dźwięku czy ustawieniami aparatu.

    Jeśli posiadasz Nothing Phone (3a) lub (3a) Pro, warto zajrzeć do ustawień aktualizacji. Pamiętajcie jednak o wykonaniu kopii zapasowej danych przed instalacją nowej wersji systemu.

    Nothing Phone (3) – wyjmujemy z pudełka i pierwsze wrażenia

    #aiSi #aktualizacja #android16 #glyphInterface #news #nothing #nothingOs #nothingPhone3a #smartfony

  18. Sztuczna inteligencja na węglowej kroplówce. Przyszłość technologii napędza energia z przeszłości

    Wydawało się, że dni węgla w energetyce są policzone, a przyczyną jego zmierzchu była „niewidzialna ręka rynku”. Okazuje się jednak, że ta sama ręka właśnie podaje węglowi tlen.

    Powód? Nienasycony apetyt sztucznej inteligencji na energię elektryczną. Administracja Donalda Trumpa wprost przyznaje: aby nakarmić AI, musimy palić węglem.

    Raport serwisu Politico, opierający się na danych Frontier Group, ujawnia zaskakujący trend w amerykańskiej energetyce. Plany wygaszenia i zamknięcia 30 jednostek węglowych zostały wstrzymane. Powodem nie jest sentyment do górnictwa, ale brutalna matematyka zapotrzebowania na moc, generowana przez gwałtownie rosnący sektor centrów danych obsługujących AI.

    EPA: węgiel musi zostać

    Lee Zeldin, nowy szef Agencji Ochrony Środowiska (EPA) w administracji Donalda Trumpa, nie pozostawia złudzeń. W artykule dla Fox News stwierdził wprost: „Aby sprostać rosnącemu popytowi ze strony krajowego przemysłu i szybkiej ekspansji centrów danych sztucznej inteligencji, amerykańskie elektrownie węglowe muszą pozostać w eksploatacji”.

    To zwrot o 180 stopni. W latach 2010–2019, obejmujących kadencje Obamy i pierwszą Trumpa, w USA ogłoszono zamknięcie 546 jednostek węglowych o łącznej mocy 102 gigawatów. Węgiel przegrywał wtedy ekonomicznie z gazem i OZE. Dziś jednak popyt na prąd jest tak ogromny, że liczy się każde źródło, niezależnie od jego emisyjności.

    Cena postępu

    Decyzja o utrzymaniu przy życiu starych elektrowni ma swoje mroczne konsekwencje. Raport wskazuje, że administracja pozwala blisko 70 elektrowniom na ignorowanie norm emisji rtęci i sadzy, które miały wejść w życie w 2027 roku, w czasie gdy EPA pracuje nad nowymi, łagodniejszymi przepisami.

    Mamy więc do czynienia z technologicznym paradoksem: trenujemy modele AI, które mają pomóc nam rozwiązywać problemy ludzkości (w tym klimatyczne), zasilając je energią, która – według danych NIH – w ostatnich dekadach przyczyniła się do setek tysięcy przedwczesnych zgonów.

    Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    #aiSi #dataCenter #donaldTrump #ekologia #energetyka #news #sztucznaInteligencja #usa #wegiel #zmianyKlimatu

  19. Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

    Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

    Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

    Jak to działa? Prościej niż myślisz

    „Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

    Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

    Cena spokoju: brak newsów

    Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

    Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

    AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

    #aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

  20. Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

    Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

    Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

    Jak to działa? Prościej niż myślisz

    „Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

    Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

    Cena spokoju: brak newsów

    Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

    Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

    AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

    #aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

  21. Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

    Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

    Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

    Jak to działa? Prościej niż myślisz

    „Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

    Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

    Cena spokoju: brak newsów

    Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

    Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

    AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

    #aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

  22. Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

    Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

    Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

    Jak to działa? Prościej niż myślisz

    „Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

    Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

    Cena spokoju: brak newsów

    Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

    Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

    AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

    #aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

  23. Masz dość „AI śmieci”? To rozszerzenie cofa internet do czasów przed ChatGPT. Dosłownie

    Czy masz czasem wrażenie, że wyniki wyszukiwania w Google stały się śmietniskiem generowanym przez boty? Jeśli tęsknisz za czasami, gdy treści w sieci tworzyli głównie ludzie, powstało narzędzie dla Ciebie. Nazywa się „Slop Evader” i działa jak cyfrowy wehikuł czasu, zabierając nas do ery sprzed 30 listopada 2022 roku.

    Data ta nie jest przypadkowa. To dzień publicznej premiery ChatGPT, który symbolicznie otworzył tamę dla zalewu syntetycznych treści. Nowe rozszerzenie przeglądarkowe, dostępne dla Chrome i Firefoxa, obiecuje „odszumić” nasze wyniki wyszukiwania, drastycznie odcinając wszystko, co powstało po tym terminie.

    Jak to działa? Prościej niż myślisz

    „Slop Evader” nie używa zaawansowanych algorytmów do detekcji sztucznej inteligencji (które i tak często zawodzą). Zamiast tego stosuje brutalną, ale skuteczną metodę: filtr daty.

    Wtyczka modyfikuje zapytania do wyszukiwarki tak, aby wykluczyć wszelkie wyniki zaindeksowane po „dniu zero”. Dzięki temu unikamy poradników pisanych przez halucynujące boty, syntetycznych grafik i spamu na forach. Narzędzie działa nie tylko w Google, ale filtruje też wyniki na YouTube, Reddicie czy Stack Exchange – miejscach, które szczególnie ucierpiały na inwazji treści generowanych przez AI.

    Cena spokoju: brak newsów

    Oczywiście, rozwiązanie to ma potężną wadę. Używając „Slop Evader”, tracimy dostęp do wszystkich informacji z ostatnich trzech lat. Nie przeczytasz o wynikach wczorajszego meczu, nie dowiesz się o nowym iPhonie, ani nie sprawdzisz aktualnych kursów walut. Choć przynajmniej w przypadku sprzętu Apple, możecie liczyć na naszą redakcję.

    Twórczyni narzędzia, Tega Brain, przyznaje wprost, że nie jest to trwałe rozwiązanie problemu, a raczej eksperyment. Jego celem jest uświadomienie nam, jak wiele „syntetycznego szlamu” (tzw. AI slop) akceptujemy na co dzień bez mrugnięcia okiem i przypomnienie, jak wyglądał „ludzki” internet, zanim algorytmy przejęły stery. To nie nostalgia – to kubeł zimnej wody na nasze cyfrowe przyzwyczajenia.

    AI wchodzi pod skórę. Cochlear prezentuje implant słuchowy, który zaktualizujesz jak smartfona

    #aiSi #chatgpt #fakeNews #google #internet #news #przegladarki #slopEvader #sztucznaInteligencja

  24. Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

    Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

    Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

    Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

    Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Singapur nową stolicą chińskiego AI?

    Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

    Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

    „To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

    DeepSeek zostaje w domu i stawia na Huawei

    Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

    Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

    Wyścig kotka i myszkę

    Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

    #aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

  25. Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

    Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

    Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

    Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

    Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Singapur nową stolicą chińskiego AI?

    Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

    Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

    „To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

    DeepSeek zostaje w domu i stawia na Huawei

    Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

    Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

    Wyścig kotka i myszkę

    Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

    #aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

  26. Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

    Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

    Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

    Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

    Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Singapur nową stolicą chińskiego AI?

    Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

    Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

    „To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

    DeepSeek zostaje w domu i stawia na Huawei

    Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

    Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

    Wyścig kotka i myszkę

    Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

    #aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

  27. Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

    Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

    Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

    Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

    Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Singapur nową stolicą chińskiego AI?

    Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

    Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

    „To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

    DeepSeek zostaje w domu i stawia na Huawei

    Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

    Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

    Wyścig kotka i myszkę

    Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

    #aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

  28. Chiny znalazły sposób na blokadę Nvidii? Alibaba i ByteDance trenują AI w Singapurze, omijając sankcje

    Amerykańskie embargo na eksport najwydajniejszych akceleratorów AI do Chin miało zdusić rozwój tamtejszej sztucznej inteligencji. Chyba się nie udało.

    Okazuje się jednak, że fizyczna granica nie jest przeszkodą dla danych. Jak donosi „Financial Times”, chińscy giganci technologiczni, tacy jak Alibaba i ByteDance, przenieśli proces szkolenia swoich modeli do centrów danych w Azji Południowo-Wschodniej, gdzie legalnie korzystają z zakazanych w ich ojczyźnie układów Nvidii.

    Niedawno informowaliśmy o kulisach fizycznego przemytu układów Nvidii, którymi zajął się Departament Sprawiedliwości USA. Okazuje się jednak, że największe korporacje nie muszą uciekać się do usług przemytników. Znalazły znacznie bardziej skalowalną i – co najważniejsze – na ten moment legalną lukę w systemie sankcji.

    Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Singapur nową stolicą chińskiego AI?

    Według raportu „Financial Times”, w Singapurze i Malezji trwa prawdziwy boom na centra danych. Obiekty te są wyposażane w najpotężniejsze układy Nvidii (takie jak H100 czy Blackwell), do których podmioty zarejestrowane w Chinach nie mają bezpośredniego dostępu zakupowego.

    Chińskie firmy nie kupują jednak sprzętu – one go wynajmują. Podpisując umowy z operatorami data center w krajach sojuszniczych USA, Alibaba (twórca modelu Qwen) czy ByteDance (właściciel TikToka i modelu Doubao) mogą zdalnie trenować swoje algorytmy na topowym sprzęcie. To tzw. „luka chmurowa”. Przepisy kontroli eksportu dotyczą fizycznego transferu towarów, a nie przesyłu danych do przetworzenia za granicą.

    „To oczywisty wybór. Potrzebujesz najlepszych chipów, aby szkolić najbardziej zaawansowane modele, a tutaj wszystko jest zgodne z prawem” – komentuje dla FT jeden z operatorów centrów danych w Singapurze.

    DeepSeek zostaje w domu i stawia na Huawei

    Ciekawym wyjątkiem w tej strategii jest DeepSeek. Twórca jednego z najbardziej obiecujących chińskich modeli AI przyjął inną taktykę. Zamiast uciekać za granicę, firma zacieśnia współpracę z krajowym sektorem hardware’owym, w szczególności z Huawei.

    Celem tego sojuszu jest optymalizacja chińskich układów (np. serii Ascend) pod kątem trenowania LLM-ów. To strategia długoterminowa – uniezależnienie się od technologii USA, nawet jeśli obecnie oznacza to pracę na sprzęcie o generację lub dwie słabszym od rozwiązań Nvidii.

    Wyścig kotka i myszkę

    Sytuacja ta pokazuje, jak trudne jest egzekwowanie blokady technologicznej w zglobalizowanym świecie cyfrowym. Administracja USA (według doniesień z kwietnia br.) starała się uszczelnić przepisy, ograniczając sprzedaż nawet okrojonych chipów H20, ale „turystyka obliczeniowa” do Singapuru pozostaje otwarta. Pytanie brzmi: jak długo Waszyngton będzie tolerował ten proceder, zanim nałoży restrykcje również na udostępnianie mocy obliczeniowej w chmurze?

    #aiSi #alibaba #bytedance #chiny #deepseek #financialTimes #huawei #news #nvidia #sankcjeUsa #singapur

  29. ChatGPT skończył 3 lata. Wiemy, do czego używają go ludzie (i wcale nie chodzi o pisanie wypracowań)

    Dokładnie 30 listopada 2025 roku mija trzy lata od momentu, gdy OpenAI udostępniło światu wersję „research preview” swojego chatbota.

    Wtedy była to ciekawostka dla geeków. Dziś? To globalna infrastruktura, z której korzysta 800 milionów ludzi tygodniowo. Z okazji urodzin twórcy zdradzili, co tak naprawdę robimy z ich sztuczną inteligencją.

    Statystyki, którymi podzieliło się OpenAI, mogą być kubełkiem zimnej wody dla krytyków wieszczących zalew syntetycznych treści. Okazuje się, że najpopularniejszą funkcją ChatGPT w skali globalnej wcale nie jest generowanie tekstu czy obrazków (co jednak nie zmienia faktu, że treści generowanych powstaje mnóstwo).

    Numer 1: wgrywanie zdjęć

    Najczęściej wykorzystywaną funkcją jest uploadowanie własnych zdjęć do czatu. Użytkownicy rzadziej proszą AI o wygenerowanie „kota w kosmosie”, a częściej wysyłają zdjęcie zawartości lodówki z pytaniem o przepis, fotkę błędu na ekranie komputera z prośbą o pomoc w konkretnej sytuacji czy skomplikowanego wykresu z prośbą o analizę.

    To zmiana paradygmatu: ChatGPT stał się naszymi „drugimi oczami”, które pomagają interpretować świat, a nie tylko go wymyślać. O ile w mediach wydaje się kłaść nacisk na generatywną i kreatywną rolę ChatGPT, o tyle w rzeczywistym świecie, dane pokazują raczej pragmatyczne podejście.

    W pracy jesteśmy redaktorami, a nie twórcami

    Ciekawe są też dane dotyczące wykorzystania profesjonalnego. Okazuje się, że w pracy rzadko prosimy AI o napisanie czegoś od zera. Głównym zastosowaniem jest modyfikacja tekstu, czy to na zasadzie korekty, poprawienia literówek, błędów stylistycznych, czy też dopieszczenia formy materiału zależnie od jego przeznaczenia.

    Używamy ChatGPT do:

    • Edycji i korekty.
    • Krytycznej oceny naszych pomysłów.
    • Tłumaczenia.

    To pokazuje, że pracownicy nie oddali jeszcze sterów maszynie – traktują ją raczej jako super-asystenta lub wymagającego korektora, który ma wygładzić ich własne myśli.

    Top 6 zastosowań ChatGPT na świecie

    Według danych OpenAI, tak wygląda ranking najczęstszych aktywności:

    • Wgrywanie zdjęć (analiza obrazu).
    • Przeszukiwanie sieci (zastępowanie Google’a).
    • Używanie modeli rozumujących (o1) do trudnych zadań.
    • Generowanie obrazów (wysoko, ale nie na pierwszym miejscu).
    • Analiza danych (arkusze, wykresy).
    • Dyktowanie (tryb głosowy).

    Dziś, gdy ChatGPT odpowiada na 29 000 wiadomości na sekundę, widać wyraźnie, że „bańka AI” – jeśli w ogóle istnieje – zmienia się raczej w w betonowy fundament naszej cyfrowej codzienności.

    AI Barometr 2025: Polacy przestali bać się maszyn. Teraz boimy się kłamstw

    #aiSi #chatgpt #jakUzywamyAi #news #openai #rocznica #statystyki #sztucznaInteligencja

  30. AI Barometr 2025: Polacy przestali bać się maszyn. Teraz boimy się kłamstw

    Lęk przed sztuczną inteligencją w Polsce słabnie, ale zmienia swoje oblicze. Jak wynika z najnowszego badania „AI Barometr 2025”, przeprowadzonego przez firmę Zymetria,

    Polacy coraz chętniej wykorzystują AI w pracy i nauce, porzucając futurystyczne obawy o „bunt maszyn”. Nowym wrogiem numer jeden stała się dezinformacja i to, w jaki sposób ludzie mogą wykorzystać technologię przeciwko sobie nawzajem.

    Jeszcze pod koniec 2024 roku pozytywny stosunek do AI deklarowało nieco ponad 40 proc. badanych. W sierpniu 2025 roku odsetek ten wzrósł do blisko 50 proc.. Neutralne nastawienie ma ponad jedna trzecia respondentów, a grupa zagorzałych przeciwników skurczyła się do zaledwie 12 proc.. Największymi entuzjastami technologii pozostają mężczyźni oraz przedstawiciele pokolenia Z, choć i starsze generacje coraz rzadziej patrzą na algorytmy ze strachem.

    Dezinformacja: nowe zagrożenie cyfrowe

    O ile akceptacja dla samej technologii rośnie, o tyle świadomość zagrożeń staje się coraz bardziej precyzyjna. Aż 42 proc. badanych wskazuje manipulację informacjami jako swoją największą obawę. To nie bezzasadny lęk – prawie 60 proc. Polaków słyszało o fake newsach generowanych przez AI, a blisko jedna czwarta (25 proc.) zetknęła się z nimi osobiście.

    Co ciekawe, Polacy wykazują się dużą dojrzałością w ocenie sytuacji. Większość respondentów nie przypisuje sztucznej inteligencji „złych intencji”. Zrozumieliśmy, że AI to tylko narzędzie. Zagrożeniem nie jest algorytm, który „zmyśla” (tzw. halucynacje, z którymi spotkało się 12 proc. badanych), ale człowiek, który celowo „karmi” model fałszywymi danymi lub wykorzystuje go do tworzenia propagandy.

    Koniec strachu przed hakerami?

    Raport przynosi też zaskakujące dane dotyczące innych cyberzagrożeń. Wyraźnie spada niepokój związany z hakerstwem i kradzieżą danych (z 38 proc. w 2024 r. do 29 proc. obecnie). Może to sugerować, że przywykliśmy do cyfrowego ryzyka lub wierzymy w lepsze zabezpieczenia. Na szarym końcu listy obaw znajduje się wpływ AI na środowisko naturalne – ten aspekt martwi zaledwie 9 proc. Polaków.

    Barbara Krug, prezeska Zymetrii, podsumowuje, że nie boimy się już AI jako konkurenta, który zabierze nam pracę, ale utraty kontroli nad prawdą w internecie. To ważny sygnał dla twórców technologii i regulatorów: kluczem do dalszej adopcji AI nie jest już przekonywanie o jej użyteczności, ale budowanie mechanizmów chroniących przed falą cyfrowego kłamstwa.

    #aiSi #dezinformacja #fakeNews #news #raportAiBarometr #spoleczenstwo #sztucznaInteligencja #zymetria

  31. Black Friday 2025: Polacy stawiają na BLIKA i wsparcie AI. Raport o naszych nawykach

    Tegoroczny Black Friday to nie tylko polowanie na okazje, ale przede wszystkim test nowoczesnych technologii w handlu.

    Z najnowszego raportu DXC Technology wynika, że aż 76 proc. Polaków planuje aktywnie korzystać z listopadowych promocji. Zmienia się jednak sposób, w jaki kupujemy: portfele fizyczne odchodzą do lamusa na rzecz BLIKA, a w poszukiwaniu najlepszych ofert coraz częściej wyręcza nas sztuczna inteligencja.

    Król jest jeden: BLIK deklasuje karty

    Najciekawszym wnioskiem płynącym z badania jest absolutna dominacja polskiego systemu płatności. BLIK został wskazany jako metoda pierwszego wyboru przez aż 63 proc. kupujących online. Dla porównania, tradycyjne karty płatnicze wybiera 32 proc. ankietowanych, a portfele cyfrowe (takie jak Apple Pay czy Google Pay) – 25 proc..

    Popularność BLIKA jest szczególnie widoczna w młodszych grupach wiekowych. Wśród przedstawicieli pokolenia Z (osoby w wieku 18-30 lat) wybiera go aż 71 proc. konsumentów. Eksperci tłumaczą ten fenomen połączeniem wygody z poczuciem bezpieczeństwa – kod jest ważny tylko przez dwie minuty i wymaga potwierdzenia w aplikacji bankowej, co daje użytkownikom poczucie pełnej kontroli nad wydatkami w gorącym okresie wyprzedaży.

    Strach przed oszustami i rola AI

    Entuzjazm zakupowy studzą nieco obawy o bezpieczeństwo. Aż 72 proc. respondentów wyraża zaniepokojenie bezpieczeństwem transakcji online. Nie jest to strach bezpodstawny – 22 proc. badanych przyznaje, że padło ofiarą oszustwa w sieci, a w przypadku 7 proc. zdarzyło się to wielokrotnie.

    Odpowiedzią na te zagrożenia ma być sztuczna inteligencja. Według raportu DXC, już 60 proc. Polaków korzysta z narzędzi AI. Co więcej, 36 proc. konsumentów deklaruje gotowość do powierzenia „agentowi AI” wsparcia podczas Black Friday. Czego oczekujemy od algorytmów?

    • 20 proc. liczy na oszczędność czasu przy selekcji produktów.
    • 15 proc. traktuje AI jako tarczę pomagającą unikać fałszywych ofert.
    • 13 proc. szuka lepszego dopasowania ofert do swoich potrzeb.

    Pokoleniowa zmiana warty

    Raport wyraźnie zarysowuje różnice demograficzne. Najbardziej aktywni w e-commerce są przedstawiciele pokoleń X i Y – jedna trzecia Polaków kupuje w sieci co najmniej raz w tygodniu. Seniorzy (Baby Boomers) podchodzą do cyfrowych nowinek z większym dystansem – w tej grupie najmniejszy jest odsetek osób korzystających z promocji Black Friday oraz ufających nowym metodom płatności, choć bankowość elektroniczna cieszy się zaufaniem aż 78 proc. ogółu społeczeństwa.

    BLIK znowu rośnie. Prawie 20 milionów Polaków i 744 miliony transakcji w kwartał

    #aiSi #bezpieczenstwoWSieci #blackFriday #blik #eCommerce #news #raportDxc #sztucznaInteligencja #zakupyOnline

  32. Anthropic prezentuje Claude Opus 4.5. Nowy król kodowania jest tańszy i ma lepszą pamięć

    Anthropic nie zwalnia tempa i oficjalnie wprowadza na rynek swój nowy flagowy model – Claude Opus 4.5.

    Aktualizacja przynosi znaczący skok wydajności, zwłaszcza w zadaniach programistycznych, a także rozwiązuje jeden z największych problemów użytkowych poprzednich wersji. Co istotne dla deweloperów, nowy model jest znacznie tańszy w eksploatacji niż jego poprzednik.

    Koniec z „uciętymi” rozmowami

    Dla przeciętnego użytkownika korzystającego z aplikacji Claude (web, mobile, desktop), najważniejszą zmianą jest nowy sposób zarządzania pamięcią konwersacji. Dotychczas, po przekroczeniu limitu okna kontekstowego (200 000 tokenów), Claude po prostu ucinał rozmowę, uniemożliwiając jej kontynuowanie. Było to frustrujące, zwłaszcza w długich sesjach roboczych.

    Wraz z premierą Opus 4.5 (zmiana ta dotyczy wszystkich modeli w aplikacjach), Anthropic wprowadza mechanizm inteligentnego podsumowywania. Gdy rozmowa zbliża się do limitu, system „w tle” skróci starsze wątki, zachowując kluczowe informacje, a odrzucając zbędne detale. Dzięki temu konwersacja może trwać znacznie dłużej bez utraty spójności.

    Lepszy od GPT-5.1 i Gemini 3

    Opus 4.5 to pierwszy model, który przekroczył barierę 80 proc. dokładności w prestiżowym benchmarku programistycznym SWE-bench Verified, osiągając wynik 80,9 proc. Tym samym zdetronizował on niedawno wydane modele konkurencji: GPT-5.1-Codex-Max od OpenAI (77,9 proc.) oraz Gemini 3 Pro od Google (76,2 proc.). Choć Claude nadal ustępuje rywalom w rozumowaniu wizualnym, w zadaniach związanych z kodowaniem i używaniem narzędzi (agentic tool use) wysuwa się na prowadzenie.

    Niższe ceny i nowości dla deweloperów

    Anthropic zdecydował się na agresywną politykę cenową. Dostęp do API Opus 4.5 kosztuje teraz 5 dolarów za milion tokenów wejściowych i 25 dolarów za wyjściowe. To drastyczna obniżka względem poprzednika, który kosztował odpowiednio 15 i 75 dolarów.

    Dodatkowo, środowisko Claude Code, wcześniej dostępne głównie przez linię komend, trafiło natywnie do aplikacji desktopowych. Nowy interfejs pozwala na wygodne przełączanie się między tradycyjnym czatem a środowiskiem programistycznym w kartach. Deweloperzy otrzymali też nowy parametr „effort”, pozwalający precyzyjnie balansować między dokładnością modelu a zużyciem tokenów.

    Sojusz tytanów AI. Microsoft, Nvidia i Anthropic wchodzą w układ za 30 mld dolarów. Koniec przewagi OpenAI?

    #aiSi #anthropic #claude #gemini3 #gpt51 #news #opus45 #programowanie #sztucznaInteligencja

  33. ChatGPT kończy z „czarnym ekranem”. Tryb głosowy zintegrowany z interfejsem tekstowym

    OpenAI wprowadza istotną zmianę w sposobie, w jaki wchodzimy w interakcję z ChatGPT. Najnowsza aktualizacja aplikacji mobilnej (zarówno na iOS jak i Androida) domyślnie łączy tryb głosowy z głównym widokiem czatu tekstowego, eliminując dotychczasową barierę między rozmową a treściami wizualnymi.

    Do tej pory uruchomienie trybu głosowego przenosiło użytkownika do osobnego, minimalistycznego interfejsu. Nowe rozwiązanie sprawia, że konwersacja toczy się w standardowym oknie czatu. Ma to konkretne zalety użytkowe: OpenAI pokazuje, że asystent może teraz w trakcie rozmowy głosowej wyświetlać na ekranie na przykład mapy czy wyniki wyszukiwania. Dodatkowo, użytkownik widzi na bieżąco transkrypcję prowadzonej rozmowy, co ułatwia weryfikację, czy AI dobrze nas zrozumiało.

    Wybór należy do użytkownika

    Dla osób, które preferowały poprzednie rozwiązanie skupione wyłącznie na audio (bez rozpraszania ekranem), OpenAI pozostawiło furtkę. W ustawieniach aplikacji pojawił się nowy przełącznik, który pozwala przywrócić stary, odseparowany tryb głosowy.

    Aktualizacja ta jest częścią szerszej ofensywy produktowej OpenAI, która w ostatnim czasie obejmuje m.in. usprawnienia w przeglądarce Atlas AI, nowe funkcje czatów grupowych oraz prace nad modelem GPT-5.1.

    „To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

    #aiSi #aplikacjeMobilne #chatgpt #gpt51 #ios #iphone #news #openai #voiceMode

  34. ChatGPT kończy z „czarnym ekranem”. Tryb głosowy zintegrowany z interfejsem tekstowym

    OpenAI wprowadza istotną zmianę w sposobie, w jaki wchodzimy w interakcję z ChatGPT. Najnowsza aktualizacja aplikacji mobilnej (zarówno na iOS jak i Androida) domyślnie łączy tryb głosowy z głównym widokiem czatu tekstowego, eliminując dotychczasową barierę między rozmową a treściami wizualnymi.

    Do tej pory uruchomienie trybu głosowego przenosiło użytkownika do osobnego, minimalistycznego interfejsu. Nowe rozwiązanie sprawia, że konwersacja toczy się w standardowym oknie czatu. Ma to konkretne zalety użytkowe: OpenAI pokazuje, że asystent może teraz w trakcie rozmowy głosowej wyświetlać na ekranie na przykład mapy czy wyniki wyszukiwania. Dodatkowo, użytkownik widzi na bieżąco transkrypcję prowadzonej rozmowy, co ułatwia weryfikację, czy AI dobrze nas zrozumiało.

    Wybór należy do użytkownika

    Dla osób, które preferowały poprzednie rozwiązanie skupione wyłącznie na audio (bez rozpraszania ekranem), OpenAI pozostawiło furtkę. W ustawieniach aplikacji pojawił się nowy przełącznik, który pozwala przywrócić stary, odseparowany tryb głosowy.

    Aktualizacja ta jest częścią szerszej ofensywy produktowej OpenAI, która w ostatnim czasie obejmuje m.in. usprawnienia w przeglądarce Atlas AI, nowe funkcje czatów grupowych oraz prace nad modelem GPT-5.1.

    „To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

    #aiSi #aplikacjeMobilne #chatgpt #gpt51 #ios #iphone #news #openai #voiceMode

  35. ChatGPT kończy z „czarnym ekranem”. Tryb głosowy zintegrowany z interfejsem tekstowym

    OpenAI wprowadza istotną zmianę w sposobie, w jaki wchodzimy w interakcję z ChatGPT. Najnowsza aktualizacja aplikacji mobilnej (zarówno na iOS jak i Androida) domyślnie łączy tryb głosowy z głównym widokiem czatu tekstowego, eliminując dotychczasową barierę między rozmową a treściami wizualnymi.

    Do tej pory uruchomienie trybu głosowego przenosiło użytkownika do osobnego, minimalistycznego interfejsu. Nowe rozwiązanie sprawia, że konwersacja toczy się w standardowym oknie czatu. Ma to konkretne zalety użytkowe: OpenAI pokazuje, że asystent może teraz w trakcie rozmowy głosowej wyświetlać na ekranie na przykład mapy czy wyniki wyszukiwania. Dodatkowo, użytkownik widzi na bieżąco transkrypcję prowadzonej rozmowy, co ułatwia weryfikację, czy AI dobrze nas zrozumiało.

    Wybór należy do użytkownika

    Dla osób, które preferowały poprzednie rozwiązanie skupione wyłącznie na audio (bez rozpraszania ekranem), OpenAI pozostawiło furtkę. W ustawieniach aplikacji pojawił się nowy przełącznik, który pozwala przywrócić stary, odseparowany tryb głosowy.

    Aktualizacja ta jest częścią szerszej ofensywy produktowej OpenAI, która w ostatnim czasie obejmuje m.in. usprawnienia w przeglądarce Atlas AI, nowe funkcje czatów grupowych oraz prace nad modelem GPT-5.1.

    „To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

    #aiSi #aplikacjeMobilne #chatgpt #gpt51 #ios #iphone #news #openai #voiceMode

  36. ChatGPT kończy z „czarnym ekranem”. Tryb głosowy zintegrowany z interfejsem tekstowym

    OpenAI wprowadza istotną zmianę w sposobie, w jaki wchodzimy w interakcję z ChatGPT. Najnowsza aktualizacja aplikacji mobilnej (zarówno na iOS jak i Androida) domyślnie łączy tryb głosowy z głównym widokiem czatu tekstowego, eliminując dotychczasową barierę między rozmową a treściami wizualnymi.

    Do tej pory uruchomienie trybu głosowego przenosiło użytkownika do osobnego, minimalistycznego interfejsu. Nowe rozwiązanie sprawia, że konwersacja toczy się w standardowym oknie czatu. Ma to konkretne zalety użytkowe: OpenAI pokazuje, że asystent może teraz w trakcie rozmowy głosowej wyświetlać na ekranie na przykład mapy czy wyniki wyszukiwania. Dodatkowo, użytkownik widzi na bieżąco transkrypcję prowadzonej rozmowy, co ułatwia weryfikację, czy AI dobrze nas zrozumiało.

    Wybór należy do użytkownika

    Dla osób, które preferowały poprzednie rozwiązanie skupione wyłącznie na audio (bez rozpraszania ekranem), OpenAI pozostawiło furtkę. W ustawieniach aplikacji pojawił się nowy przełącznik, który pozwala przywrócić stary, odseparowany tryb głosowy.

    Aktualizacja ta jest częścią szerszej ofensywy produktowej OpenAI, która w ostatnim czasie obejmuje m.in. usprawnienia w przeglądarce Atlas AI, nowe funkcje czatów grupowych oraz prace nad modelem GPT-5.1.

    „To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

    #aiSi #aplikacjeMobilne #chatgpt #gpt51 #ios #iphone #news #openai #voiceMode

  37. ChatGPT kończy z „czarnym ekranem”. Tryb głosowy zintegrowany z interfejsem tekstowym

    OpenAI wprowadza istotną zmianę w sposobie, w jaki wchodzimy w interakcję z ChatGPT. Najnowsza aktualizacja aplikacji mobilnej (zarówno na iOS jak i Androida) domyślnie łączy tryb głosowy z głównym widokiem czatu tekstowego, eliminując dotychczasową barierę między rozmową a treściami wizualnymi.

    Do tej pory uruchomienie trybu głosowego przenosiło użytkownika do osobnego, minimalistycznego interfejsu. Nowe rozwiązanie sprawia, że konwersacja toczy się w standardowym oknie czatu. Ma to konkretne zalety użytkowe: OpenAI pokazuje, że asystent może teraz w trakcie rozmowy głosowej wyświetlać na ekranie na przykład mapy czy wyniki wyszukiwania. Dodatkowo, użytkownik widzi na bieżąco transkrypcję prowadzonej rozmowy, co ułatwia weryfikację, czy AI dobrze nas zrozumiało.

    Wybór należy do użytkownika

    Dla osób, które preferowały poprzednie rozwiązanie skupione wyłącznie na audio (bez rozpraszania ekranem), OpenAI pozostawiło furtkę. W ustawieniach aplikacji pojawił się nowy przełącznik, który pozwala przywrócić stary, odseparowany tryb głosowy.

    Aktualizacja ta jest częścią szerszej ofensywy produktowej OpenAI, która w ostatnim czasie obejmuje m.in. usprawnienia w przeglądarce Atlas AI, nowe funkcje czatów grupowych oraz prace nad modelem GPT-5.1.

    „To byłaby zdrada”. Dr Milagros Miceli, światowa ekspertka od AI ujawnia, dlaczego nie korzysta z ChatGPT

    #aiSi #aplikacjeMobilne #chatgpt #gpt51 #ios #iphone #news #openai #voiceMode

  38. Wyrok na Asystenta Google wydany? Znamy datę końca wsparcia w Android Auto

    Google powoli, ale konsekwentnie wygasza swoje starsze usługi na rzecz nowej gwiazdy – Gemini.

    Najnowsze odkrycie na stronach wsparcia technicznego sugeruje, że dni klasycznego Asystenta Google są już policzone. Koncern z Mountain View po raz pierwszy wskazał konkretną datę graniczną: marzec 2026 roku.

    Informacja ta pojawiła się na stronie pomocy dotyczącej Android Auto. W sekcji poświęconej przejściu na nowy model AI znalazł się komunikat: „Google Assistant jest nadal dostępny do użycia do marca 2026 r.”. Choć firma oficjalnie promuje Gemini jako następcę Asystenta na „większości urządzeń mobilnych”, to właśnie w kontekście systemu samochodowego po raz pierwszy padła sztywna data zakończenia wsparcia.

    Czy to koniec Asystenta wszędzie?

    Na ten moment data marca 2026 r. widnieje wyłącznie w dokumentacji Android Auto. Nie ma pewności, czy ten sam termin dotyczy inteligentnych głośników Nest, telewizorów z Google TV czy innych urządzeń smart home, które wciąż w dużej mierze polegają na starszej technologii.

    Niemniej, kierunek zmian jest jasny. Google intensywnie wdraża Gemini, który ma rozumieć te same komendy co Asystent, ale oferować znacznie bardziej naturalną konwersację. Biorąc pod uwagę zapowiedzi o wprowadzeniu Gemini do głośników w przyszłym roku, całkowite wyłączenie Asystenta w 2026 roku wydaje się prawdopodobnym scenariuszem dla całego ekosystemu. Dla użytkowników oznacza to jeszcze ponad rok spokoju, ale też wyraźny sygnał, by powoli przyzwyczajać się do nowej, opartej na generatywnej sztucznej inteligencji rzeczywistości.

    Gemini oficjalnie startuje w Android Auto. Asystent AI zastąpi Asystenta Google w samochodach [wideo]

    #aiSi #androidAuto #asystentGlosowy #gemini #google #googleAssistant #news

  39. Samsung reanimuje Bixby? Perplexity ma wesprzeć asystenta zamiast Google Gemini

    Wydawało się, że dni Bixby są policzone, albo że wkrótce zostanie on całkowicie zdominowany przez ekosystem Google Gemini. Jest zwrot w akcji.

    Tymczasem Samsung szykuje niespodziankę. Według najnowszych doniesień, koreański gigant planuje znaczącą aktualizację swojego asystenta, ale technologicznym partnerem w tym przedsięwzięciu ma być Perplexity, a nie Google.

    Samsung Galaxy Buds 4 Pro nieoficjalnie: nowy design i przełomowe sterowanie głową. Słuchawki same znajdą Twój telefon

    Jak twierdzi znany leaker @chunvn8888, Samsung zamierza zintegrować silnik Perplexity z Bixby na zasadach bardzo zbliżonych do modelu przyjętego przez Apple, łączącego Siri z ChatGPT.

    W praktyce podział obowiązków ma być klarowny: Bixby nadal będzie obsługiwać podstawowe, systemowe polecenia, natomiast w momencie, gdy użytkownik zada bardziej skomplikowane pytanie wymagające szerszej wiedzy i kontekstu, pałeczkę przejmie Perplexity.

    Debiut tego rozwiązania przewidywany jest wraz z premierą serii Galaxy S26 na początku przyszłego roku. Ruch ten wpisuje się w wcześniejsze zapowiedzi Samsunga – przedstawiciele firmy otwarcie sugerowali, że Google Gemini „nie będzie jedynym asystentem AI”, który trafi do ekosystemu Galaxy. Wygląda na to, że Koreańczycy chcą zachować pewną niezależność od giganta z Mountain View, stawiając na dywersyfikację dostawców sztucznej inteligencji.

    Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    #aiSi #asystentGlosowy #bixby #galaxyS26 #googleGemini #news #perplexity #samsung

  40. “How #Australia navigates frontier #AI will determine our prosperity and security. A world-leading #AISafetyInstitute will give Australia the technical expertise to understand advanced AI, contribute to preventing serious risks, and put us on the path to global leadership.”

    Great news for the morning with the Australian Government's announcement to establish an Australian AI Safety Institute (AISI)!!

    australiansforaisafety.com.au/

    #AISI
    #auspol

  41. “How #Australia navigates frontier #AI will determine our prosperity and security. A world-leading #AISafetyInstitute will give Australia the technical expertise to understand advanced AI, contribute to preventing serious risks, and put us on the path to global leadership.”

    Great news for the morning with the Australian Government's announcement to establish an Australian AI Safety Institute (AISI)!!

    australiansforaisafety.com.au/

    #AISI
    #auspol

  42. Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

    Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

    Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

    Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

    Dialog, który usypia czujność

    Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

    Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

    Skąd biorą się te różnice?

    Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

    Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

    #aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

  43. Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

    Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

    Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

    Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

    Dialog, który usypia czujność

    Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

    Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

    Skąd biorą się te różnice?

    Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

    Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

    #aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

  44. Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

    Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

    Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

    Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

    Dialog, który usypia czujność

    Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

    Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

    Skąd biorą się te różnice?

    Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

    Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

    #aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

  45. Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

    Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

    Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

    Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

    Dialog, który usypia czujność

    Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

    Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

    Skąd biorą się te różnice?

    Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

    Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

    #aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

  46. Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

    Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

    Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

    Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

    Dialog, który usypia czujność

    Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

    Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

    Skąd biorą się te różnice?

    Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

    Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

    #aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

  47. Departament Sprawiedliwości USA ujawnia kulisy przemytu układów Nvidia. W tle superkomputery i broń masowego rażenia

    Biuro Spraw Publicznych Departamentu Sprawiedliwości USA poinformowało o rozbiciu zorganizowanej grupy przestępczej zajmującej się nielegalnym eksportem zaawansowanych technologii AI do Chin.

    W sprawę zamieszanych jest dwóch obywateli USA oraz dwóch obywateli Chin. Akt oskarżenia, ujawniony 20 listopada 2025 roku, rzuca nowe światło na determinację, z jaką Państwo Środka dąży do pozyskania amerykańskich procesorów, niezbędnych do modernizacji armii.

    Wśród aresztowanych znajdują się Hon Ning Ho (34 l.) i Jing Chen (45 l.) zatrzymani na Florydzie, Brian Curtis Raymond (46 l.), CTO firmy zajmującej się technologiami Cloud AI, aresztowany w Alabamie oraz Cham Li (38 l.) ujęty w Kalifornii. Prokuratura zarzuca im spisek, przemyt oraz pranie brudnych pieniędzy, za co grożą wyroki sięgające 20 lat pozbawienia wolności za poszczególne zarzuty.

    Chiny oskarżają USA o cyberatak. Celem miało być Narodowe Centrum Czasu

    Nieruchomości jako przykrywka dla superkomputerów

    Śledczy ujawnili mechanizm działania grupy, który funkcjonował od września 2023 do listopada 2025 roku. Spiskowcy wykorzystywali firmę „Janford Realtor, LLC” z siedzibą w Tampie na Florydzie. Choć nazwa sugerowała działalność na rynku nieruchomości, spółka nigdy nie przeprowadziła żadnej transakcji tego typu. Służyła wyłącznie jako słup do zakupu kontrolowanych technologii, które następnie – z fałszywą dokumentacją – trafiały do Chin drogą okrężną przez Malezję i Tajlandię.

    Skala procederu była znacząca. Grupie udało się skutecznie wywieźć 400 układów graficznych Nvidia A100 w dwóch transportach między październikiem 2024 a styczniem 2025 roku.

    Udaremniony przemyt najnowszych technologii

    Najciekawszy jest jednak wątek trzeciego i czwartego transportu, które zostały przejęte przez organy ścigania. Przemytnicy próbowali wywieźć 10 superkomputerów Hewlett Packard Enterprise wyposażonych w układy Nvidia H100, a także – co szczególnie istotne – 50 sztuk najnowszych procesorów graficznych Nvidia H200.

    To sprzęt o krytycznym znaczeniu strategicznym. Jak wskazuje akt oskarżenia, Chiny dążą do osiągnięcia pozycji światowego lidera AI do 2030 roku, a pozyskane technologie miały wspierać modernizację wojska, projektowanie i testowanie broni masowego rażenia oraz rozwój zaawansowanych narzędzi inwigilacji.

    Miliony dolarów w przelewach

    Departament Sprawiedliwości ujawnił również przepływy finansowe. Oskarżeni otrzymali z Chin przelewy na łączną kwotę ponad 3,89 miliona dolarów na sfinansowanie tego procederu. Brian Curtis Raymond, wykorzystując swoją firmę elektroniczną w Alabamie, pełnił rolę dostawcy sprzętu dla Ho i pozostałych członków grupy.

    Władze USA zapowiedziały dążenie do przepadku mienia, w tym przejętych 50 układów Nvidia H200. Sprawę prowadzi wydział Homeland Security Investigations we współpracy z Defense Criminal Investigative Service oraz Biurem Przemysłu i Bezpieczeństwa Departamentu Handlu.

    Wielka rywalizacja o AI. Chiny inwestują miliardy i omijają sankcje, by uniezależnić się od USA

    #a100 #aiSi #chiny #departamentSprawiedliwosci #h100 #h200 #news #nvidia #przemyt #przestepczosc #sankcje #usa

  48. iOS 27 ma wprowadzić dwa kluczowe kierunki rozwoju

    Według Marka Gurmana z Bloomberga aktualizacja iOS 27 (i pozostałych systemów również) skupi się głównie na stabilności i wydajności — podobnie jak historyczny Mac OS X Snow Leopard.

    Nie ukrywam, że zapowiedź takiego właśnie kierunku zmian mnie również osobiście bardzo cieszy, zwłaszcza, że sporo jeszcze jest do poprawy choćby w kontekście Liquid Glass. Więcej o nim usłyszysz w mojej rozmowie z ekspertem w jednym z odcinków mojego podcastu „Bo czemu nie?”.

    Wyjątkiem będzie rozbudowa AI w kolejnych aplikacjach Apple oraz wprowadzenie usługi Apple Health+, która zaoferuje spersonalizowane wskazówki zdrowotne.

    Poza dużym naciskiem na jakość oprogramowania i inne ulepszenia sztucznej inteligencji, Gurman przedstawia również trzy dodatkowe rzeczy, na które należy zwrócić uwagę w iOS 27:

    • Ulepszenia dla użytkowników korporacyjnych
    • Funkcje „szyte na miarę” dla użytkowników na rynkach wschodzących
    • Poprawki projektowe dla Liquid Glass

    Pierwsze bety nowych systemów pojawią się po czerwcowej konferencji WWDC 2026.

    Apple publikuje wersje beta 3 systemów 26.2

    #aiSi #aktualizacje #apple #applehealthplus #ios27 #macos27 #mobilneSystemyOperacyjne #stabilnoscIos #sztucznaInteligencja #technologia #wwdc #wydajnoscSystemu

  49. iOS 27 ma wprowadzić dwa kluczowe kierunki rozwoju

    Według Marka Gurmana z Bloomberga aktualizacja iOS 27 (i pozostałych systemów również) skupi się głównie na stabilności i wydajności — podobnie jak historyczny Mac OS X Snow Leopard.

    Nie ukrywam, że zapowiedź takiego właśnie kierunku zmian mnie również osobiście bardzo cieszy, zwłaszcza, że sporo jeszcze jest do poprawy choćby w kontekście Liquid Glass. Więcej o nim usłyszysz w mojej rozmowie z ekspertem w jednym z odcinków mojego podcastu „Bo czemu nie?”.

    Wyjątkiem będzie rozbudowa AI w kolejnych aplikacjach Apple oraz wprowadzenie usługi Apple Health+, która zaoferuje spersonalizowane wskazówki zdrowotne.

    Poza dużym naciskiem na jakość oprogramowania i inne ulepszenia sztucznej inteligencji, Gurman przedstawia również trzy dodatkowe rzeczy, na które należy zwrócić uwagę w iOS 27:

    • Ulepszenia dla użytkowników korporacyjnych
    • Funkcje „szyte na miarę” dla użytkowników na rynkach wschodzących
    • Poprawki projektowe dla Liquid Glass

    Pierwsze bety nowych systemów pojawią się po czerwcowej konferencji WWDC 2026.

    Apple publikuje wersje beta 3 systemów 26.2

    #aiSi #aktualizacje #apple #applehealthplus #ios27 #macos27 #mobilneSystemyOperacyjne #stabilnoscIos #sztucznaInteligencja #technologia #wwdc #wydajnoscSystemu

  50. iOS 27 ma wprowadzić dwa kluczowe kierunki rozwoju

    Według Marka Gurmana z Bloomberga aktualizacja iOS 27 (i pozostałych systemów również) skupi się głównie na stabilności i wydajności — podobnie jak historyczny Mac OS X Snow Leopard.

    Nie ukrywam, że zapowiedź takiego właśnie kierunku zmian mnie również osobiście bardzo cieszy, zwłaszcza, że sporo jeszcze jest do poprawy choćby w kontekście Liquid Glass. Więcej o nim usłyszysz w mojej rozmowie z ekspertem w jednym z odcinków mojego podcastu „Bo czemu nie?”.

    Wyjątkiem będzie rozbudowa AI w kolejnych aplikacjach Apple oraz wprowadzenie usługi Apple Health+, która zaoferuje spersonalizowane wskazówki zdrowotne.

    Poza dużym naciskiem na jakość oprogramowania i inne ulepszenia sztucznej inteligencji, Gurman przedstawia również trzy dodatkowe rzeczy, na które należy zwrócić uwagę w iOS 27:

    • Ulepszenia dla użytkowników korporacyjnych
    • Funkcje „szyte na miarę” dla użytkowników na rynkach wschodzących
    • Poprawki projektowe dla Liquid Glass

    Pierwsze bety nowych systemów pojawią się po czerwcowej konferencji WWDC 2026.

    Apple publikuje wersje beta 3 systemów 26.2

    #aiSi #aktualizacje #apple #applehealthplus #ios27 #macos27 #mobilneSystemyOperacyjne #stabilnoscIos #sztucznaInteligencja #technologia #wwdc #wydajnoscSystemu

  51. NATO stawia na Google Cloud. Sojusz wykorzysta „odciętą” chmurę i sztuczną inteligencję do tajnych operacji

    Agencja Łączności i Informatyki NATO (NCIA) podpisała wielomilionowy kontrakt z Google Cloud na dostarczenie infrastruktury chmurowej o podwyższonym standardzie bezpieczeństwa.

    Partnerstwo to ma na celu modernizację cyfrową Sojuszu, przy jednoczesnym zachowaniu ścisłej kontroli nad przetwarzanymi danymi, co w strukturach wojskowych jest priorytetem.

    Kluczowym elementem umowy jest wdrożenie rozwiązania Google Distributed Cloud (GDC) w wersji „air-gapped”. W terminologii IT oznacza to infrastrukturę fizycznie i logicznie odseparowaną od publicznego internetu oraz chmury publicznej. Taka izolacja pozwala na bezpieczne przetwarzanie informacji niejawnych i wrażliwych, gwarantując, że dane pozostają pod bezpośrednią kontrolą NCIA i w granicach terytorium państw członkowskich NATO.

    AI w służbie Sojuszu

    Technologia ta zostanie wykorzystana przede wszystkim przez Centrum Analiz, Szkolenia i Edukacji (JATEC). Dzięki rozwiązaniu Google’a, NATO zyska możliwość korzystania z zaawansowanych narzędzi sztucznej inteligencji i analityki danych w całkowicie odizolowanym środowisku. Ma to pozwolić na szybsze wyciąganie wniosków z kluczowych informacji operacyjnych bez ryzyka ich wycieku do sieci zewnętrznych.

    Antonio Calderon, dyrektor ds. technologii w NCIA, podkreśla, że partnerstwo z sektorem prywatnym jest niezbędne dla transformacji cyfrowej Sojuszu, a wdrożenie ma zapewnić skalowalne środowisko dla procesów o najwyższym stopniu wrażliwości. Wdrożenie systemu zaplanowano na nadchodzące miesiące.

    Dla Google Cloud kontrakt ten jest istotnym potwierdzeniem wiarygodności w sektorze obronnym, pokazującym, że komercyjne rozwiązania chmurowe – po odpowiednim dostosowaniu (air-gapping) – mogą spełniać rygorystyczne normy suwerenności cyfrowej wymagane przez organizacje militarne.

    20 minut, które zmieniły wojnę. Analiza obrony Izraela to dzwonek alarmowy dla Polski

    #aiSi #bezpieczenstwo #chmuraSuwerenna #gdcAirGapped #googleCloud #nato #news #wojsko

  52. Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.

    Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.

    Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.

    Wyścig zbrojeń i braki sprzętowe

    Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.

    Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.

    Własny krzem sposobem na kryzys

    Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.

    Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.

    Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.

    #aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu

  53. Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.

    Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.

    Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.

    Wyścig zbrojeń i braki sprzętowe

    Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.

    Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.

    Własny krzem sposobem na kryzys

    Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.

    Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.

    Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.

    #aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu

  54. Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI

    Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.

    Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.

    Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.

    Wyścig zbrojeń i braki sprzętowe

    Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.

    Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.

    Własny krzem sposobem na kryzys

    Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.

    Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.

    Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.

    #aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu