home.social

#rynekit — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #rynekit, aggregated by home.social.

  1. Pierwsze pęknięcia w dominacji Big Tech. Twórcy AI zaczynają grać na własny rachunek

    Przez ostatnie lata wydawało się, że wielkie korporacje mają całkowity monopol na rozwój sztucznej inteligencji. Choć giganci tacy jak Google czy Meta wciąż dysponują potężnym kapitałem i infrastrukturą, na rynku widać wyraźne pęknięcia.

    Najlepsi badacze coraz chętniej opuszczają bezpieczne posady, by budować własne, zwinne start-upy. To jeszcze nie systemowa rewolucja, ale wyraźny sygnał – twórcy AI chcą zacząć grać na własnych zasadach.

    Zmęczenie optymalizacją i odejście legendy

    Źródłem tej narastającej rotacji elit jest paradoksalnie sam sukces wielkich firm technologicznych. Presja na szybką monetyzację usług i zadowalanie akcjonariuszy brutalnie zawęża przestrzeń na ryzykowne innowacje. Giganci skupiają się dziś głównie na mechanicznym powiększaniu obecnych modeli językowych (LLM), co dla wielu naukowców z ambicjami oznacza badawczą stagnację.

    Symbolem tych napięć stało się głośne odejście Yanna LeCuna, uznawanego za jednego z „ojców chrzestnych” AI. Po kilkunastu latach pracy zrezygnował on ze stanowiska głównego badacza w firmie Meta, by rozwijać własny projekt – AMI Labs. LeCun od dawna krytykował dominujące modele językowe za brak głębokiego rozumienia świata, a jego nowy start-up ma się skupić na uczeniu maszyn poprzez obserwację fizycznej rzeczywistości, a nie tylko analizę suchego tekstu.

    Odwrócony drenaż mózgów i gra o niezależność

    Do niedawna standardem w Dolinie Krzemowej było kupowanie małych firm przez gigantów wyłącznie po to, by przejąć ich utalentowanych pracowników. Dziś coraz częściej mówi się o tzw. odwróconym drenażu mózgów. Ambitne start-upy potrafią „wyciągnąć” z korporacji wyspecjalizowane grupy badawcze, oferując im to, co najcenniejsze: całkowitą autonomię.

    Co równie istotne, niezależne projekty nie narzekają już na brak sprzętu, który wcześniej rezerwowany był wyłącznie dla gigantów. Inwestorzy z funduszy Venture Capital bardzo chętnie finansują start-upy w modelu zapewniającym potężną moc obliczeniową, co w praktyce oznacza zagwarantowanie inżynierom szybkiego dostępu do tysięcy najnowszych układów firmy Nvidia.

    Polska zyskuje na przetasowaniach w branży

    Ten trend szukania badawczej wolności, choć na innej skali, widać już także nad Wisłą. Krajowe projekty potrafią skutecznie przyciągnąć wysokiej klasy ekspertów od AI z międzynarodowych korporacji. Dobrym przykładem jest przejście Markusa Wulfmeiera, wcześniej związanego z Google DeepMind, do warszawskiego start-upu Nomagic zajmującego się nowoczesną robotyką. To dowód na to, że rosnąca infrastruktura centrów danych i swoboda badawcza potrafią zachęcić inżynierów do powrotu z Londynu czy Doliny Krzemowej i budowania nowej jakości na lokalnym rynku.

    Google wpycha AI do Gmaila na siłę. Wyłączenie Gemini to droga przez mękę i strata starych funkcji

    #AI #BigTech #Google #Meta #rynekIT #startUpyTechnologiczne #sztucznaInteligencja #uczenieMaszynowe #YannLeCun
  2. Absurd sztucznej inteligencji. Miliardy dolarów wydawane na utrzymanie uśpionych procesorów

    Trwa wyścig zbrojeń w branży AI. Firmy technologiczne masowo wykupują najdroższe układy graficzne, by budować potężne centra danych.

    Problem polega na tym, że infrastruktura, na którą przeznacza się dziś miliardy dolarów, przez większość czasu pozostaje po prostu niewykorzystana. Najnowsze dane obnażają skalę marnotrawstwa w chmurze.

    Wyobraź sobie, że kupujesz flotę dwudziestu supersamochodów, ale dziewiętnaście z nich przez cały rok stoi w zamkniętym garażu. Dokładnie tak wygląda dziś zarządzanie infrastrukturą sztucznej inteligencji. Z najnowszego raportu firmy Cast AI, opartego na analizie dziesiątek tysięcy klastrów w chmurach AWS, Azure i GCP, wyłania się obraz ogromnej niegospodarności. Średnie wykorzystanie drogocennych procesorów GPU wynosi zaledwie 5%.

    Strach wygrywa z logiką

    Dlaczego giganci technologiczni i startupy rezerwują dwadzieścia razy więcej mocy obliczeniowej, niż realnie potrzebują? Odpowiedź tkwi w psychologii i obawie przed przerwaniem łańcucha dostaw.

    Zjawisko tzw. nadmiarowości (overprovisioningu) rośnie z roku na rok. Zamiast optymalizować zasoby, firmy wolą chomikować sprzęt „na wszelki wypadek”, ponieważ terminy dostaw nowych układów są bardzo odległe. Ten lęk napędza samonakręcającą się spiralę rynkową: powszechne gromadzenie zapasów tworzy sztuczny deficyt, a deficyt winduje ceny. Efekt? W styczniu 2026 roku Amazon (AWS) podniósł ceny wynajmu układów H200 o 15%, powołując się właśnie na potężny popyt. To pierwszy taki przypadek od 2006 roku, kiedy to ceny mocy obliczeniowej w chmurze, zamiast spadać, zaczęły rosnąć.

    Czas na automatyzację, a nie ręczne sterowanie

    Sytuacja jest tym trudniejsza do uzasadnienia, jeśli spojrzymy na nią z perspektywy kosztów. O ile nieużywany procesor CPU to wydatek rzędu centów za godzinę, o tyle leżące odłogiem GPU generuje straty liczone w twardych dolarach.

    Raport uwypukla ciekawy paradoks branży: zespoły deweloperskie wdrażają niesamowicie skomplikowane algorytmy AI do zarządzania swoimi aplikacjami, ale rzadko używają narzędzi do optymalizacji własnej infrastruktury. A te przecież istnieją – to m.in. automatyczne skalowanie (rightsizing) czy współdzielenie zasobów. Utrzymywanie zapasowych mocy wydaje się inżynierom po prostu bezpieczniejsze niż ryzyko braku przepustowości przy nagłym skoku obciążenia.

    Sektor technologiczny uwielbia opowiadać o wydajności, jaką niesie sztuczna inteligencja. Na zapleczu tej rewolucji wciąż jednak króluje strach przed brakami sprzętowymi. Rozwiązanie jest na stole i wymaga zmiany traktowania efektywności z ręcznego zadania na proces ciągłej automatyzacji. Z danych jasno jednak wynika, że na razie firmy wolą płacić gigantyczne rachunki, niż zmienić swoje zachowawcze nawyki.

    Cyfrowa nieśmiertelność na dysku. Startup odtworzył model mózgu muchy i marzy o transferze ludzkiej świadomości

    #AI #aws #Azure #CastAI #chmuraObliczeniowa #gpu #rynekIT #sztucznaInteligencja #technologia
  3. Komputery z AI to nie marketing. Nowe dane pokazują, jak odzyskać nawet dwa dni pracy w tygodniu

    Przez ostatnie miesiące producenci sprzętu zasypywali nas obietnicami o rewolucji, jaką przyniosą komputery ze zintegrowanymi układami sztucznej inteligencji (tzw. AI PC). Do teraz brzmiało to jak zręczny marketing.

    Dwa najnowsze raporty badawcze – choć warto odnotować uczciwie, że zrealizowane na zlecenie jednego z czołowych producentów procesorów – weryfikują te zapowiedzi, dostarczając twardych danych. Wniosek? Ignorowanie tej technologii kosztuje firmy dziesiątki godzin zmarnowanego czasu miesięcznie, a pracownikom w skrajnych przypadkach odbiera nawet dwa dni wolnego w tygodniu.

    Efekt kuli śnieżnej, czyli 7 tygodni w kieszeni

    Z pierwszego badania wynika, że choć poszczególne zadania z pomocą lokalnego AI wykonuje się zauważalnie szybciej, prawdziwa zmiana dzieje się, gdy te drobne oszczędności skumulujemy w cyklu dobowym. Analiza typowego, 95-minutowego bloku pracy biurowej – obejmującego odpowiadanie na maile, notatki ze spotkań czy aktualizację prezentacji – wykazała, że na komputerze ze wsparciem sprzętowym AI czas ten skraca się do 61 minut. To redukcja aż o 36 procent.

    W skali roku oznacza to, że pracownik zyskuje dodatkowe 7 tygodni (ponad 300 godzin), które może przeznaczyć na pracę analityczną lub po prostu na złapanie oddechu. Co więcej, atutem dzisiejszych AI PC jest możliwość uruchamiania zaawansowanych modeli językowych (np. LLM przez aplikację LM Studio) całkowicie lokalnie. Oznacza to, że firmy mogą generować podsumowania i analizować poufne dokumenty finansowe bez wysyłania choćby jednego bajta do zewnętrznej chmury, gwarantując absolutną prywatność danych.

    Zaawansowany użytkownik oszczędza jeszcze więcej

    Drugi raport wziął pod lupę tzw. „power userów” – kierowników projektów i analityków. W ich przypadku liczby są jeszcze bardziej bezlitosne dla tradycyjnych metod pracy. Okazuje się, że wykorzystanie wbudowanej sztucznej inteligencji potrafi w niektórych, bardzo intensywnych scenariuszach zaoszczędzić ponad 16 godzin w typowym tygodniu pracy. To niemal dwa pełne dni robocze.

    Absolutny rekord odnotowano przy redagowaniu i formatowaniu formalnych e-maili – czas tej czynności skrócił się o 93,8 procent, z 15 minut do zaledwie minuty. Rewelacyjne wyniki osiągnięto również przy tworzeniu wykresów Gantta w Excelu (oszczędność na poziomie 73 procent) oraz przy podsumowywaniu długich, zawiłych wątków w systemie ticketowym Jira, gdzie AI ucięło czas o ponad 74 procent, dając ponad 8 minut oszczędności na pojedynczym zadaniu.

    Koszt czekania na „ideał”

    Najciekawszy jest jednak meta-wniosek płynący z obu analiz. Badacze zgodnie podkreślają, że odkładanie inwestycji w sprzęt nowej generacji w oczekiwaniu na mityczne, „jeszcze doskonalsze” modele to strategiczny błąd. Technologia już dziś osiągnęła poziom, na którym potrafi trwale odciążyć układ nerwowy pracownika, zmniejszając zmęczenie i redukując liczbę popełnianych błędów.

    Firmy, które wstrzymują się z aktualizacją infrastruktury pod wymogi AI, de facto nie oszczędzają. Pozwalają jedynie, by konkurencja zbudowała przewagę operacyjną dzięki zespołom, które to samo robią dwa dni szybciej. W erze drastycznego poszukiwania rynkowych optymalizacji, z tym argumentem dyskutować po prostu się nie da.

    Nowy Claude ułatwi pracę programistom. Najciekawszy jest jednak model, którego Anthropic nie chce nam pokazać

    #AIPC #Copilot #LLM #LMStudio #nowościTechnologiczne #optymalizacjaPracy #produktywność #rynekIT #sprzętIT #sztucznaInteligencja
  4. Spokój w obliczu burzy. TP-Link odpowiada na nowe regulacje FCC i planuje produkcję w USA

    Niedawna decyzja Federalnej Komisji Łączności (FCC) o zablokowaniu certyfikacji dla zagranicznych routerów mocno zamieszała na rynku technologicznym.

    Podczas gdy wielu mniejszych graczy nerwowo przelicza koszty przeniesienia produkcji, TP-Link wydaje oficjalne oświadczenie. Przekaz jest jasny: firma spodziewała się takich ruchów, ma w rękawie wietnamskie fabryki, a wkrótce uruchomi linie montażowe na amerykańskiej ziemi.

    Amerykański ban to nie jest problem pojedynczych marek, ale potężne wyzwanie logistyczne dla całego świata technologii. Jak zauważa TP-Link w swoim oficjalnym stanowisku, najnowsza decyzja FCC, dotycząca nowych urządzeń, które nie uzyskały jeszcze certyfikacji na rynku amerykańskim, może mieć istotny wpływ na cały segment routerów konsumenckich.

    Trzęsienie ziemi na rynku sieciowym. Stany Zjednoczone zakazują importu zagranicznych routerów Wi-Fi

    Globalny łańcuch dostaw pod lupą

    Dlaczego nowe wytyczne są tak problematyczne dla branży? Powód jest prozaiczny. Zdecydowana większość producentów – w tym także firmy amerykańskie – opiera produkcję na globalnych łańcuchach dostaw i wytwarza urządzenia poza Stanami Zjednoczonymi. W praktyce oznacza to, że nowe regulacje nie dotyczą wyłącznie pojedynczych firm, lecz wyznaczają nowe standardy dla całej branży.

    Zamiast jednak narzekać na zaostrzone przepisy, azjatycki producent upatruje w nich szansy na uporządkowanie rynku. Firma oficjalnie ocenia te działania jako krok w kierunku zwiększenia poziomu bezpieczeństwa i transparentności w sektorze urządzeń sieciowych.

    Wietnamskie zaplecze i amerykański sen

    Spokój giganta nie bierze się znikąd. Przedsiębiorstwo deklaruje, że pozostaje pewne bezpieczeństwa swojego łańcucha dostaw i jest bardzo dobrze przygotowane na funkcjonowanie w nowych realiach regulacyjnych.

    Odpowiedzią na amerykańskie blokady jest dywersyfikacja produkcji, która trwa już od jakiegoś czasu. Firma rozwija globalne zaplecze produkcyjne, w tym własne zakłady w Wietnamie. Najciekawiej brzmi jednak inna obietnica – marka planuje uruchomienie produkcji w Stanach Zjednoczonych, uzupełniającej istniejącą strukturę operacyjną.

    Ogromna skala działalności i odpowiednio wczesne przenoszenie fabryk poza zapalne terytoria sprawiają, że TP-Link znajduje się wśród najlepiej przygotowanych producentów do spełnienia nowych wymogów regulacyjnych. Wygląda na to, że dla niektórych nowe prawo to potężny problem rynkowy, a dla innych – doskonała okazja do ucieczki konkurencji i udowodnienia swojej odporności na geopolityczne zawirowania.

    #banFCCRoutery #bezpieczeństwoSieci #FCC #łańcuchDostaw #produkcjaWUSA #regulacjeTechnologiczne #routeryTPLink #rynekIT #sprzętSieciowy #TPLINK #zakładyWWietnamie