home.social

#gemini3 — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #gemini3, aggregated by home.social.

  1. Google chwali się rekordami przed I/O 2026. Użytkownicy masowo kupują YouTube Premium i dostęp do AI

    Sztuczna inteligencja wreszcie przestaje być wyłącznie obciążeniem dla serwerów, a staje się potężną maszyną do zarabiania pieniędzy.

    Z najnowszego raportu finansowego firmy Alphabet wyłania się obraz giganta, który opanował koszty obsługi zaawansowanych algorytmów i skutecznie przekonał internautów do płacenia za swoje usługi. Zbliżająca się wielkimi krokami konferencja Google I/O 2026 zapowiada się niezwykle interesująco.

    Mniej opóźnień, niższe koszty i rewolucja w wyszukiwarce

    Konferencja I/O to najważniejsze wydarzenie w kalendarzu Google, a jej tegoroczna edycja wystartuje już za niespełna trzy tygodnie. CEO firmy, Sundar Pichai, zdradził, że głównym tematem będzie dalsza ewolucja flagowego produktu – wyszukiwarki. Mimo naszpikowania strony z wynikami funkcjami sztucznej inteligencji, inżynierom udało się zmniejszyć opóźnienia systemu o ponad 35 procent w ciągu ostatnich pięciu lat.

    Procesor w Pixel 11 zapowiada się na festiwal skrajności. Genialne CPU i rozczarowujące GPU

    Co znacznie ważniejsze z biznesowego punktu widzenia, aktualizacja mechanizmów AI do nowej wersji Gemini 3 pozwoliła obciąć koszty generowania odpowiedzi przez sztuczną inteligencję o ponad 30 procent. To kluczowy przełom, bo astronomiczne zapotrzebowanie na moc obliczeniową było do tej pory największą barierą w rozwoju AI. Według zapowiedzi CEO, teraz Google skupi się na rozwoju modeli fundamentowych, autonomicznych agentów oraz algorytmów zdolnych do samodzielnego programowania.

    Subskrypcje nową żyłą złota i mocne wejście w sprzęt

    Wielkim wygranym pierwszego kwartału 2026 roku okazały się płatne usługi. Google poinformowało o największym od 2018 roku kwartalnym wzroście liczby pełnoprawnych subskrybentów YouTube Music oraz YouTube Premium. Doskonale sprzedają się również płatne plany konsumenckiego AI, napędzane popularnością dedykowanej aplikacji Gemini. W efekcie Google posiada już 350 milionów płacących użytkowników – to skok o gigantyczne 25 milionów subskrypcji w zaledwie kilka miesięcy. To wyraźny znak, że użytkownicy ostatecznie oswoili się z modelem abonamentowym w internecie.

    Na tym jednak nie koniec rynkowych roszad. Gigant z Mountain View oficjalnie wchodzi na rynek hardware’u dla centrów danych i rozpoczyna sprzedaż własnych procesorów TPU (Tensor Processing Unit). Układy trafią do wyselekcjonowanej grupy klientów: laboratoriów zajmujących się AI, firm finansowych i operatorów systemów wysokiej wydajności (HPC). Z punktu widzenia całej branży to strategiczny ruch – Google zamierza wykroić dla siebie lukratywny kawałek tortu sprzętowego i spróbować przełamać dotychczasowy monopol Nvidii.

    #Alphabet #Gemini3 #Google #GoogleIO2026 #procesoryTPU #SundarPichai #sztucznaInteligencja #wynikiFinansowe #YouTubePremium
  2. Koniec z klikaniem każdego buta z osobna. „Zaznacz, aby wyszukać” analizuje całe zdjęcia i trafia na Galaxy S26

    Google aktualizuje jedną ze swoich najbardziej przydatnych funkcji na Androidzie. „Zaznacz, aby wyszukać” (Circle to Search) przestaje skupiać się tylko na jednym elemencie i od teraz potrafi rozpoznać wiele obiektów na zdjęciu jednocześnie.

    Nowość napędzana modelem Gemini 3 debiutuje na smartfonach Samsung Galaxy S26 oraz Pixel 10.

    Seria Samsung Galaxy S26 oficjalnie. Exynos wraca do gry, Ultra z ekranem 6.9” i premiera Galaxy Buds4 – pierwsze wrażenia

    Do tej pory funkcja wizualnego wyszukiwania Google działała dość zero-jedynkowo – zaznaczałeś na ekranie buty, dostawałeś informacje o butach. Jeśli chciałeś sprawdzić też kurtkę i spodnie z tego samego zdjęcia, musiałeś powtarzać cały proces dla każdego elementu z osobna. Najnowsza aktualizacja całkowicie zmienia ten mechanizm.

    Multi-wyszukiwanie w praktyce

    Dzięki nowej wersji narzędzia, wystarczy obrysować lub zamazać całą stylizację (np. modelkę na zdjęciu z Instagrama), a system automatycznie rozłoży ją na czynniki pierwsze. Otrzymamy natychmiastowe wyniki wyszukiwania osobno dla butów, spodni, kurtki i torebki na jednym ekranie.

    Google podkreśla, że funkcja nie ogranicza się tylko do mody. Mechanizm zadziała podobnie w przypadku wyposażenia wnętrz (rozpoznawanie wielu mebli w jednym pokoju) czy przyrody (identyfikacja kilku różnych gatunków zwierząt na jednej fotografii). Wystarczy zapytać asystenta o to, co znajduje się na zaznaczonym obszarze.

    Gemini 3 pod maską

    Za analitykę tego procesu odpowiada model sztucznej inteligencji Gemini 3. Jak to działa od zaplecza technicznego? Zamiast szukać pojedynczego dopasowania obrazu, AI wykonuje tzw. rozdzielenie zapytań wizualnych.

    Model samodzielnie identyfikuje najważniejsze obiekty w zaznaczonym obszarze, uruchamia dla nich osobne, równoległe procesy wyszukiwania, a następnie scala zebrane dane w jedną, logiczną odpowiedź dla użytkownika.

    Wirtualna przymierzalnia (ale nie dla nas)

    Przy okazji Google pochwaliło się głębszą integracją funkcji wirtualnego przymierzania ubrań, która jest teraz dostępna bezpośrednio z poziomu Obiektywu Google i „Zaznacz, aby wyszukać”.

    Tu jednak musimy ostudzić entuzjazm. Jak to często bywa z nowościami od giganta z Mountain View, funkcja ta jest niedostępna na naszym rynku. Wirtualna przymierzalnia działa obecnie wyłącznie w sześciu państwach: USA, Kanadzie, Wielkiej Brytanii, Australii, Japonii oraz Indiach.

    Dostępność

    Ulepszone, wieloobiektowe wyszukiwanie w ramach funkcji „Zaznacz, aby wyszukać” trafia od dzisiaj ekskluzywnie na najnowsze flagowce – serię Samsung Galaxy S26 oraz serię Google Pixel 10. Producent zapowiada jednak, że w niedalekiej przyszłości nowość zostanie udostępniona na kolejnych urządzeniach z systemem Android.

    #circleToSearch #Gemini3 #GooglePixel10 #SamsungGalaxyS26 #sztucznaInteligencjaWAndroidzie #wirtualnaPrzymierzalniaGoogle #wyszukiwanieWizualneGoogle #ZaznaczAbyWyszukać
  3. Koniec z klikaniem każdego buta z osobna. „Zaznacz, aby wyszukać” analizuje całe zdjęcia i trafia na Galaxy S26

    Google aktualizuje jedną ze swoich najbardziej przydatnych funkcji na Androidzie. „Zaznacz, aby wyszukać” (Circle to Search) przestaje skupiać się tylko na jednym elemencie i od teraz potrafi rozpoznać wiele obiektów na zdjęciu jednocześnie.

    Nowość napędzana modelem Gemini 3 debiutuje na smartfonach Samsung Galaxy S26 oraz Pixel 10.

    Seria Samsung Galaxy S26 oficjalnie. Exynos wraca do gry, Ultra z ekranem 6.9” i premiera Galaxy Buds4 – pierwsze wrażenia

    Do tej pory funkcja wizualnego wyszukiwania Google działała dość zero-jedynkowo – zaznaczałeś na ekranie buty, dostawałeś informacje o butach. Jeśli chciałeś sprawdzić też kurtkę i spodnie z tego samego zdjęcia, musiałeś powtarzać cały proces dla każdego elementu z osobna. Najnowsza aktualizacja całkowicie zmienia ten mechanizm.

    Multi-wyszukiwanie w praktyce

    Dzięki nowej wersji narzędzia, wystarczy obrysować lub zamazać całą stylizację (np. modelkę na zdjęciu z Instagrama), a system automatycznie rozłoży ją na czynniki pierwsze. Otrzymamy natychmiastowe wyniki wyszukiwania osobno dla butów, spodni, kurtki i torebki na jednym ekranie.

    Google podkreśla, że funkcja nie ogranicza się tylko do mody. Mechanizm zadziała podobnie w przypadku wyposażenia wnętrz (rozpoznawanie wielu mebli w jednym pokoju) czy przyrody (identyfikacja kilku różnych gatunków zwierząt na jednej fotografii). Wystarczy zapytać asystenta o to, co znajduje się na zaznaczonym obszarze.

    Gemini 3 pod maską

    Za analitykę tego procesu odpowiada model sztucznej inteligencji Gemini 3. Jak to działa od zaplecza technicznego? Zamiast szukać pojedynczego dopasowania obrazu, AI wykonuje tzw. rozdzielenie zapytań wizualnych.

    Model samodzielnie identyfikuje najważniejsze obiekty w zaznaczonym obszarze, uruchamia dla nich osobne, równoległe procesy wyszukiwania, a następnie scala zebrane dane w jedną, logiczną odpowiedź dla użytkownika.

    Wirtualna przymierzalnia (ale nie dla nas)

    Przy okazji Google pochwaliło się głębszą integracją funkcji wirtualnego przymierzania ubrań, która jest teraz dostępna bezpośrednio z poziomu Obiektywu Google i „Zaznacz, aby wyszukać”.

    Tu jednak musimy ostudzić entuzjazm. Jak to często bywa z nowościami od giganta z Mountain View, funkcja ta jest niedostępna na naszym rynku. Wirtualna przymierzalnia działa obecnie wyłącznie w sześciu państwach: USA, Kanadzie, Wielkiej Brytanii, Australii, Japonii oraz Indiach.

    Dostępność

    Ulepszone, wieloobiektowe wyszukiwanie w ramach funkcji „Zaznacz, aby wyszukać” trafia od dzisiaj ekskluzywnie na najnowsze flagowce – serię Samsung Galaxy S26 oraz serię Google Pixel 10. Producent zapowiada jednak, że w niedalekiej przyszłości nowość zostanie udostępniona na kolejnych urządzeniach z systemem Android.

    #circleToSearch #Gemini3 #GooglePixel10 #SamsungGalaxyS26 #sztucznaInteligencjaWAndroidzie #wirtualnaPrzymierzalniaGoogle #wyszukiwanieWizualneGoogle #ZaznaczAbyWyszukać
  4. LLMs contain a LOT of parameters. But what’s a parameter? – MIT Technology Review

    Artificial intelligence

    LLMs contain a LOT of parameters. But what’s a parameter?

    They’re the mysterious numbers that make your favorite AI models tick. What are they and what do they do?

    By Will Douglas Heavenarchive page

    January 7, 2026

    Photo Illustration by Sarah Rogers/MITTR | Photos Getty

    MIT Technology Review Explains: Let our writers untangle the complex, messy world of technology to help you understand what’s coming next. You can read more from the series here.

    I am writing this because one of my editors woke up in the middle of the night and scribbled on a bedside notepad: “What is a parameter?” Unlike a lot of thoughts that hit at 4 a.m., it’s a really good question—one that goes right to the heart of how large language models work. And I’m not just saying that because he’s my boss. (Hi, Boss!)

    A large language model’s parameters are often said to be the dials and levers that control how it behaves. Think of a planet-size pinball machine that sends its balls pinging from one end to the other via billions of paddles and bumpers set just so. Tweak those settings and the balls will behave in a different way.  

    OpenAI’s GPT-3, released in 2020, had 175 billion parameters. Google DeepMind’s latest LLM, Gemini 3, may have at least a trillion—some think it’s probably more like 7 trillion—but the company isn’t saying. (With competition now fierce, AI firms no longer share information about how their models are built.)

    But the basics of what parameters are and how they make LLMs do the remarkable things that they do are the same across different models. Ever wondered what makes an LLM really tick—what’s behind the colorful pinball-machine metaphors? Let’s dive in.  

    What is a parameter?

    Think back to middle school algebra, like 2a + b. Those letters are parameters: Assign them values and you get a result. In math or coding, parameters are used to set limits or determine output. The parameters inside LLMs work in a similar way, just on a mind-boggling scale. 

    Editor’s Note: Read the rest of the story, at the below link.

     

    Continue/Read Original Article Here: LLMs contain a LOT of parameters. But what’s a parameter? | MIT Technology Review

    Tags: Billions?, DeepMind, Gemini 3, Google, Large Language Models, LLMs, Lots of Parameters, MIT Technology Review, Parameter, Trillions?
    #Billions #DeepMind #Gemini3 #Google #LargeLanguageModels #LLMs #LotsOfParameters #MITTechnologyReview #Parameter #Trillions
  5. LLMs contain a LOT of parameters. But what’s a parameter? – MIT Technology Review

    Artificial intelligence

    LLMs contain a LOT of parameters. But what’s a parameter?

    They’re the mysterious numbers that make your favorite AI models tick. What are they and what do they do?

    By Will Douglas Heavenarchive page

    January 7, 2026

    Photo Illustration by Sarah Rogers/MITTR | Photos Getty

    MIT Technology Review Explains: Let our writers untangle the complex, messy world of technology to help you understand what’s coming next. You can read more from the series here.

    I am writing this because one of my editors woke up in the middle of the night and scribbled on a bedside notepad: “What is a parameter?” Unlike a lot of thoughts that hit at 4 a.m., it’s a really good question—one that goes right to the heart of how large language models work. And I’m not just saying that because he’s my boss. (Hi, Boss!)

    A large language model’s parameters are often said to be the dials and levers that control how it behaves. Think of a planet-size pinball machine that sends its balls pinging from one end to the other via billions of paddles and bumpers set just so. Tweak those settings and the balls will behave in a different way.  

    OpenAI’s GPT-3, released in 2020, had 175 billion parameters. Google DeepMind’s latest LLM, Gemini 3, may have at least a trillion—some think it’s probably more like 7 trillion—but the company isn’t saying. (With competition now fierce, AI firms no longer share information about how their models are built.)

    But the basics of what parameters are and how they make LLMs do the remarkable things that they do are the same across different models. Ever wondered what makes an LLM really tick—what’s behind the colorful pinball-machine metaphors? Let’s dive in.  

    What is a parameter?

    Think back to middle school algebra, like 2a + b. Those letters are parameters: Assign them values and you get a result. In math or coding, parameters are used to set limits or determine output. The parameters inside LLMs work in a similar way, just on a mind-boggling scale. 

    Editor’s Note: Read the rest of the story, at the below link.

     

    Continue/Read Original Article Here: LLMs contain a LOT of parameters. But what’s a parameter? | MIT Technology Review

    Tags: Billions?, DeepMind, Gemini 3, Google, Large Language Models, LLMs, Lots of Parameters, MIT Technology Review, Parameter, Trillions?
    #Billions #DeepMind #Gemini3 #Google #LargeLanguageModels #LLMs #LotsOfParameters #MITTechnologyReview #Parameter #Trillions
  6. LLMs contain a LOT of parameters. But what’s a parameter? – MIT Technology Review

    Artificial intelligence

    LLMs contain a LOT of parameters. But what’s a parameter?

    They’re the mysterious numbers that make your favorite AI models tick. What are they and what do they do?

    By Will Douglas Heavenarchive page

    January 7, 2026

    Photo Illustration by Sarah Rogers/MITTR | Photos Getty

    MIT Technology Review Explains: Let our writers untangle the complex, messy world of technology to help you understand what’s coming next. You can read more from the series here.

    I am writing this because one of my editors woke up in the middle of the night and scribbled on a bedside notepad: “What is a parameter?” Unlike a lot of thoughts that hit at 4 a.m., it’s a really good question—one that goes right to the heart of how large language models work. And I’m not just saying that because he’s my boss. (Hi, Boss!)

    A large language model’s parameters are often said to be the dials and levers that control how it behaves. Think of a planet-size pinball machine that sends its balls pinging from one end to the other via billions of paddles and bumpers set just so. Tweak those settings and the balls will behave in a different way.  

    OpenAI’s GPT-3, released in 2020, had 175 billion parameters. Google DeepMind’s latest LLM, Gemini 3, may have at least a trillion—some think it’s probably more like 7 trillion—but the company isn’t saying. (With competition now fierce, AI firms no longer share information about how their models are built.)

    But the basics of what parameters are and how they make LLMs do the remarkable things that they do are the same across different models. Ever wondered what makes an LLM really tick—what’s behind the colorful pinball-machine metaphors? Let’s dive in.  

    What is a parameter?

    Think back to middle school algebra, like 2a + b. Those letters are parameters: Assign them values and you get a result. In math or coding, parameters are used to set limits or determine output. The parameters inside LLMs work in a similar way, just on a mind-boggling scale. 

    Editor’s Note: Read the rest of the story, at the below link.

     

    Continue/Read Original Article Here: LLMs contain a LOT of parameters. But what’s a parameter? | MIT Technology Review

    Tags: Billions?, DeepMind, Gemini 3, Google, Large Language Models, LLMs, Lots of Parameters, MIT Technology Review, Parameter, Trillions?
    #Billions #DeepMind #Gemini3 #Google #LargeLanguageModels #LLMs #LotsOfParameters #MITTechnologyReview #Parameter #Trillions
  7. LLMs contain a LOT of parameters. But what’s a parameter? – MIT Technology Review

    Artificial intelligence

    LLMs contain a LOT of parameters. But what’s a parameter?

    They’re the mysterious numbers that make your favorite AI models tick. What are they and what do they do?

    By Will Douglas Heavenarchive page

    January 7, 2026

    Photo Illustration by Sarah Rogers/MITTR | Photos Getty

    MIT Technology Review Explains: Let our writers untangle the complex, messy world of technology to help you understand what’s coming next. You can read more from the series here.

    I am writing this because one of my editors woke up in the middle of the night and scribbled on a bedside notepad: “What is a parameter?” Unlike a lot of thoughts that hit at 4 a.m., it’s a really good question—one that goes right to the heart of how large language models work. And I’m not just saying that because he’s my boss. (Hi, Boss!)

    A large language model’s parameters are often said to be the dials and levers that control how it behaves. Think of a planet-size pinball machine that sends its balls pinging from one end to the other via billions of paddles and bumpers set just so. Tweak those settings and the balls will behave in a different way.  

    OpenAI’s GPT-3, released in 2020, had 175 billion parameters. Google DeepMind’s latest LLM, Gemini 3, may have at least a trillion—some think it’s probably more like 7 trillion—but the company isn’t saying. (With competition now fierce, AI firms no longer share information about how their models are built.)

    But the basics of what parameters are and how they make LLMs do the remarkable things that they do are the same across different models. Ever wondered what makes an LLM really tick—what’s behind the colorful pinball-machine metaphors? Let’s dive in.  

    What is a parameter?

    Think back to middle school algebra, like 2a + b. Those letters are parameters: Assign them values and you get a result. In math or coding, parameters are used to set limits or determine output. The parameters inside LLMs work in a similar way, just on a mind-boggling scale. 

    Editor’s Note: Read the rest of the story, at the below link.

     

    Continue/Read Original Article Here: LLMs contain a LOT of parameters. But what’s a parameter? | MIT Technology Review

    #Billions #DeepMind #Gemini3 #Google #LargeLanguageModels #LLMs #LotsOfParameters #MITTechnologyReview #Parameter #Trillions
  8. LLMs contain a LOT of parameters. But what’s a parameter? – MIT Technology Review

    Artificial intelligence

    LLMs contain a LOT of parameters. But what’s a parameter?

    They’re the mysterious numbers that make your favorite AI models tick. What are they and what do they do?

    By Will Douglas Heavenarchive page

    January 7, 2026

    Photo Illustration by Sarah Rogers/MITTR | Photos Getty

    MIT Technology Review Explains: Let our writers untangle the complex, messy world of technology to help you understand what’s coming next. You can read more from the series here.

    I am writing this because one of my editors woke up in the middle of the night and scribbled on a bedside notepad: “What is a parameter?” Unlike a lot of thoughts that hit at 4 a.m., it’s a really good question—one that goes right to the heart of how large language models work. And I’m not just saying that because he’s my boss. (Hi, Boss!)

    A large language model’s parameters are often said to be the dials and levers that control how it behaves. Think of a planet-size pinball machine that sends its balls pinging from one end to the other via billions of paddles and bumpers set just so. Tweak those settings and the balls will behave in a different way.  

    OpenAI’s GPT-3, released in 2020, had 175 billion parameters. Google DeepMind’s latest LLM, Gemini 3, may have at least a trillion—some think it’s probably more like 7 trillion—but the company isn’t saying. (With competition now fierce, AI firms no longer share information about how their models are built.)

    But the basics of what parameters are and how they make LLMs do the remarkable things that they do are the same across different models. Ever wondered what makes an LLM really tick—what’s behind the colorful pinball-machine metaphors? Let’s dive in.  

    What is a parameter?

    Think back to middle school algebra, like 2a + b. Those letters are parameters: Assign them values and you get a result. In math or coding, parameters are used to set limits or determine output. The parameters inside LLMs work in a similar way, just on a mind-boggling scale. 

    Editor’s Note: Read the rest of the story, at the below link.

     

    Continue/Read Original Article Here: LLMs contain a LOT of parameters. But what’s a parameter? | MIT Technology Review

    #Billions #DeepMind #Gemini3 #Google #LargeLanguageModels #LLMs #LotsOfParameters #MITTechnologyReview #Parameter #Trillions
  9. Alphabet’s stock jumped 13.9% in November as its AI innovations, including Gemini 3 and custom TPUs, boost investor confidence despite regulatory pressures

    #Alphabet #Google #AI #Gemini3 #TechStocks #InvestorConfidence #AIInnovation #Semiconductors #TechNews #MarketTrends #TECHi

    Read Full Article Here :- techi.com/alphabet-stock-surge

  10. Anthropic prezentuje Claude Opus 4.5. Nowy król kodowania jest tańszy i ma lepszą pamięć

    Anthropic nie zwalnia tempa i oficjalnie wprowadza na rynek swój nowy flagowy model – Claude Opus 4.5.

    Aktualizacja przynosi znaczący skok wydajności, zwłaszcza w zadaniach programistycznych, a także rozwiązuje jeden z największych problemów użytkowych poprzednich wersji. Co istotne dla deweloperów, nowy model jest znacznie tańszy w eksploatacji niż jego poprzednik.

    Koniec z „uciętymi” rozmowami

    Dla przeciętnego użytkownika korzystającego z aplikacji Claude (web, mobile, desktop), najważniejszą zmianą jest nowy sposób zarządzania pamięcią konwersacji. Dotychczas, po przekroczeniu limitu okna kontekstowego (200 000 tokenów), Claude po prostu ucinał rozmowę, uniemożliwiając jej kontynuowanie. Było to frustrujące, zwłaszcza w długich sesjach roboczych.

    Wraz z premierą Opus 4.5 (zmiana ta dotyczy wszystkich modeli w aplikacjach), Anthropic wprowadza mechanizm inteligentnego podsumowywania. Gdy rozmowa zbliża się do limitu, system „w tle” skróci starsze wątki, zachowując kluczowe informacje, a odrzucając zbędne detale. Dzięki temu konwersacja może trwać znacznie dłużej bez utraty spójności.

    Lepszy od GPT-5.1 i Gemini 3

    Opus 4.5 to pierwszy model, który przekroczył barierę 80 proc. dokładności w prestiżowym benchmarku programistycznym SWE-bench Verified, osiągając wynik 80,9 proc. Tym samym zdetronizował on niedawno wydane modele konkurencji: GPT-5.1-Codex-Max od OpenAI (77,9 proc.) oraz Gemini 3 Pro od Google (76,2 proc.). Choć Claude nadal ustępuje rywalom w rozumowaniu wizualnym, w zadaniach związanych z kodowaniem i używaniem narzędzi (agentic tool use) wysuwa się na prowadzenie.

    Niższe ceny i nowości dla deweloperów

    Anthropic zdecydował się na agresywną politykę cenową. Dostęp do API Opus 4.5 kosztuje teraz 5 dolarów za milion tokenów wejściowych i 25 dolarów za wyjściowe. To drastyczna obniżka względem poprzednika, który kosztował odpowiednio 15 i 75 dolarów.

    Dodatkowo, środowisko Claude Code, wcześniej dostępne głównie przez linię komend, trafiło natywnie do aplikacji desktopowych. Nowy interfejs pozwala na wygodne przełączanie się między tradycyjnym czatem a środowiskiem programistycznym w kartach. Deweloperzy otrzymali też nowy parametr „effort”, pozwalający precyzyjnie balansować między dokładnością modelu a zużyciem tokenów.

    Sojusz tytanów AI. Microsoft, Nvidia i Anthropic wchodzą w układ za 30 mld dolarów. Koniec przewagi OpenAI?

    #aiSi #anthropic #claude #gemini3 #gpt51 #news #opus45 #programowanie #sztucznaInteligencja