#centradanych — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #centradanych, aggregated by home.social.
-
Centra danych to serce rewolucji AI! 🚀 Napędzają innowacje, ale szybki rozwój niesie też nowe wyzwania. Jak ukształtują przyszłość? Sprawdź: https://implementi.ai/pl/2026/05/08/latest-updates-on-ai-data-centers/ #AI #CentraDanych
-
#WhatTheFoxSays #Podcast #Technologia #AI #SztucznaInteligencja #EnergiaOdnawialna #FarmaWiatrowa #Kosmos #CentraDanych #StarCloud #ElevenLabs #IBM #OpenAI #Sora #ElektryczneSamochody #MG4 #Volkswagen #Rewolut #Linux #Francja #Kawa #Nauka #Innowacje
https://wtfs.stream/@what_the_fox_says/episodes/odcinek-motoryzacyjny
-
https://www.europesays.com/pl/358730/ Intel Foundry stawia na technologię GaN-on-Silicon. 19 mikrometrów, 300 mm i nowy ruch w zasilaniu układów AI #ai #AzotekGalu #CentraDanych #chiplet #gan #Imec #Intel #IntelFoundry #Nauka #NaukaITechnika #NaukaTechnika #PL #Poland #Polish #Polska #Polski #półprzewodniki #Science #ScienceAndTechnology #ScienceTechnology #Technika #Technology #tsmc
-
Meta stawia na atom. Gigantyczna inwestycja w energię dla systemów AI
Spółka macierzysta Facebooka i Instagrama ogłosiła zawarcie serii umów, które mają zapewnić jej dostęp do nawet 6,6 GW energii jądrowej.
Meta nawiązała współpracę z firmami Vistra, TerraPower oraz Oklo, aby zasilić swoje energochłonne centra danych, stanowiące fundament dla rozwoju sztucznej inteligencji. Plan zakłada zarówno wsparcie istniejących elektrowni, jak i budowę nowoczesnych reaktorów nowej generacji.
Decyzja technologicznego giganta podyktowana jest rosnącym zapotrzebowaniem na stabilną energię elektryczną, niezbędną do trenowania i obsługi modeli AI. Jak wynika z komunikatu, ambicją firmy jest stworzenie „osobistej superinteligencji”, co wymaga infrastruktury o niespotykanej dotąd skali. W przeciwieństwie do źródeł odnawialnych zależnych od pogody, energetyka jądrowa zapewnia stałe dostawy prądu (tzw. base load), co jest kluczowe dla ciągłości pracy serwerowni.
Reanimacja starych bloków i zwiększenie mocy
W ramach umowy z firmą Vistra, Meta sfinansuje przedłużenie żywotności oraz modernizację trzech działających elektrowni jądrowych: Perry i Davis-Besse w Ohio oraz Beaver Valley w Pensylwanii.
Porozumienie przewiduje nie tylko zakup 2,1 GW energii, ale także inwestycje w tzw. uprating, czyli techniczne zwiększenie mocy reaktorów. Dzięki temu do początku lat 30. do sieci w regionie PJM (obsługującym wschodnie stany USA) trafi dodatkowe 433 MW mocy, zasilając między innymi superklaster obliczeniowy Prometheus.
Inwestycja w technologie przyszłości
Meta nie ogranicza się do konwencjonalnego atomu. Umowa z TerraPower zakłada budowę dwóch jednostek typu Natrium o łącznej mocy 690 MW, które mają zostać oddane do użytku już w 2032 roku. Firma zapewniła sobie również prawo do energii z sześciu kolejnych planowanych jednostek, co łącznie może dać 2,8 GW mocy do 2035 roku. Technologia Natrium łączy reaktory na prędkich neutronach z magazynami soli stopionej, co pozwala na elastyczne zarządzanie produkcją energii.
Równolegle rozwijana będzie współpraca z firmą Oklo, specjalizującą się w małych reaktorach (SMR). W hrabstwie Pike w stanie Ohio powstać ma kampus energetyczny, który może dostarczyć do 1,2 GW czystej energii. Pierwsze reaktory Aurora Powerhouse, oparte na technologii powielającej paliwo, mają rozpocząć pracę około 2030 roku. Jest to jeden z największych korporacyjnych zakupów energii jądrowej w historii USA, co potwierdza, że Big Tech staje się de facto jednym z głównych rozgrywających na rynku energetycznym.
#centraDanych #energiaJądrowa #Meta #news #Oklo #reaktorySMR #sztucznaInteligencja #TerraPower #Vistra
-
AI jest tak głodne energii, że nakarmimy je… silnikami naddźwiękowymi. Boom Supersonic wchodzi na ląd
Sztuczna inteligencja pożera prąd w takim tempie, że konwencjonalne sieci energetyczne przestają wystarczać.
Z odsieczą przychodzi firma, która miała budować następcę Concorde’a. Jej silniki odrzutowe, zanim wzbiją się w powietrze, trafią do serwerowni.
Jesse Orrall z CNET donosi o zaskakującym zwrocie akcji w strategii firmy Boom Supersonic. Znana z prac nad samolotem pasażerskim Overture (który ma latać z prędkością naddźwiękową), firma ogłosiła projekt „Superpower”.
Turbina w serwerowni
Pomysł jest genialny w swojej prostocie. Boom wziął swój autorski silnik lotniczy „Symphony”, zmodyfikował go i postawił na ziemi jako generator prądu dla centrów danych AI. Dlaczego to ma sens?
Moc: centra danych potrzebują gigantycznych, stabilnych źródeł zasilania, niezależnych od kapryśnej sieci miejskiej. Turbiny gazowe/odrzutowe świetnie się do tego nadają (są kompaktowe i potężne).
Testy: zanim wsadzisz silnik do samolotu z pasażerami, musisz go przetestować przez tysiące godzin. Używając go w serwerowniach, Boom „dociera” technologię w bezpiecznych warunkach, zarabiając na tym pieniądze.
Paliwo dla Overture
CEO firmy, Blake Scholl, nie ukrywa, że to sposób na sfinansowanie marzeń o lataniu. Budowa naddźwiękowego liniowca to kosztowna zabawa. Sprzedaż turbin dla pęczniejącego rynku AI (który płaci każdą cenę za dostępność mocy) zapewni strumień gotówki potrzebny do dokończenia prac nad samolotem Overture. Na loty pasażerskie poczekamy jeszcze około 5 lat. Ale Twoje zapytanie do ChatGPT być może już wkrótce zostanie przetworzone dzięki energii z naddźwiękowej turbiny.
#AI #boomSupersonic #centraDanych #energetyka #Overture #sztucznaInteligencja #technologiaLotnicza
-
Polski Goodram rzuca wyzwanie gigantom. Pokazali dysk SSD o pojemności 122 TB, który… lubi pływać
Kiedy myślimy o rekordach w świecie pamięci masowych, zazwyczaj patrzymy w stronę Korei lub USA. Tymczasem polski Wilk Elektronik (właściciel marki Goodram) właśnie wyłożył na stół produkt, który deklasuje konkurencję w bardzo specyficznej i wymagającej niszy.
Mowa o dysku SSD o pojemności niemal 123 TB, zaprojektowanym specjalnie do pracy w zanurzeniu. Informacja, która dość nieśmiało przebija się w mediach, jest istotniejsza, niż może się wydawać. Nie chodzi tylko o absurdalnie wielką pojemność (122,88 TB na jednym nośniku wciąż robi wrażenie), ale o przeznaczenie tego sprzętu.
Wilk… serwerowy
W dobie sztucznej inteligencji centra danych mają gigantyczny problem: temperaturę. Tradycyjne wiatraki przestają wystarczać do chłodzenia szaf rackowych napakowanych układami scalonymi. Przyszłością jest immersion cooling, czyli zanurzanie całej elektroniki w specjalnych cieczach dielektrycznych (nieprzewodzących prądu), produkowanych m.in. przez Shell czy Chevron.
Problem w tym, że nie każdy sprzęt to lubi. Kleje mogą się rozpuszczać, uszczelki puszczać. I tu wchodzi Goodram. Ich nowy dysk w formacie E3.S oraz E3.L został od podstaw zaprojektowany tak, by pracować w bezpośrednim kontakcie z chłodziwem.
Specyfikacja wagi ciężkiej
Polski nośnik to potwór wydajnościowy klasy Enterprise:
- Pojemność: 122,88 TB.
- Interfejs: PCIe 5.0 (najnowszy standard).
- Technologia: pamięci QLC NAND (zapewniające dużą gęstość danych).
- Prędkość: odczyt sekwencyjny 14,6 GB/s.
Zapis na poziomie 3,2 GB/s może wydawać się niższy, ale w tej klasie dysków (tzw. read-intensive) to standard. Służą one do przechowywania gigantycznych modeli AI czy baz danych, które są bardzo często odczytywane, a rzadziej nadpisywane.
To, że polska firma z Łazisk Górnych jest w stanie zaoferować produkt naprawdę światowej klasy w tak hermetycznej i zaawansowanej kategorii jak chłodzenie cieczą, to powód do dumy. Goodram udowadnia, że nie jest już tylko producentem pendrive’ów z biedronkowego kosza, ale graczem, z którym liczy się wielki biznes.
#centraDanych #goodram #immersionCooling #PCIe50 #polskieTechnologie #SSD122TB #WilkElektronikWD Blue SN5100 NVMe SSD wchodzi do Polski. Sandisk obiecuje wyższą wydajność dla twórców
-
Koszty boomu AI zaczynają obciążać centra danych i infrastrukturę
Dynamiczny rozwój sztucznej inteligencji przekracza dziś granice czystego oprogramowania.
W świecie, w którym modele generatywne stają się codziennym narzędziem biznesu, a globalne firmy wydają miliardy na infrastrukturę, koszty operacyjne związane z centrami danych rosną szybciej niż kiedyś sądzono.
Od lat centra danych stanowią podstawę cyfrowej gospodarki. Początkowo służyły głównie do przechowywania i obsługi tradycyjnych aplikacji internetowych. Dziś jednak ich rola diametralnie się zmienia. Sztuczna inteligencja, zwłaszcza duże modele językowe i aplikacje generatywne, wymagają olbrzymiej mocy obliczeniowej i stałego zasilania — zarówno w fazie trenowania, jak i w fazie działania, co przekłada się na dramatyczny wzrost zużycia energii.
Według szacunków branżowych, centra danych już pochłaniają znaczącą część krajowego zapotrzebowania energetycznego w niektórych gospodarkach rozwiniętych. W Stanach Zjednoczonych i Europie liczba nowych inwestycji danych wzrosła w ostatnich latach o kilkadziesiąt procent rocznie, a w modelach prognozowanych na kolejne lata tempo to wciąż utrzymuje się na wysokim poziomie.
To z kolei rodzi kilka kluczowych wyzwań:
- infrastrukturalne: budowa i utrzymanie ośrodków serwerowych wiąże się z ogromnymi kosztami inwestycyjnymi,
- energetyczne: centra danych wymagają stabilnych i wydajnych źródeł energii, co w praktyce oznacza presję na sieci elektroenergetyczne i konieczność inwestowania w odnawialne źródła energii,
- ekonomiczne: rosnące rachunki za energię i chłodzenie stają się istotnym czynnikiem kosztotwórczym dla firm technologicznych.
Eksperci zwracają uwagę, że dziś energia i infrastruktura stają się głównymi ograniczeniami rozwoju AI — podobnie jak kiedyś był to brak szybkich procesorów czy pamięci. W praktyce oznacza to konieczność przemyślenia strategii energetycznych w dużych korporacjach, a także wzrost znaczenia rozwiązań takich jak chłodzenie cieczą, lokalne mikrogridy czy integracja z farmami wiatrowymi i słonecznymi.
„Atomy dla algorytmów”. Administracja Trumpa chce oddać elektrownie jądrowe w ręce AI
To zagadnienie dobrze łączy się z wcześniejszymi analizami publikowanymi w iMagazine, w których wskazywaliśmy, że energia staje się jednym z najważniejszych czynników rozwoju sztucznej inteligencji — od polityki energetycznej USA po przyszłość miksu energetycznego w gospodarce cyfrowej. Okazuje się, że cyfrowa transformacja nie jest już tylko procesem technologicznym, ale także energetycznym i infrastrukturalnym.
W perspektywie średnioterminowej wyzwaniem dla branży będzie znalezienie równowagi między popytem na moc obliczeniową a efektywnym wykorzystaniem zasobów — tam, gdzie technologia i infrastruktura muszą iść w parze, by AI mogła się dalej rozwijać bez nadmiernego obciążania sieci energetycznych i środowiska.
Sztuczna inteligencja na węglowej kroplówce. Przyszłość technologii napędza energia z przeszłości
#AIEnergetyka #AIObciążenia #centraDanych #chłodzenieSerwerów #dataCenters #energiaOdnawialna #kosztyInfrastruktury #news #sztucznaInteligencja
-
📰 Polecam tekst @didleth dla Okopress:
"Jeden Palantir, by wszystkimi rządzić. Tolkien, CIA i europejska suwerenność
Czy Europa, w tym i Polska, powinna uzależniać się od korporacji powiązanej z amerykańskim wywiadem? Palantir może umożliwić obcym służbom wgląd w intymne szczegóły życia nieświadomych tego faktu Europejczyków"
https://oko.press/jeden-palantir-by-wszystkimi-rzadzic-tolkien-cia-i-europejska-suwerennosc
#Policja #Służby #BigTech #Inwigilacja #CentraDanych #Analizy #Sondaże #Świat #PrawaCzłowieka #Bezpieczeństwo
-
Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI
Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.
Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.
Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.
Wyścig zbrojeń i braki sprzętowe
Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.
Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.
Własny krzem sposobem na kryzys
Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.
Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.
Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.
#aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu
-
Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI
Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.
Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.
Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.
Wyścig zbrojeń i braki sprzętowe
Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.
Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.
Własny krzem sposobem na kryzys
Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.
Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.
Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.
#aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu
-
Google alarmuje pracowników: musimy podwajać moc obliczeniową co 6 miesięcy, by nadążyć za AI
Podczas gdy rynek debatuje nad potencjalnym pęknięciem „bańki AI” i ryzykiem przeinwestowania, wewnętrzna narracja w Google wskazuje na zupełnie inny problem: infrastruktura nie nadąża za popytem.
Amin Vahdat, szef infrastruktury AI w Google, podczas ogólnofirmowego spotkania przekazał pracownikom, że firma musi podwajać swoje moce obsługowe co sześć miesięcy, aby sprostać zapotrzebowaniu na usługi sztucznej inteligencji.
Według slajdów zaprezentowanych przez Vahdata, Google stoi przed wyzwaniem zwiększenia skali działania o 1000 razy w ciągu najbliższych 4–5 lat. Co istotne, ten gigantyczny skok wydajności, mocy obliczeniowej i przepustowości sieci musi zostać osiągnięty przy zachowaniu niemal tych samych kosztów i, co jeszcze trudniejsze, przy tym samym poziomie zużycia energii.
Wyścig zbrojeń i braki sprzętowe
Google nie jest osamotnione w tych zmaganiach. Konkurencyjne OpenAI, we współpracy z SoftBankiem i Oracle, planuje budowę sześciu ogromnych centrów danych w USA, angażując ponad 400 miliardów dolarów w ciągu trzech lat, aby osiągnąć prawie 7 gigawatów mocy. OpenAI boryka się z podobnymi ograniczeniami przy obsłudze 800 milionów użytkowników tygodniowo, gdzie nawet płacący subskrybenci napotykają limity użycia.
Wąskim gardłem pozostaje dostępność sprzętu. Nvidia ogłosiła niedawno, że jej chipy AI są całkowicie „wyprzedane”, a przychody z centrów danych wzrosły o 10 miliardów dolarów w jednym kwartale. Te braki mają realny wpływ na produkty Google. CEO firmy, Sundar Pichai, przyznał, że narzędzie do generowania wideo, Veo, nie mogło trafić do szerszego grona użytkowników aplikacji Gemini właśnie ze względu na ograniczenia mocy obliczeniowej.
Własny krzem sposobem na kryzys
Aby sprostać tym wyzwaniom bez polegania wyłącznie na Nvidii, Google stawia na własne układy scalone. Firma ogłosiła ogólną dostępność siódmej generacji procesorów Tensor Processing Unit (TPU) o nazwie Ironwood. Google twierdzi, że są one prawie 30 razy bardziej energooszczędne niż pierwsze Cloud TPU z 2018 roku. Strategia firmy opiera się na trzech filarach: rozbudowie fizycznej infrastruktury, tworzeniu wydajniejszych modeli AI oraz projektowaniu własnych chipów.
Mimo obaw o „bańkę”, Sundar Pichai stwierdził, że ryzyko niedoinwestowania przewyższa ryzyko nadmiarowych mocy, ostrzegając jednocześnie pracowników, że rok 2026 będzie pod tym względem bardzo „intensywny”.
Quick Share z Pixel 10 zaczyna współpracować z AirDrop. Piekło zamarzło.
#aiSi #centraDanych #google #news #nvidia #openai #sztucznaInteligencja #tpu
-
Anthropic inwestuje miliardy w układy Google TPU. To strategiczny zwrot w wyścigu zbrojeń AI
Anthropic, główny konkurent OpenAI i twórca rodziny modeli Claude, ogłosił gigantyczną rozbudowę swojej infrastruktury.
Firma planuje wdrożyć nawet milion specjalistycznych układów AI Google Cloud TPU, w ramach umowy wartej dziesiątki miliardów dolarów. Ten ruch to jeden z największych jednorazowych zakupów akceleratorów AI w historii i sygnalizuje strategiczne zmiany w tym, jak budowane są systemy AI na masową skalę.
Rozbudowa, która ma dodać ponad gigawat mocy obliczeniowej w 2026 roku, jest bezpośrednią odpowiedzią na lawinowy wzrost zapotrzebowania na usługi Anthropic. Firma obsługuje już ponad 300 000 klientów biznesowych, a liczba dużych kontraktów (o wartości ponad 100 000 USD rocznie) wzrosła siedmiokrotnie w ciągu ostatniego roku. Pokazuje to, że wdrażanie Claude w korporacjach przeszło z fazy eksperymentów do etapu produkcyjnego, gdzie niezawodność, koszt i wydajność infrastruktury nie podlegają negocjacjom.
Strategia wielu platform
Co najciekawsze, wielomiliardowa umowa z Google nie oznacza zerwania dotychczasowych sojuszy. Anthropic wyraźnie podkreśla, że prowadzi strategię „zdywersyfikowanych obliczeń”. Firma działa jednocześnie na trzech różnych platformach sprzętowych: układach TPU od Google, procesorach Trainium od Amazona oraz dominujących na rynku kartach GPU od Nvidii. Dyrektor finansowy Anthropic, Krishna Rao, potwierdził, że Amazon (AWS) pozostaje ich głównym partnerem chmurowym i szkoleniowym.
To pragmatyczne podejście pokazuje, że w świecie AI nie ma jednego uniwersalnego rozwiązania. Inne zasoby obliczeniowe są optymalne do trenowania gigantycznych modeli od zera, inne do ich późniejszego dostrajania (fine-tuning), a jeszcze inne do masowego i taniego serwowania odpowiedzi (inferencji). Dla liderów IT w korporacjach to jasny sygnał: budowanie długoterminowej strategii AI w oparciu o jednego dostawcę (vendor lock-in) staje się coraz bardziej ryzykowne.
Ekonomia skali i bezpieczeństwo
Według Google, Anthropic zdecydował się na tak dużą inwestycję w układy TPU ze względu na ich „wysoki stosunek ceny do wydajności”. Układy TPU (Tensor Processing Units), stworzone specjalnie do obliczeń sieci neuronowych, często oferują przewagę w przepustowości i efektywności energetycznej nad kartami GPU ogólnego przeznaczenia. Wzmianka o „gigawacie mocy” nie jest przypadkowa – przy tej skali, zużycie energii i koszty chłodzenia stają się równie krytyczne, jak sama cena chipów.
Anthropic mocno zaznacza również inny cel inwestycji. Tak ogromna moc obliczeniowa ma być przeznaczona na „dokładniejsze testowanie, badania nad bezpieczeństwem i wyrównaniem (alignment) oraz odpowiedzialne wdrażanie” modeli. W branży, w której Anthropic pozycjonuje się jako lider odpowiedzialnej AI, jest to kluczowa deklaracja, mająca budować zaufanie klientów z sektorów regulowanych, jak finanse czy opieka zdrowotna.
To posunięcie to kolejny etap wyścigu zbrojeń w infrastrukturze AI, w którym Anthropic ściga się z OpenAI (wspieranym przez Microsoft) i Metą. Zabezpieczając tak duże moce obliczeniowe u różnych dostawców, firma nie tylko zapewnia sobie ciągłość działania, ale także wysyła rynkowi sygnał, że era dominacji jednej architektury chipów AI może powoli dobiegać końca.
Anthropic uczy AI asertywności. Claude może teraz zakończyć rozmowę z użytkownikiem
#AI #AmazonAWS #Anthropic #centraDanych #Claude #dużeModeleJęzykowe #GoogleCloud #infrastrukturaAI #LLM #news #nvidia #sztucznaInteligencja #TPU
-
Nowy „układ nerwowy” dla AI. Meta i Oracle stawiają na NVIDIA Spectrum-X
Meta i Oracle ogłosiły, że wybrały platformę sieciową NVIDIA Spectrum-X do modernizacji swoich centrów danych przystosowanych do zadań sztucznej inteligencji.
To strategiczna decyzja, która ma na celu sprostanie gigantycznym wymaganiom obliczeniowym modeli AI nowej generacji, operujących na bilionach parametrów.
Podczas gdy większość uwagi w wyścigu AI skupia się na mocy obliczeniowej procesorów GPU, prawdziwym wąskim gardłem w budowie tzw. „fabryk AI” staje się sieć, która musi połączyć miliony tych procesorów. Według NVIDII, platforma Spectrum-X została zaprojektowana specjalnie, by pełnić funkcję „układu nerwowego” w tych systemach, zapewniając bezprecedensową wydajność.
Koniec Messengera na Macu. Meta wygasza aplikację i prosi o zapisanie historii czatów
Tradycyjny Ethernet, używany w wciąż w wielu miejscach świata, także w centrach danych, często osiąga efektywną przepustowość na poziomie około 60% z powodu kolizji i zatorów. Platforma Spectrum-X, dzięki technologiom takim jak adaptacyjny routing i kontrola przeciążeń oparta na telemetrii, ma osiągać efektywność na poziomie 95%. Pozwala to na znacznie szybsze trenowanie modeli AI i jednoczesne uruchamianie wielu zadań bez wzajemnego zakłócania się.
Meta nie boi się bańki AI. Zuckerberg gotów jest „zmarnować” setki miliardów dolarów
Meta zintegruje przełączniki Spectrum-X ze swoim autorskim, otwartym systemem zarządzania siecią FBOSS (Facebook Open Switching System). Dla firmy, która musi obsługiwać miliardy użytkowników i trenować coraz większe modele AI, kluczowa jest otwartość i wydajność nowej infrastruktury sieciowej.
Z kolei Oracle planuje wykorzystać Spectrum-X w ramach Oracle Cloud Infrastructure do budowy wielkoskalowych fabryk AI. Firma zapowiedziała, że jej infrastruktura będzie również wspierać nadchodzącą architekturę NVIDII o nazwie kodowej Vera Rubin, co pozwoli klientom chmury Oracle na jeszcze szybsze wdrażanie nowych modeli AI. Wybór ten potwierdza rosnące znaczenie otwartych standardów sieciowych.
Cała inwestycja NVIDII w Spectrum-X jest już przygotowaniem pod wspomnianą kolejną generację architektury, czyli Vera Rubin, która ma być dostępna komercyjnie w drugiej połowie 2026 roku. Platforma sieciowa musi być gotowa, zanim na rynek trafią jeszcze potężniejsze procesory obliczeniowe.
OpenAI i Oracle budują superkomputer Stargate. Będzie miał moc wielkiego miasta
#AI #centraDanych #ethernet #fabrykiAI #Meta #news #nvidia #oracle #sieć #SpectrumX #sztucznaInteligencja #VeraRubin
-
Samsung i OpenAI łączą siły. Powstanie globalna infrastruktura dla sztucznej inteligencji
Samsung i OpenAI ogłosiły strategiczne partnerstwo, którego celem jest przyspieszenie budowy globalnej infrastruktury dla sztucznej inteligencji.
Współpraca obejmuje niemal wszystkie kluczowe działy koreańskiego giganta – od półprzewodników, przez budowę centrów danych, aż po przemysł stoczniowy – i ma na celu wspólne opracowywanie technologii przyszłości.
Podpisany list intencyjny zakłada szeroko zakrojoną współpracę, która połączy potencjał technologiczny Samsunga z doświadczeniem OpenAI w dziedzinie modeli językowych. To jeden z największych sojuszy na rynku AI, który ma realnie wpłynąć na kształt przyszłej infrastruktury technologicznej na świecie.
Samsung może przywrócić model Galaxy S Plus. Powodem słaba sprzedaż smukłego wariantu Edge
Główną rolę w partnerstwie odegra dział Samsung Electronics, który zostanie strategicznym dostawcą zaawansowanych półprzewodników dla OpenAI. Firma dostarczy szeroką gamę energooszczędnych rozwiązań, w tym pamięci i układy logiczne, niezbędne na każdym etapie rozwoju AI – od trenowania modeli po ich praktyczne zastosowanie. Kluczowe będą również technologie zaawansowanego pakowania chipów, które pozwolą na tworzenie unikalnych, zintegrowanych rozwiązań dla OpenAI.
Za projektowanie, rozwój i obsługę dedykowanych centrów danych dla AI, w tym projektu o nazwie „Stargate”, będzie odpowiadać Samsung SDS. Spółka zajmie się również dystrybucją usług OpenAI, w tym ChatGPT Enterprise, na rynku koreańskim oraz będzie wspierać lokalne firmy we wdrażaniu tych rozwiązań. To strategiczny ruch, który ma umocnić pozycję obu firm w azjatyckim sektorze B2B.
Samsung pokaże składany smartfon z potrójnym ekranem? Debiut możliwy jeszcze w tym miesiącu
Najbardziej innowacyjnym aspektem współpracy jest zaangażowanie działów Samsung C&T (budownictwo) oraz Samsung Heavy Industries (przemysł stoczniowy). Będą one odpowiedzialne za budowę globalnych centrów danych, ze szczególnym uwzględnieniem nowatorskiej koncepcji pływających centrów danych.
Takie rozwiązanie ma na celu rozwiązanie problemu niedoboru gruntów, obniżenie kosztów chłodzenia serwerów i zmniejszenie emisji dwutlenku węgla. W planach jest również badanie możliwości budowy pływających elektrowni, które zasilałyby te obiekty.
Partnerstwo to ma również wymiar ambicjonalny – Samsung chce w ten sposób aktywnie wspierać dążenie Korei Południowej do stania się jednym z trzech czołowych państw na świecie w dziedzinie sztucznej inteligencji. Równocześnie firma analizuje szersze wdrożenie technologii OpenAI we własnych strukturach, aby przyspieszyć swoją wewnętrzną transformację cyfrową.
#AI #centraDanych #ChatGPT #news #OpenAI #partnerstwoStrategiczne #półprzewodniki #Samsung #sztucznaInteligencja #technologia
-
Sojusz gigantów ma zdefiniować przyszłość AI. NVIDIA wykłada 100 mld dolarów na infrastrukturę dla OpenAI
Firmy NVIDIA i OpenAI ogłosiły strategiczne partnerstwo na bezprecedensową skalę, które może ukształtować przyszłość sztucznej inteligencji.
Producent chipów zainwestuje do 100 miliardów dolarów w budowę ogromnych centrów danych AI dla twórców ChataGPT. Celem jest stworzenie infrastruktury o mocy co najmniej 10 gigawatów, która posłuży do trenowania i obsługi modeli AI nowej generacji.
Inwestycja, która będzie realizowana stopniowo w miarę uruchamiania kolejnych faz projektu, zakłada wykorzystanie milionów procesorów graficznych (GPU) od NVIDIA. Pierwsza część tej gigantycznej infrastruktury ma zostać oddana do użytku w drugiej połowie 2026 roku i będzie oparta na nadchodzącej platformie sprzętowej NVIDII o nazwie kodowej „Vera Rubin”. Jensen Huang, dyrektor generalny NVIDII, zapowiedział, że będzie to „ogromny, ogromny krok naprzód” w stosunku do obecnej generacji chipów Blackwell.
Współpraca ta jest ukoronowaniem trwającej dekadę, bliskiej relacji między obiema firmami. „NVIDIA i OpenAI napędzały się nawzajem przez dekadę, od pierwszego superkomputera DGX po przełom, jakim był ChatGPT” – powiedział Jensen Huang. Sam Altman, dyrektor generalny OpenAI, dodał: „Infrastruktura obliczeniowa będzie podstawą gospodarki przyszłości, a to, co budujemy z NVIDIĄ, wykorzystamy zarówno do tworzenia nowych przełomów w AI, jak i do wzmacniania nimi ludzi i firm na masową skalę”.
OpenAI i Oracle budują superkomputer Stargate. Będzie miał moc wielkiego miasta
Ogłoszone partnerstwo nie jest odizolowanym działaniem. To część znacznie większej inicjatywy znanej jako „Projekt Stargate” – strategicznego sojuszu firm takich jak SoftBank, OpenAI, NVIDIA, Oracle, Arm i Microsoft, który zakłada wydanie 500 miliardów dolarów na infrastrukturę AI w Stanach Zjednoczonych. OpenAI równolegle rozwija też inne partnerstwa, jak niedawna umowa z Oracle na budowę centrów danych o mocy 4,5 gigawata.
Ta gargantuiczna inwestycja dobitnie pokazuje, jak ogromnego kapitału wymaga dziś rywalizacja w czołówce wyścigu o rozwój sztucznej inteligencji. Umowa zacieśnia symbiotyczny związek między wiodącym twórcą modeli językowych a absolutnym monopolistą na rynku sprzętu niezbędnego do ich trenowania, sygnalizując gwałtowne przyspieszenie w budowie fundamentów pod AI przyszłości.
Donald Trump i OpenAI ogłaszają gigantyczną infrastrukturę AI: Project Stargate
#AI #centraDanych #gpu #JensenHuang #news #nvidia #OpenAI #ProjectStargate #SamAltman #sztucznaInteligencja #technologia
-
Reaktor jądrowy na dnie kilometrowego odwiertu. Startup chce zasilać centra danych AI
Amerykański startup Deep Fission Nuclear pozyskał 30 milionów dolarów finansowania na realizację jednego z najbardziej nowatorskich projektów w dziedzinie energetyki.
Firma zamierza zbudować i uruchomić pilotażowy mikro-reaktor jądrowy, który zostanie umieszczony na dnie odwiertu o głębokości ponad 1,6 kilometra. Celem jest stworzenie bezpiecznego, taniego i kompaktowego źródła energii, zdolnego zaspokoić rosnące zapotrzebowanie, generowane m.in. przez centra danych AI.
Pomysł umieszczenia reaktora jądrowego głęboko pod ziemią, choć brzmi jak science-fiction, jest oparty na solidnej inżynierskiej logice. Jak przekonuje Deep Fission, takie rozwiązanie radykalnie rozwiązuje trzy największe problemy, z jakimi od dekad boryka się energetyka jądrowa: gigantyczne koszty, bezpieczeństwo i ochronę przed atakami terrorystycznymi.
W tradycyjnych elektrowniach to nie sam reaktor jest najdroższy, a potężne, naziemne konstrukcje, w tym betonowe kopuły bezpieczeństwa. Umieszczenie reaktora w głębokim odwiercie w stabilnej formacji skalnej eliminuje potrzebę budowy tych struktur, co może zredukować koszty konstrukcyjne nawet o 80%. Skała i słup wody w odwiercie stanowią naturalną osłonę i zapewniają ciśnienie, a lokalizacja na głębokości ponad 1,6 km czyni go praktycznie niedostępnym dla potencjalnych sabotażystów.
Plan zakłada opuszczenie na kablu kompletnego, modułowego reaktora o mocy 15 MWe na dno zalanego wodą odwiertu. Do reaktora podłączone będą dwie izolowane rury: jedna będzie transportować wodę w dół, a druga gorącą, nieradioaktywną parę na powierzchnię, gdzie napędzi turbiny generujące prąd. Dzięki temu cała naziemna infrastruktura zmieści się na powierzchni zaledwie ćwierci akra (ok. 1000 m²).
Projekt wprowadza również rewolucyjne podejście do bezpieczeństwa i odpadów. Reaktor jest zaprojektowany jako „samoutylizujący się”. W przypadku poważnej awarii, która uniemożliwiłaby wyciągnięcie go na powierzchnię, cały odwiert może zostać po prostu zasypany i zabetonowany. Na tak dużej głębokości, daleko poniżej wód gruntowych, materiał radioaktywny zostałby bezpiecznie odizolowany na miliony lat.
Firma, wspierana przez Departament Energii USA, zamierza ukończyć budowę pilotażowej instalacji do 4 lipca 2026 roku.
„Mamy odpowiednią technologię, w odpowiednim czasie i w odpowiednim miejscu. Wierzymy, że możemy szybko i rentownie skalować naszą technologię, aby zaspokoić ogromne zapotrzebowanie na energię ze strony centrów danych AI i innych klientów na całym świecie” – powiedziała Liz Muller, współzałożycielka i CEO Deep Fission.
Nowy wyścig na Księżyc. USA i Chiny chcą zbudować tam reaktory jądrowe
#AI #centraDanych #DeepFission #energetyka #energia #innowacje #news #reaktorJądrowy #startup #technologia
-
Nowy GPT-5 jest potężny, ale jego apetyt na energię przeraża. OpenAI milczy na temat kosztów
Niedawna premiera modelu GPT-5 od OpenAI pokazała przełomowe możliwości sztucznej inteligencji, ale jednocześnie naświetliła problem, o którym firmy technologiczne mówią bardzo niechętnie: gigantyczny wzrost zużycia energii.
Eksperci alarmują, że odpowiedź na jedno zapytanie do nowego chatbota może zużywać nawet 20 razy więcej prądu niż poprzednie wersje, a OpenAI od lat nie publikuje oficjalnych danych na ten temat.
Choć OpenAI chwali się, że GPT-5 potrafi odpowiadać na pytania na poziomie doktoranckim i tworzyć strony internetowe, to za tymi zdolnościami stoi ogromny koszt energetyczny. Jak donosi „The Guardian”, firma od 2020 roku i premiery GPT-3 nie ujawniła żadnych oficjalnych danych dotyczących zużycia energii przez swoje modele. Ta polityka tajemnicy zmusza naukowców do samodzielnego szacowania prawdziwego śladu środowiskowego AI.
Badacze z laboratorium AI na University of Rhode Island podjęli się tego zadania. Ich ustalenia są alarmujące: wygenerowanie średniej długości odpowiedzi przez GPT-5 (ok. 1000 słów) zużywa średnio 18 watogodzin (Wh), a w szczytowych momentach nawet do 40 Wh. Dla porównania, 18 Wh to tyle energii, ile tradycyjna żarówka o mocy 60 W zużywa przez 18 minut. To znacznie więcej niż w przypadku poprzedniego modelu, GPT-4o.
Wyciekł mózg GPT-5. Jak myśli i działa nowa generacja ChatGPT?
Skalując te dane, liczby stają się jeszcze bardziej obrazowe. Biorąc pod uwagę, że ChatGPT obsługuje około 2,5 miliarda zapytań dziennie, pełne przejście na GPT-5 mogłoby generować dzienne zapotrzebowanie na prąd równe konsumpcji ok. 1,5 miliona amerykańskich gospodarstw domowych. Amerykańskich, czyli znacznie bardziej energochłonnych niż średnia europejska (ok. 4500 kWh rocznie vs 2000 kWh rocznie na osobę).
Główną przyczyną tak dużego zużycia energii jest rozmiar nowego modelu. Choć OpenAI nie podaje szczegółów, szacuje się, że GPT-5 jest wielokrotnie większy od swoich poprzedników. Badania innej firmy, francuskiej Mistral AI, potwierdziły „silną korelację” między rozmiarem modelu a jego zapotrzebowaniem na zasoby. Dodatkowo, nowe funkcje, takie jak zaawansowane rozumowanie czy przetwarzanie obrazu i wideo, są znacznie bardziej energochłonne niż operacje czysto tekstowe. Tryb rozumowania może zużywać nawet 5 do 10 razy więcej energii do udzielenia tej samej odpowiedzi.
„Co myśmy zrobili?” – Altman o pracach nad GPT-5. Nowy model OpenAI ma budzić zachwyt i niepokój
Mimo pewnych optymalizacji, jak bardziej wydajny sprzęt czy architektura „mixture-of-experts” (która nie aktywuje całego modelu przy każdym zapytaniu), ogólny trend jest jednoznaczny. Eksperci i naukowcy, tacy jak Marwan Abdelatti z URI, wzywają OpenAI i innych gigantów AI do „pełnej transparentności” i publicznego ujawniania wpływu swoich produktów na środowisko. Bez tych danych, pełna ocena kosztów rewolucji AI pozostaje niemożliwa, a dyskusja o jej zrównoważonym rozwoju jest czysto teoretyczna.
#AI #centraDanych #ekologia #GPT5 #news #OpenAI #śladWęglowy #sztucznaInteligencja #technologia #TheGuardian #zużycieEnergii
-
OpenAI i Oracle budują superkomputer Stargate. Będzie miał moc wielkiego miasta
Firmy OpenAI i Oracle ogłosiły strategiczne partnerstwo w celu budowy jednego z najpotężniejszych na świecie systemów superkomputerowych AI o nazwie Stargate.
Ten wart miliardy dolarów projekt ma na celu stworzenie infrastruktury dla następnej generacji sztucznej inteligencji i zaspokojenie gigantycznego zapotrzebowania na moc obliczeniową, niezbędną do trenowania przyszłych modeli, takich jak GPT-5 i jego następców.
Inicjatywa Stargate to w praktyce budowa nowych, ogromnych centrów danych w Stanach Zjednoczonych, które będą zużywać niewyobrażalną ilość energii – aż 4,5 gigawata, co odpowiada zapotrzebowaniu na prąd dużego miasta. Łącznie z już realizowanymi projektami, na przykład w Abilene w Teksasie, OpenAI będzie wkrótce dysponować mocą obliczeniową przekraczającą 5 gigawatów. Taka infrastruktura pozwoli na jednoczesne działanie ponad dwóch milionów najpotężniejszych obecnie czipów AI, takich jak świeżo dostarczone układy Nvidia GB200.
Donald Trump i OpenAI ogłaszają gigantyczną infrastrukturę AI: Project Stargate
Wybór Oracle jako partnera nie jest przypadkowy. Stargate będzie działać w oparciu o infrastrukturę chmurową Oracle Cloud Infrastructure (OCI), która jest specjalnie zoptymalizowana pod kątem zadań związanych z AI. Oferuje ona unikalne, niskoplatencyjne połączenia między dziesiątkami tysięcy procesorów graficznych (GPU) Nvidii, co jest kluczowe dla efektywnego trenowania modeli językowych o bilionach parametrów. Ten ruch jest postrzegany jako strategiczny wybór OpenAI, mający dać firmie przewagę technologiczną nad konkurencją korzystającą ze standardowych rozwiązań chmurowych od AWS czy Google.
Tak ogromna moc obliczeniowa ma drastycznie skrócić czas potrzebny na trenowanie przyszłych, zaawansowanych modeli AI – potencjalnie z miesięcy do zaledwie kilku tygodni lub nawet dni. Umożliwi to szybszy rozwój znacznie bardziej skomplikowanych, multimodalnych systemów, zdolnych do interakcji w czasie rzeczywistym. Co ważne, projekt Stargate ma być realizowany z myślą o zrównoważonym rozwoju, wykorzystując odnawialne źródła energii i nowoczesne systemy chłodzenia cieczą, by zminimalizować jego wpływ na środowisko.
Projekt ma również ogromne znaczenie gospodarcze. Szacuje się, że jego budowa i obsługa stworzy w Stanach Zjednoczonych ponad 100 000 miejsc pracy – od ekip budowlanych po wyspecjalizowanych inżynierów i techników. Warto przy tym pamiętać, że choć Oracle jest kluczowym partnerem w budowie fizycznej infrastruktury, w cały projekt zaangażowani są również inni giganci: japoński SoftBank pomaga w projektowaniu centrów danych, a Microsoft pozostaje głównym partnerem chmurowym OpenAI, zapewniając cyfrową integrację systemów.
#AGI #AI #centraDanych #GPT5 #mocObliczeniowa #news #nvidia #OpenAI #oracle #Stargate #superkomputer #sztucznaInteligencja
-
Powstanie nowe potężne centrum AI we Francji
AMD poinformowała o dużej inwestycji firmy G42, która wykorzystując technologię AMD Instinct buduje w Grenoble jedno z najpotężniejszych francuskich centrów danych.
G42 to jednak z największych firm technologicznych specjalizująca się w rozwoju AI, z centralą w Abu Zabi w Zjednoczonych Emiratach Arabskich. G42 ogłosiła strategiczną inwestycję we Francji we współpracy z DataOne. Efektem współpracy ma być pierwsze w Europie, gigaskalowe centrum danych infrastruktury hostingu AI. Inicjatywa, której przewodzi Core42, należąca do G42 spółka, specjalizująca się w chmurze obliczeniowej i infrastrukturze AI, stworzy najnowocześniejsze centrum danych AI w Grenoble. Wyposażony w procesory graficzne AMD, ten zaawansowany obiekt zapewni przedsiębiorstwom, badaczom i innowatorom najnowocześniejszą infrastrukturę AI.
Zaprezentowany na AI Action Summit w Paryżu, ten kamień milowy wzmacnia zaangażowanie G42 w globalny rozwój innowacji AI, jednocześnie dostarczając innowacyjne możliwości AI z ZEA na cały świat. Poprzez integrację najnowszych technologii akceleratora AMD Instinct, Core42 wyposaży francuskie przedsiębiorstwa, badaczy i innowatorów w możliwości obliczeniowe potrzebne do opracowywania i skalowania zaawansowanych modeli AI, agentów, aplikacji i badań. Oczekuje się, że obiekt będzie w pełni operacyjny do połowy 2025 r, czyli już za kilka miesięcy.
Inwestycja stanowi zobowiązanie G42 do wspierania strategicznych partnerstw w europejskim ekosystemie AI w celu przyspieszenia transformacji cyfrowej w różnych branżach. Te strategiczne ustalenia gwarantują, że francuskie przedsiębiorstwa oparte na AI mają bezpośredni dostęp do wiodącej w branży infrastruktury AI, co dodatkowo pozycjonuje kraj jako centrum doskonałości AI.
Komentując ogłoszenie, Kiril Evtimov, Group CTO w G42 i CEO w Core42, powiedział: „Francja podejmuje śmiałe kroki w zakresie innowacji w dziedzinie AI, a G42 jest dumna, że może się do tego przyczynić. Wdrażając procesory graficzne AMD, nie tylko wzmacniamy europejską infrastrukturę AI, ale także umożliwiamy przedsiębiorstwom i badaczom przyspieszenie innowacji na dużą skalę. Nasza współpraca z lokalnymi dostawcami zapewnia bezproblemowy dostęp do mocy obliczeniowej potrzebnej do napędzania kolejnej fali postępu w dziedzinie AI we Francji i poza nią”.
„Nasza strategiczna współpraca z G42 pomoże pobudzić francuski ekosystem AI, zapewniając moc obliczeniową potrzebną do umożliwienia lokalnym start-upom AI i pionierom AI, którzy napędzają najnowocześniejsze innowacje i wzmacniają francuską gospodarkę” — powiedziała Lisa Su, AMD Chair and CEO. „Nasza współpraca z G42 jest najnowszym przykładem naszego zaangażowania w łączenie otwartych ekosystemów z wiodącymi w branży technologiami AMD AI, aby umożliwić instytucjom publicznym i przedsiębiorstwom prywatnym wykorzystanie pełnego potencjału AI”.
„ Jesteśmy niezmiernie dumni, że Core42 należy do grona naszych szanownych klientów i podekscytowani możliwością podjęcia wyzwania wdrożenia ich największego superkomputera AI w Europie w ciągu zaledwie 20 tygodni ” — powiedział Charles-Antoine Beyney, dyrektor generalny DataOne.
Inwestycja G42 we Francji jest dowodem na jej misję kształtowania przyszłości AI poprzez strategiczne globalne partnerstwa i zaawansowaną infrastrukturę. Ponieważ popyt na obliczenia AI nadal rośnie, Core42 pozostaje na czele tej transformacji, zapewniając opcjonalność dzięki heterogenicznej ofercie chmury AI, która obejmuje wiele opcji akceleratorów AI, rozszerzając ich globalny zasięg, wzmacniając dostępność AI i napędzając postępy oparte na AI w Europie i poza nią. Ponadto AMD wnosi bogate doświadczenie w angażowaniu się we francuski ekosystem startupów AI. Firma zamierza nadal wspierać innowacyjne startupy w regionie za pośrednictwem swojego programu venture, AMD Ventures.
#AI #AMD #AMDInstinct #centraDanych #DataOne #G42 #news #sztucznaInteligencja
-
Donald Trump i OpenAI ogłaszają gigantyczną infrastrukturę AI: Project Stargate
OpenAI wspólnie z firmami Softbank, Oracle i MGX ogłosiły plany stworzenia nowej spółki o nazwie Stargate. Nowa spółka, zgodnie z zapowiedziami nowego POTUS Donalda Trumpa, ma zainwestować pół biliona dolarów (500 mld) w infrastrukturę do obliczeń AI.
Ta gigantyczna kwota ma być zainwestowana w celowe działania znacząco wspomóc rozwój sztucznych inteligencji w ciągu najbliższych czterech lat. Oświadczenie, w którym zadeklarowano planowaną kwotę inwestycji zostało złożone podczas wtorkowego spotkania w Biały Domu. Donald Trump nazwał ten pomysł największym projektem infrastruktury AI w historii.
„Ta infrastruktura zapewni amerykańskie przywództwo w dziedzinie AI, stworzy setki tysięcy amerykańskich miejsc pracy i wygeneruje ogromne korzyści ekonomiczne dla całego świata” – napisało OpenAI w oświadczeniu prasowym. „Ten projekt nie tylko wesprze reindustrializację Stanów Zjednoczonych, ale także zapewni strategiczną zdolność do ochrony bezpieczeństwa narodowego Ameryki i jej sojuszników”.
Stosowny komunikat OpenAI ogłosiła również za pośrednictwem platformy X:
Announcing The Stargate Project
The Stargate Project is a new company which intends to invest $500 billion over the next four years building new AI infrastructure for OpenAI in the United States. We will begin deploying $100 billion immediately. This infrastructure will secure…
— OpenAI (@OpenAI) January 21, 2025
#centraDanych #DonaldTrump #news #OpenAI #ProjectStargate #Stargate