#dolinakrzemowa — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #dolinakrzemowa, aggregated by home.social.
-
📺 Mroczny lord Palantira. Peter Thiel i jego wpływy | #Techstorie
"Szara eminencja Doliny Krzemowej od lat zza kulis wpływa na największych prezesów oraz polityków USA. Amerykańskie media pisały o nim: "Główny intelektualista Ameryki", "Intelektualny architekt współczesnego etosu Doliny Krzemowej", "Prawdziwy złoczyńca z Bonda".
Peter #Thiel, bo o nim oczywiście mowa, oprócz wspierania technologii, konsekwentnie buduje konserwatywne elity i ich zaplecze intelektualne.
Jeśli chcecie zrozumieć, jak naprawdę wygląda budowanie sieci wpływu w USA, to koniecznie posłuchajcie. Tym bardziej, że sam Thiel jest wyjątkowo ciekawą postacią. Filozof, prawnik, zdradził Elona Muska, jest mentorem Marka Zuckerberga, wyniósł do władzy J.D. Vance’a i jako pierwszy z Doliny Krzemowej, jeszcze w 2016 roku, publicznie poparł kandydaturę Donalda Trumpa na prezydenta."https://www.youtube.com/watch?v=PkSwr5hICl4
-
OpenAI miało unikać „zadań pobocznych”. Zamiast tego kupuje kalifornijski talk-show za setki milionów dolarów
Sam Altman znów gra na własnych zasadach. Chociaż zarząd OpenAI oficjalnie apelował do pracowników o skupienie się na rozwoju ChatGPT i unikaniu rozpraszających projektów, firma właśnie dokonała zaskakującej akwizycji.
Za kwotę szacowaną na kilkaset milionów dolarów twórcy najpopularniejszej sztucznej inteligencji kupili… technologiczny program na YouTubie.
Zaledwie w zeszłym miesiącu Fidji Simo, szefowa działu produktów w OpenAI, wysłała do zespołu notatkę, w której stanowczo podkreślała: „Nie możemy przegapić tego momentu tylko dlatego, że rozpraszają nas zadania poboczne” (ang. side quests). Jak widać, definicja „zadania pobocznego” w Dolinie Krzemowej jest bardzo elastyczna.
Firma weszła właśnie na rynek medialny, przejmując TBPN (Technology Business Programming Network) – popularny wśród założycieli start-upów talk-show prowadzony przez Jordiego Haysa i Johna Coogana. Program, który generował około 30 milionów dolarów rocznego przychodu z reklam i przyciągał 70 tysięcy widzów dziennie, stał się platformą, na której gościli tacy giganci jak Mark Zuckerberg czy sam Sam Altman.
OpenAI zarzeka się, że redakcja TBPN zachowa pełną „niezależność redakcyjną”, pracując z biura w Los Angeles i podlegając bezpośrednio szefowi globalnych spraw firmy. Nietrudno jednak o sceptycyzm. Przejęcie opiniotwórczego, branżowego medium przez największego gracza na rynku AI to genialny (choć budzący etyczne wątpliwości) ruch PR-owy. Sam Altman skomentował sprawę na platformie X z typową dla siebie ironią: „Nie oczekuję, że będą nas traktować ulgowo, a na pewno pomogę im w tym, podejmując od czasu do czasu głupie decyzje”.
TBPN is my favorite tech show.
We want them to keep that going and for them to do what they do so well.
I don't expect them to go any easier on us, am sure I'll do my part to help enable that with occasional stupid decisions.
— Sam Altman (@sama) April 2, 2026
#akwizycje #biznesAI #DolinaKrzemowa #mediaTechnologiczne #OpenAI #SamAltman #sztucznaInteligencja #TBPNTrzęsienie ziemi w Dolinie Krzemowej? Według ekspertów Microsoft stawia na Claude AI kosztem OpenAI
-
MIT ujawnia: radykalne startupy z Doliny Krzemowej rozważają tworzenie „bezmózgich klonów” jako magazynów narządów
Nie ma dowodów na to, że takie eksperymenty są już prowadzone na ludziach – ale samo to, że poważnie się je planuje i szuka na nie funduszy, budzi grozę.
Śledztwo przeprowadzone przez prestiżowy magazyn MIT Technology Review obnaża mroczną debatę toczącą się w kuluarach środowisk „longevity”. Dziennikarze ujawnili istnienie startupów, które za zamkniętymi drzwiami forsują wizję tworzenia genetycznie zmodyfikowanych, pozbawionych świadomości ludzkich klonów. Ich jedynym celem ma być służenie jako biologiczny „magazyn części zamiennych”.
Dolina Krzemowa od lat pompuje miliardy dolarów w technologie mające wydłużyć ludzkie życie. Wokół tej obietnicy wyrosło jednak radykalne środowisko (często określające się mianem transhumanistów), które w pogoni za długowiecznością jest gotowe przesuwać granice, które dotąd wydawały się nienaruszalne. Raport Antonio Regalado z MIT Technology Review pokazuje, jak daleko sięgają te wizje.
Publiczna przykrywka, ukryta mapa drogowa
W centrum śledztwa znalazła się firma R3 Bio z siedzibą w Richmond w Kalifornii, która przez lata działała ukrywając swoje poczynania przed opinią publiczną. Niedawno wyszła z cienia, ogłaszając, że pozyskała finansowanie (m.in. od znanego inwestora Tima Drapera) na stworzenie pozbawionych kory mózgowej makaków. Zwierzęta te miałyby pełnić rolę „worków na narządy”, co według twórców miałoby stanowić „etyczną” alternatywę dla tradycyjnych testów na świadomych zwierzętach.
Jednak, jak dowodzą dziennikarze MIT Technology Review, którzy dotarli do poufnych prezentacji i dokumentów dla inwestorów, eksperymenty na zwierzętach to tylko zasłona dymna i przystanek na o wiele bardziej radykalnej mapie drogowej. Założyciel R3 Bio, John Schloendorn, od dawna forsuje plan docelowy: hodowlę „bezmózgich klonów” ludzi dla najbogatszych pacjentów, którzy potrzebowaliby idealnie zgodnych genetycznie narządów.
Pytanie o wykonalność tego pomysłu trzeba postawić jasno od razu: droga od szalonych prezentacji w salach konferencyjnych do jakiejkolwiek medycznej realizacji jest bardzo daleka. Dziennikarze podkreślają, że nie ma dowodów, by ktokolwiek spróbował sklonować człowieka, a samo klonowanie naczelnych (udane po raz pierwszy w Chinach w 2018 roku) jest wciąż procesem niezwykle wadliwym.
Przepis na prywatną farmę narządów
Niemniej jednak, mechanizm proponowany przez zwolenników tego rozwiązania opiera się na istniejącej wiedzy biologicznej. Zgodnie z koncepcjami przedstawianymi inwestorom, plan zakłada:
- Sklonowanie pacjenta: wykorzystanie DNA klienta do stworzenia jego dokładnej kopii genetycznej (gwarantującej brak odrzutów przy przeszczepie).
- Genetyczne uszkodzenie mózgu: użycie technologii edycji genów (np. CRISPR) na etapie wczesnego rozwoju, by celowo zapobiec wykształceniu się u klona kory mózgowej. Inspiracją dla twórców jest hydranencefalia – rzeczywista, tragiczna wada wrodzona, w której dzieci rodzą się bez półkul mózgowych.
- Wynajęcie surogatek: ponieważ sztuczne macice to wciąż fikcja naukowa, pierwsze pokolenia takich klonów musiałyby być noszone przez kobiety, którym płacono by za donoszenie celowo uszkodzonego płodu.
- Wegetacja pod respiratorem: urodzone w ten sposób ciało byłoby podłączone do aparatury podtrzymującej życie, by rosnąć w oczekiwaniu, aż „oryginał” będzie potrzebował nowej wątroby, nerek czy serca.
Strach przed opinią publiczną
Raport MIT ujawnia również istnienie drugiego startupu, Kind Biotechnology. Firma ta w zgłoszeniach patentowych wprost opisuje i pokazuje wizualizacje zwierząt (myszy, ale też w domyśle naczelnych) pozbawionych twarzy i większości układu nerwowego, pełniących funkcję „rosnących samodzielnie worków narządów”.
Dlaczego dyskusje te toczą się w ścisłej tajemnicy? Wspomniane środowisko doskonale zdaje sobie sprawę z tego, że społeczna akceptowalność takich działań jest tu barierą równie wysoką (jeżeli nie wyższą) co sama biologia. Podczas zamkniętego spotkania z inwestorami, cytowana w raporcie osoba przyznała wprost, że plan musi pozostać ukryty: „Gdyby to wyszło na jaw, wybuchłby ogromny sprzeciw (…). Musimy działać w tajemnicy, dopóki technologia nie będzie gotowa, a społeczeństwo nie oswoi się z tematem, rozwiązując [najpierw] problem braku narządów u zwierząt”.
Ostrzeżenia naukowców
Większość świata naukowego reaguje na takie wizje jednoznacznie. Jose Cibelli, badacz zajmujący się klonowaniem z Michigan State University, na którego powołuje się MIT, pyta wprost: „Jak udowodnić bezpieczeństwo, gdy twoim celem jest stworzenie nienormalnego człowieka? Jak przekonać kobietę do noszenia tak uszkodzonego płodu? Są granice wyobraźni, a to jest granica tworzenia istoty ludzkiej, która nie jest człowiekiem”. Z kolei neurobiolodzy przypominają o niezwykle niebezpiecznym założeniu twórców „bezmózgich klonów”: sam rozwój pnia mózgu, niezbędnego do podstawowego podtrzymania funkcji biologicznych ciała, może generować elementarne formy świadomości i odczuwania bólu. To z kolei czyniłoby pobieranie narządów od takiego klona morderstwem z premedytacją.
Raport MIT Technology Review to fascynująca, ale i przerażająca diagnoza stanu części technologicznych elit z Doliny Krzemowej. Pokazuje, że w obsesyjnej walce ze śmiercią i chorobami, wąska grupa wizjonerów traktuje etykę jako kolejną techniczną przeszkodę, którą można pominąć w drodze do upragnionego celu.
#CRISPR #DolinaKrzemowa #edycjaGenów #eksperymentyMedyczne #etykaMedyczna #handelNarządami #KindBiotechnology #klonowanieLudzi #longevity #MITTechnologyReview #R3Bio #TimDraper #transhumanizm -
Facebook to cybernowotwór, który toczy nasze umysły. Czas na radykalną chemioterapię, a nie pudrowanie gangreny [felieton]
Mamy rok 2026. Świat płonie, a my wciąż pozwalamy, by algorytmy z Doliny Krzemowej dolewały benzyny do ognia. Nie jestem zwolennikiem cenzury. Jestem zwolennikiem przetrwania cywilizacji. A to, co serwuje nam dziś Meta, to egzystencjalne zagrożenie. I nie, nie przesadzam.
Zacznijmy od konkretu, który przelał czarę goryczy. Jestem dziennikarzem technologicznym, staram się zachować higienę cyfrową. Na Facebooku mam garstkę znajomych – tych prawdziwych, z krwi i kości. Nigdy niczego tam nie komentuję. Nie subskrybuję politycznych fanpage’y. Mimo to, algorytm uznał, że musi mi wcisnąć do gardła wpis, który jest kwintesencją manipulacji.
Oto co zobaczyłem (wpis – co znamienne – zniknął potem samoczynnie, jak wirus, który szukał nosiciela i go nie znalazł, więc poszedł dalej):
„ZEBRAŁEM WSZYSTKIE ZNANE ZABURZENIA PSYCHICZNE DONALDA TRUMPA… ZŁOŚLIWY NARCYZM… OTĘPIENIE… FRONTOTEMPORAL DEMENTIA… Nie czyta dokumentów… Nie słucha ludzi… Pomiędzy decyzją o ataku a jej braku stoi tylko jego otoczenie…”
Brzmi groźnie? Owszem. Jest merytoryczne? W żadnym razie. To pseudomedyczny bełkot. Zbiór teorii spiskowych, półprawd i diagnoz stawianych „na oko” przez ludzi, którzy nie widzieli pacjenta na oczy (łamiąc tym samym Zasadę Goldwatera – jeden z fundamentów etyki lekarskiej). To klasyczna „psychiatryzacja wroga” – metoda znana z ZSRR, służąca do odczłowieczania oponenta. Dla Sowietów każdy dysydent był psychicznie chory.
Ale nie o Trumpa tu chodzi. Chodzi o mechanizm.
Algorytm nie szuka prawdy. Szuka ofiary
Dlaczego ten wpis trafił do mnie? Do osoby, która unika politycznych wojenek? Bo algorytm Meta już od dawna nie jest „społecznościowy”. On jest predykcyjny. Nie reaguje na to, co robisz (bo ja nic nie robiłem). Reaguje na to, kim jesteś statystycznie. Wiek, wykształcenie, lokalizacja, model telefonu. System uznał, że jestem „podatnym gruntem” pod testowanie nowej narracji. Wrzucił mi toksynę, zmierzył czas reakcji (zatrzymanie scrolla), a gdy nie chwyciło – zabrał ją i zaniósł komuś innemu.
To nie jest „wolny rynek idei”. To są testy A/B na żywym organizmie społecznym. Testy, które promują treści skrajne, wywołujące lęk i gniew, bo to one najlepiej sprzedają reklamy. To system masowego testowania reakcji poznawczych. Bez zgody, bez etyki, bez odpowiedzialności.
Szybciej niż bomby – i bez wypowiedzenia wojny
Problem polega na tym, że państwa reagują na zagrożenia militarne, bo są widoczne, mają sprawcę i da się je nazwać agresją. Zagrożenia informacyjne są inne: są rozproszone, bez jasnego autora („to tylko błąd algorytmu”), bez widocznej intencji („to tylko optymalizacja zaangażowania”).
A jednak efekt końcowy jest realny: rozpad zaufania społecznego, erozja demokracji, normalizacja przemocy symbolicznej, podatność na autorytaryzm. To dokładnie ten moment w historii, gdy nowy rodzaj broni wyprzedził język, którym potrafimy go opisać. Jak gaz bojowy w I wojnie światowej. Najpierw był „wynalazek”, potem szok, a dopiero na końcu konwencje genewskie.
My jesteśmy w fazie szoku.
Kłócimy się o to, co wisi na ścianie w klasie, a nie zauważamy, że telefon w kieszeni dziecka jest dziś silniejszym narzędziem indoktrynacji niż jakikolwiek polityk, nauczyciel, katecheta czy podręcznik. Deepfake’i i algorytmy wychowują całe pokolenie – bez programu, bez etyki i bez dorosłych przy stole.
„Ale przecież UE nad tym pracuje…”
Słyszę to ciągle. DSA, DMA, AI Act. Bruksela pisze ustawy, powołuje komisje, nakłada kary, które dla Mety są błędem zaokrąglenia w budżecie. To leczenie nowotworu witaminą C. Gdy pacjent ma złośliwego guza mózgu, nie mówisz mu: „proszę głęboko oddychać, legislacja jest w toku”. Wzywasz neurochirurga, a anestezjolog już czeka…
Mówicie, że „nie da się” wyłączyć Facebooka? Że to zbyt skomplikowane? Że gospodarka? Przypomnijmy sobie lekcję historii. Gdy po ataku na Pearl Harbor USA przystąpiły do II Wojny Światowej, amerykańska gospodarka przestawiła się na tryb wojenny w 72 godziny. Trzy dni. Fabryki lodówek zaczęły robić amunicję. Wolny rynek zawieszono. Wprowadzono racjonowanie. TRZY DNI!
Pearl Harbor to nie jest w tym kontekście metafora wojny. To precedens decyzyjny. USA nie przestawiły gospodarki w 72 godziny dlatego, że wojna była „bardziej realna”, ale dlatego, że uznano ją za zagrożenie systemowe dla państwa.
Dziś algorytmy ingerują w procesy wyborcze, destabilizują relacje społeczne, wpływają na zdrowie psychiczne całych pokoleń i są wykorzystywane w wojnach hybrydowych. To spełnia każde kryterium zagrożenia systemowego. Brakuje tylko decyzji politycznej, by to nazwać po imieniu. Da się.
Czas to powiedzieć głośno: algorytmiczna destabilizacja społeczeństw JEST zagrożeniem egzystencjalnym. Facebook, TikTok i ich pochodne to nie „firmy technologiczne”. To operatorzy infrastruktury poznawczej, pozbawieni jakiejkolwiek odpowiedzialności i napędzani zyskiem, który nie ma moralności.
Plan ratunkowy. Trzy opcje „atomowe”
Nie musimy „zamykać internetu”, tak jak trudno nazwać uśmiercenie pacjenta jego wyleczeniem. Musimy odciąć zasilanie maszynie losującej nastroje społeczne. Oto co można zrobić – nie za 5 lat, ale w miesiąc.
Opcja 1: stan wyjątkowy dla algorytmów
Najczystsza opcja. Decyzją administracyjną (na poziomie UE lub krajowym) nakłada się zakaz stosowania algorytmów rekomendacyjnych dla treści niesubskrybowanych.
Zostaje:
- Chronologiczny feed od znajomych.
- Treści, które świadomie zaobserwowałeś.
- Wyszukiwarka.
Znika:
- „Sugerowane dla Ciebie”,
- „Możesz to polubić”,
- „Wpadnij w króliczą norę”.
Efekt? Zasięgi toksycznych treści spadają o 90%. Wiralowość umiera. Facebook staje się nudnym narzędziem do kontaktu z ciocią. I o to chodzi. Ciocia na pewno się ucieszy, a Twój umysł Ci podziękuje.
Opcja 2: algorytm jako broń (Infrastruktura Krytyczna)
Zmiana definicji prawnej. Systemy rekomendacyjne o zasięgu powyżej X milionów użytkowników zostają uznane za infrastrukturę krytyczną (jak elektrownie czy wodociągi). Skutek?
Obowiązkowe audyty kodu w czasie rzeczywistym (na wzór audytów finansowych i bezpieczeństwa infrastruktury energetycznej) i odpowiedzialność karna zarządów. Nie „firmy”, ale konkretnych ludzi. Oni mają odpowiadać za skutki społeczne. To zmroziłoby Dolinę Krzemową w tydzień.
Zuckerberg dwa razy zastanowiłby się, czy puścić w obieg algorytm promujący nienawiść, gdyby groziło mu za to więzienie, a nie grzywna.
Opcja 3: odcięcie tlenu (zakaz mikrotargetowania)
Model biznesowy Mety opiera się na sprzedawaniu naszych emocji. Wystarczy wprowadzić całkowity zakaz targetowania treści o charakterze politycznym, społecznym i zdrowotnym. Zero boostowania postów o „szczepionkach”, „wyborach” czy „wojnie”. Jeśli nie da się na tym zarobić, farmy trolli i fabryki fake newsów stracą rację bytu.
Czas na decyzję
To nie jest „radykalizm”. Radykalny jest system, który dla zysku napuszcza na siebie sąsiadów, promuje pseudomedycynę i niszczy demokrację. Jesteśmy zmęczeni. Widzimy więcej, niż algorytm by chciał. I mamy prawo żądać, by ktoś w końcu wyciągnął wtyczkę.
Mój felieton nie ugasi pożaru świata. Ale może chociaż przestaniemy udawać, że to, co czujemy – ten ciągły lęk i wkurzenie – to nasza wina. To nie my zwariowaliśmy. To algorytm.
#algorytmy #dezinformacja #DolinaKrzemowa #DonaldTrump #DSA #Facebook #fakeNews #felieton #higienaCyfrowa #infrastrukturaKrytyczna #manipulacja #Meta #socialMedia #zuckerberg -
„To nie inteligencja, to hipnoza”. Szef Salesforce studzi entuzjazm wokół AGI
Marc Benioff, dyrektor generalny giganta technologicznego Salesforce, dołączył do rosnącego grona sceptyków wobec obecnego kierunku rozwoju sztucznej inteligencji.
W niedawnej wypowiedzi w podcaście określił koncepcję ogólnej sztucznej inteligencji (AGI) mianem „hipnozy” i „oksymoronu”, kwestionując przesadny optymizm panujący w branży. Jego słowa stanowią wyraźny sygnał, że nie wszyscy liderzy Doliny Krzemowej podzielają wizję rychłego nadejścia maszyn o ludzkich zdolnościach intelektualnych.
Występując w podcaście „20VC”, Benioff stanowczo stwierdził, że AGI – hipotetyczna forma AI zdolna do wykonywania dowolnego zadania na poziomie człowieka – to wciąż bardzo odległa perspektywa. Podkreślił fundamentalną różnicę między obecnymi modelami a ludzką świadomością.
„To nie jest osoba, to nie jest inteligentne, to nie jest świadome. Nie cierpiało, nie ma współczucia” – mówił, dodając, że nazywanie tej technologii inteligencją jest wprowadzaniem w błąd.
Krytyczne stanowisko szefa Salesforce wpisuje się w szerszy trend w Dolinie Krzemowej. Po początkowej fali euforii, coraz więcej wpływowych postaci dystansuje się od wizji AGI. Były prezes Google, Eric Schmidt, również mówił o nadmiernym „zauroczeniu” tą koncepcją. Słabnący entuzjazm jest po części efektem rozczarowujących wyników najnowszych modeli, takich jak GPT-5, oraz rosnącej presji na firmy technologiczne, by uzasadniły gigantyczne inwestycje w badania nad AI.
Co istotne, sceptycyzm Benioffa wobec AGI nie oznacza odrzucenia obecnych zastosowań sztucznej inteligencji. Wręcz przeciwnie, w Salesforce technologia ta odgrywa już kluczową rolę, odpowiadając za automatyzację od 30 do 50 procent zadań w działach inżynierii i obsługi klienta. Firma wstrzymała nawet rekrutacje na stanowiska techniczne, jednocześnie rozbudowując zespoły sprzedażowe, aby sprostać rosnącemu popytowi na swoje produkty oparte na AI.
Postawa szefa Salesforce pokazuje rosnący pragmatyzm w branży technologicznej. Zamiast skupiać się na odległych i być może nierealnych koncepcjach, liderzy coraz częściej koncentrują się na praktycznym wykorzystaniu dostępnych narzędzi AI do optymalizacji procesów biznesowych i generowania realnych zysków, co może zwiastować bardziej zrównoważony rozwój tej technologii w najbliższych latach.
#AGI #AI #DolinaKrzemowa #GPT5 #krytykaAI #MarcBenioff #news #ogólnaSztucznaInteligencja #Salesforce #sztucznaInteligencja #technologia