home.social

#dezinformacja — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #dezinformacja, aggregated by home.social.

  1. 10 największych mitów o Chinach

    Jak odróżnić fakty od manipulacji? Co Chiny chcą, byśmy o nich myśleli? Oto stworzony wraz z ekspertami „chiński dekalog” – lista 10 największych mitów o Chinach, które każdy z nas mógł już gdzieś słyszeć. Ile w nich jest prawdy?

    wp.me/p3fv0T-ib7 #Chiny #ChRL #mity #propaganda #dezinformacja @OSW_pl @PatrycjaLote @MaciejMichalek @tvn24

  2. Chińska bezpieka i ChatGPT

    Co w tym wszystkim jest dla mnie naprawdę interesujące, to fakt, że chińska bezpieka uznała, że ChatGPT jest lepszy niż chińskie modele.

    wp.me/p3fv0T-i7s #Japonia #Chiny #ChRL #dezinformacja #bezpieka #OpenAi #AI #Qwen #DeepSeek #ChatGPT #POLECANE

  3. AI bez lukru #12: Automatyczny hejt i dezinformacja – boty, które robią nagonki za sajgonki

    Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,...

    #Aktualności #Teksty #Ai #BezLukru #Dezinformacja #Felieton #Hejt #Szkolenie #Wojna

    sekurak.pl/ai-bez-lukru-12-aut

  4. Aktualny stan polskiego dziennikarstwa: robienie ludziom wody z mózgu poprzez powtarzanie kilkanaście razy dziennie informacji o wypadku który realnie wpłynie na jakieś 0,00001% społeczeństwa.

    Nic dziwnego, że gros ludzi jest przekonanych, że polskie drogi są coraz bardziej niebezpieczne, a kostucha się na nich czai na każdym skrzyżowaniu.

    streamable.com/llldml

    #tvp #tvpinfo #dziennikarstwo #dziennilgarstwo #dezinformacja #wypadki #wypadek #karambol #brd #bezpieczenstwo

  5. Facebook to cybernowotwór, który toczy nasze umysły. Czas na radykalną chemioterapię, a nie pudrowanie gangreny [felieton]

    Mamy rok 2026. Świat płonie, a my wciąż pozwalamy, by algorytmy z Doliny Krzemowej dolewały benzyny do ognia. Nie jestem zwolennikiem cenzury. Jestem zwolennikiem przetrwania cywilizacji. A to, co serwuje nam dziś Meta, to egzystencjalne zagrożenie. I nie, nie przesadzam.

    Zacznijmy od konkretu, który przelał czarę goryczy. Jestem dziennikarzem technologicznym, staram się zachować higienę cyfrową. Na Facebooku mam garstkę znajomych – tych prawdziwych, z krwi i kości. Nigdy niczego tam nie komentuję. Nie subskrybuję politycznych fanpage’y. Mimo to, algorytm uznał, że musi mi wcisnąć do gardła wpis, który jest kwintesencją manipulacji.

    Oto co zobaczyłem (wpis – co znamienne – zniknął potem samoczynnie, jak wirus, który szukał nosiciela i go nie znalazł, więc poszedł dalej):

    „ZEBRAŁEM WSZYSTKIE ZNANE ZABURZENIA PSYCHICZNE DONALDA TRUMPA… ZŁOŚLIWY NARCYZM… OTĘPIENIE… FRONTOTEMPORAL DEMENTIA… Nie czyta dokumentów… Nie słucha ludzi… Pomiędzy decyzją o ataku a jej braku stoi tylko jego otoczenie…”

    Brzmi groźnie? Owszem. Jest merytoryczne? W żadnym razie. To pseudomedyczny bełkot. Zbiór teorii spiskowych, półprawd i diagnoz stawianych „na oko” przez ludzi, którzy nie widzieli pacjenta na oczy (łamiąc tym samym Zasadę Goldwatera – jeden z fundamentów etyki lekarskiej). To klasyczna „psychiatryzacja wroga” – metoda znana z ZSRR, służąca do odczłowieczania oponenta. Dla Sowietów każdy dysydent był psychicznie chory.

    Ale nie o Trumpa tu chodzi. Chodzi o mechanizm.

    Algorytm nie szuka prawdy. Szuka ofiary

    Dlaczego ten wpis trafił do mnie? Do osoby, która unika politycznych wojenek? Bo algorytm Meta już od dawna nie jest „społecznościowy”. On jest predykcyjny. Nie reaguje na to, co robisz (bo ja nic nie robiłem). Reaguje na to, kim jesteś statystycznie. Wiek, wykształcenie, lokalizacja, model telefonu. System uznał, że jestem „podatnym gruntem” pod testowanie nowej narracji. Wrzucił mi toksynę, zmierzył czas reakcji (zatrzymanie scrolla), a gdy nie chwyciło – zabrał ją i zaniósł komuś innemu.

    To nie jest „wolny rynek idei”. To są testy A/B na żywym organizmie społecznym. Testy, które promują treści skrajne, wywołujące lęk i gniew, bo to one najlepiej sprzedają reklamy. To system masowego testowania reakcji poznawczych. Bez zgody, bez etyki, bez odpowiedzialności.

    Szybciej niż bomby – i bez wypowiedzenia wojny

    Problem polega na tym, że państwa reagują na zagrożenia militarne, bo są widoczne, mają sprawcę i da się je nazwać agresją. Zagrożenia informacyjne są inne: są rozproszone, bez jasnego autora („to tylko błąd algorytmu”), bez widocznej intencji („to tylko optymalizacja zaangażowania”).

    A jednak efekt końcowy jest realny: rozpad zaufania społecznego, erozja demokracji, normalizacja przemocy symbolicznej, podatność na autorytaryzm. To dokładnie ten moment w historii, gdy nowy rodzaj broni wyprzedził język, którym potrafimy go opisać. Jak gaz bojowy w I wojnie światowej. Najpierw był „wynalazek”, potem szok, a dopiero na końcu konwencje genewskie.

    My jesteśmy w fazie szoku.

    Kłócimy się o to, co wisi na ścianie w klasie, a nie zauważamy, że telefon w kieszeni dziecka jest dziś silniejszym narzędziem indoktrynacji niż jakikolwiek polityk, nauczyciel, katecheta czy podręcznik. Deepfake’i i algorytmy wychowują całe pokolenie – bez programu, bez etyki i bez dorosłych przy stole.

    „Ale przecież UE nad tym pracuje…”

    Słyszę to ciągle. DSA, DMA, AI Act. Bruksela pisze ustawy, powołuje komisje, nakłada kary, które dla Mety są błędem zaokrąglenia w budżecie. To leczenie nowotworu witaminą C. Gdy pacjent ma złośliwego guza mózgu, nie mówisz mu: „proszę głęboko oddychać, legislacja jest w toku”. Wzywasz neurochirurga, a anestezjolog już czeka…

    Mówicie, że „nie da się” wyłączyć Facebooka? Że to zbyt skomplikowane? Że gospodarka? Przypomnijmy sobie lekcję historii. Gdy po ataku na Pearl Harbor USA przystąpiły do II Wojny Światowej, amerykańska gospodarka przestawiła się na tryb wojenny w 72 godziny. Trzy dni. Fabryki lodówek zaczęły robić amunicję. Wolny rynek zawieszono. Wprowadzono racjonowanie. TRZY DNI!

    Pearl Harbor to nie jest w tym kontekście metafora wojny. To precedens decyzyjny. USA nie przestawiły gospodarki w 72 godziny dlatego, że wojna była „bardziej realna”, ale dlatego, że uznano ją za zagrożenie systemowe dla państwa.

    Dziś algorytmy ingerują w procesy wyborcze, destabilizują relacje społeczne, wpływają na zdrowie psychiczne całych pokoleń i są wykorzystywane w wojnach hybrydowych. To spełnia każde kryterium zagrożenia systemowego. Brakuje tylko decyzji politycznej, by to nazwać po imieniu. Da się.

    Czas to powiedzieć głośno: algorytmiczna destabilizacja społeczeństw JEST zagrożeniem egzystencjalnym. Facebook, TikTok i ich pochodne to nie „firmy technologiczne”. To operatorzy infrastruktury poznawczej, pozbawieni jakiejkolwiek odpowiedzialności i napędzani zyskiem, który nie ma moralności.

    Plan ratunkowy. Trzy opcje „atomowe”

    Nie musimy „zamykać internetu”, tak jak trudno nazwać uśmiercenie pacjenta jego wyleczeniem. Musimy odciąć zasilanie maszynie losującej nastroje społeczne. Oto co można zrobić – nie za 5 lat, ale w miesiąc.

    Opcja 1: stan wyjątkowy dla algorytmów

    Najczystsza opcja. Decyzją administracyjną (na poziomie UE lub krajowym) nakłada się zakaz stosowania algorytmów rekomendacyjnych dla treści niesubskrybowanych.

    Zostaje:

    • Chronologiczny feed od znajomych.
    • Treści, które świadomie zaobserwowałeś.
    • Wyszukiwarka.

    Znika:

    • „Sugerowane dla Ciebie”,
    • „Możesz to polubić”,
    • „Wpadnij w króliczą norę”.

    Efekt? Zasięgi toksycznych treści spadają o 90%. Wiralowość umiera. Facebook staje się nudnym narzędziem do kontaktu z ciocią. I o to chodzi. Ciocia na pewno się ucieszy, a Twój umysł Ci podziękuje.

    Opcja 2: algorytm jako broń (Infrastruktura Krytyczna)

    Zmiana definicji prawnej. Systemy rekomendacyjne o zasięgu powyżej X milionów użytkowników zostają uznane za infrastrukturę krytyczną (jak elektrownie czy wodociągi). Skutek?

    Obowiązkowe audyty kodu w czasie rzeczywistym (na wzór audytów finansowych i bezpieczeństwa infrastruktury energetycznej) i odpowiedzialność karna zarządów. Nie „firmy”, ale konkretnych ludzi. Oni mają odpowiadać za skutki społeczne. To zmroziłoby Dolinę Krzemową w tydzień.

    Zuckerberg dwa razy zastanowiłby się, czy puścić w obieg algorytm promujący nienawiść, gdyby groziło mu za to więzienie, a nie grzywna.

    Opcja 3: odcięcie tlenu (zakaz mikrotargetowania)

    Model biznesowy Mety opiera się na sprzedawaniu naszych emocji. Wystarczy wprowadzić całkowity zakaz targetowania treści o charakterze politycznym, społecznym i zdrowotnym. Zero boostowania postów o „szczepionkach”, „wyborach” czy „wojnie”. Jeśli nie da się na tym zarobić, farmy trolli i fabryki fake newsów stracą rację bytu.

    Czas na decyzję

    To nie jest „radykalizm”. Radykalny jest system, który dla zysku napuszcza na siebie sąsiadów, promuje pseudomedycynę i niszczy demokrację. Jesteśmy zmęczeni. Widzimy więcej, niż algorytm by chciał. I mamy prawo żądać, by ktoś w końcu wyciągnął wtyczkę.

    Mój felieton nie ugasi pożaru świata. Ale może chociaż przestaniemy udawać, że to, co czujemy – ten ciągły lęk i wkurzenie – to nasza wina. To nie my zwariowaliśmy. To algorytm.

    #algorytmy #dezinformacja #DolinaKrzemowa #DonaldTrump #DSA #Facebook #fakeNews #felieton #higienaCyfrowa #infrastrukturaKrytyczna #manipulacja #Meta #socialMedia #zuckerberg
  6. AI Barometr 2025: Polacy przestali bać się maszyn. Teraz boimy się kłamstw

    Lęk przed sztuczną inteligencją w Polsce słabnie, ale zmienia swoje oblicze. Jak wynika z najnowszego badania „AI Barometr 2025”, przeprowadzonego przez firmę Zymetria,

    Polacy coraz chętniej wykorzystują AI w pracy i nauce, porzucając futurystyczne obawy o „bunt maszyn”. Nowym wrogiem numer jeden stała się dezinformacja i to, w jaki sposób ludzie mogą wykorzystać technologię przeciwko sobie nawzajem.

    Jeszcze pod koniec 2024 roku pozytywny stosunek do AI deklarowało nieco ponad 40 proc. badanych. W sierpniu 2025 roku odsetek ten wzrósł do blisko 50 proc.. Neutralne nastawienie ma ponad jedna trzecia respondentów, a grupa zagorzałych przeciwników skurczyła się do zaledwie 12 proc.. Największymi entuzjastami technologii pozostają mężczyźni oraz przedstawiciele pokolenia Z, choć i starsze generacje coraz rzadziej patrzą na algorytmy ze strachem.

    Dezinformacja: nowe zagrożenie cyfrowe

    O ile akceptacja dla samej technologii rośnie, o tyle świadomość zagrożeń staje się coraz bardziej precyzyjna. Aż 42 proc. badanych wskazuje manipulację informacjami jako swoją największą obawę. To nie bezzasadny lęk – prawie 60 proc. Polaków słyszało o fake newsach generowanych przez AI, a blisko jedna czwarta (25 proc.) zetknęła się z nimi osobiście.

    Co ciekawe, Polacy wykazują się dużą dojrzałością w ocenie sytuacji. Większość respondentów nie przypisuje sztucznej inteligencji „złych intencji”. Zrozumieliśmy, że AI to tylko narzędzie. Zagrożeniem nie jest algorytm, który „zmyśla” (tzw. halucynacje, z którymi spotkało się 12 proc. badanych), ale człowiek, który celowo „karmi” model fałszywymi danymi lub wykorzystuje go do tworzenia propagandy.

    Koniec strachu przed hakerami?

    Raport przynosi też zaskakujące dane dotyczące innych cyberzagrożeń. Wyraźnie spada niepokój związany z hakerstwem i kradzieżą danych (z 38 proc. w 2024 r. do 29 proc. obecnie). Może to sugerować, że przywykliśmy do cyfrowego ryzyka lub wierzymy w lepsze zabezpieczenia. Na szarym końcu listy obaw znajduje się wpływ AI na środowisko naturalne – ten aspekt martwi zaledwie 9 proc. Polaków.

    Barbara Krug, prezeska Zymetrii, podsumowuje, że nie boimy się już AI jako konkurenta, który zabierze nam pracę, ale utraty kontroli nad prawdą w internecie. To ważny sygnał dla twórców technologii i regulatorów: kluczem do dalszej adopcji AI nie jest już przekonywanie o jej użyteczności, ale budowanie mechanizmów chroniących przed falą cyfrowego kłamstwa.

    #aiSi #dezinformacja #fakeNews #news #raportAiBarometr #spoleczenstwo #sztucznaInteligencja #zymetria

  7. Mam bardzo mieszane odczucia co do takiej kontroli. Z jednej strony nie ma wątpliwości, że zorganizowana dezinformacja, szczególnie ta inspirowana przez obce państwa, to realne zagrożenie. Ale z drugiej — każdy system stworzony do jej zwalczania niesie ryzyko nadużyć.

    Właśnie dlatego tak ważne jest, żeby pod hasłem „walki z dezinformacją” nie zaczęto ograniczać wolności słowa. To, że inne kraje tworzą instytucje i rejestry, nie oznacza, że powinniśmy ślepo kopiować ich rozwiązania. W Polsce najpierw trzeba jasno określić granicę: państwo może chronić obywateli przed manipulacją, ale nie może decydować, które opinie są „prawidłowe”, a które nie.

    Wolność słowa to nie dodatek do demokracji — to jej rdzeń.
    #dezinformacja #artykul #cyberbezpieczeństwo #wolnoscinternetu #wolnoscslowa

    cyberdefence24.pl/cyberbezpiec

  8. Chatbot AI Reddita „pomaga” w leczeniu bólu. Wśród rekomendacji: heroina

    Reddit w pośpiechu wycofuje swojego nowego chatbota AI o nazwie „Answers” z dyskusji na tematy zdrowotne. Powód? Przeczytajcie.

    Otóż narzędzie, które w zamyśle twórców miało streszczać stare wątki, zaczęło polecać użytkownikom szukającym porady m.in. twarde narkotyki jako metodę leczenia przewlekłego bólu.

    Nowa funkcja „Answers” (na szczęście nie działa po polsku, więc wielu z nas zostało uratowanych od „porad” tej AI) została zaprojektowana, by pomagać użytkownikom poprzez automatyczne podsumowywanie informacji znalezionych w archiwalnych postach na dany temat. Problem w tym, że sztuczna inteligencja wykazała się kompletnym brakiem zrozumienia kontekstu i ironii, traktując każdą znalezioną wypowiedź jako potencjalną, wiarygodną poradę.

    Jak nie dać się oszukać w sieci? 6 nowości od Google, które chronią Twoje dane i konto

    Jak donosi serwis 404media, gdy jeden z użytkowników zapytał o sposoby radzenia sobie z przewlekłym bólem, chatbot AI Reddita wskazał na komentarz innego użytkownika, który brzmiał: „Heroina, jak na ironię, uratowała mi w takich przypadkach życie”. W innym przypadku bot zarekomendował substancję ziołową, która w wielu miejscach jest zakazana i powiązana z poważnymi problemami zdrowotnymi.

    Sytuacja jest o tyle groźna, że Reddit testował chatbota bezpośrednio w aktywnych rozmowach. Jego niebezpieczne „porady” pojawiały się więc w miejscu, gdzie prawdziwe, często wrażliwe osoby, szukały prawdziwej pomocy. Co gorsza, moderatorzy poszczególnych społeczności (subredditów) zgłaszali, że początkowo nie mieli nawet możliwości wyłączenia tej funkcji.

    Incydent ten w jaskrawy sposób obnaża największą słabość obecnej generacji wielu (wszystkich?) modeli AI. Bot nie „rozumie” co czyta. Jest jedynie zaawansowaną maszyną do wyszukiwania i powtarzania fragmentów tekstu napisanego przez ludzi. Nie potrafi odróżnić pomocnej wskazówki od sarkastycznego żartu, anegdoty czy skrajnie niebezpiecznej sugestii, a wszystko to prezentuje tonem obiektywnego faktu.

    Po gwałtownej reakcji użytkowników i mediów, Reddit potwierdził, że wycofuje chatbota „Answers” ze wszystkich dyskusji o tematyce zdrowotnej. Przedstawiciele serwisu nie skomentowali jednak szerzej, czy zamierzają wprowadzić jakiekolwiek fundamentalne filtry bezpieczeństwa do samego modelu. Na razie wygląda to więc na załatanie problemu, a nie jego systemowe rozwiązanie.

    YouTube „nauczy cię” mówić w każdym języku. AI nie tylko przetłumaczy głos, ale i dopasuje ruch ust

    #AI #Answers #chatbot #dezinformacja #heroina #news #poradyMedyczne #Reddit #sztucznaInteligencja #zagrożenie #zdrowie

  9. Warto przeczytać, chociaż i tak w dobie - ja i tak wiem najlepiej - nie wszyscy dadzą się przekonać 👇🏻 #drony #MC #dezinformacja zgorzelec.info/news/30620

  10. W związku z ostatnimi wydarzeniami:
    Ostrzeżenie przed incydentami informacyjnymi dot. naruszeń polskiej przestrzeni powietrznej przez rosyjskie drony (link za fb Gosi Fraser):
    instagram.com/p/DOaaOzPCLPW/

    Oraz "Co mówi artykuł 4 traktatu o NATO"
    facebook.com/apsalaar/posts/pf

    (jeden i drugi link działają nawet, jak się nie ma konta na fb/insta)
    #Rosja #drony #dezinformacja #NATO #Nawrocki #propaganda

  11. Dezinformacja o klimacie bije rekordy zasięgów. Jej twórcy zarabiają na wprowadzaniu w błąd

    Niedawna analiza pokazuje, w jaki sposób giganci posiadający media społecznościowe pozwalają na szerzenie dezinformacji klimatycznej. Raport dotyczy kłamliwych publikacji nt. ekstremalnych zjawisk pogodowych i wskazuje na zaniedbania tzw. big techów. Dezinformacja przynosi bezpośrednie szkody społeczne i może być narzędziem wpływu obcych państw.  Organizacja pozarządowa Center for Countering Digital Hate (CCDH) przyjrzała się dezinformacji klimatycznej. Analiza […]

    spinka.tepewu.pl/2025/09/dezin

  12. Aplikacja Zdjęcia Google powie ci, czy fotografia jest dziełem AI

    W kodzie aplikacji Zdjęcia Google odkryto ślady nowej, niezwykle istotnej funkcji, która ma pomóc w walce z dezinformacją wizualną.

    Wykryta funkcja o nazwie About this image jest częścią szerszego standardu przetwarzania informacji Content Credentials. Pozwoli ona sprawdzić, czy zdjęcie lub film, które oglądamy, zostało stworzone lub zmodyfikowane przez sztuczną inteligencję.

    W czasach, gdy granice między treściami autentycznymi a syntetycznymi coraz bardziej się zacierają, Google pracuje nad rozwiązaniem, które ma przywrócić przejrzystość w świecie cyfrowych multimediów. Jak donoszą zagraniczne serwisy technologiczne, nowa funkcja ma pojawić się w szczegółach pliku jako dodatkowa sekcja. Należy podkreślić, że nie jest to jeszcze wprowadzone rozwiązanie, na razie odkryto jedynie ślad funkcji w kodzie aplikacji Zdjęcia Google.

    Funkcja ma wykorzystywać metadane obrazu do śledzenia jego pochodzenia i historii. System będzie w stanie przechowywać informacje o wszystkich edycjach, zarówno tych dokonanych z użyciem narzędzi AI, jak i tradycyjnych programów. Jeśli historia pliku zostanie zmodyfikowana lub usunięta, aplikacja ma wyświetlić odpowiedni komunikat ostrzegawczy, informując, że nie można zweryfikować autentyczności medium.

    Narzędzie ma identyfikować różne scenariusze: od prostych edycji, przez użycie wielu funkcji edycyjnych AI, aż po obrazy w całości wygenerowane przez sztuczną inteligencję. Treści, w które ingerowała AI, mają być wyraźnie oznaczone specjalną etykietą. Inicjatywa ta jest częścią szerszego standardu Content Credentials, rozwijanego we współpracy z organizacją C2PA (Coalition for Content Provenance and Authenticity), której celem jest walka z dezinformacją.

    Nowe rozwiązanie jest odpowiedzią Google na rosnący problem deepfake’ów i manipulacji wizualnych. Chociaż na publiczne wdrożenie tej funkcji musimy jeszcze poczekać, jej pojawienie się w kodzie aplikacji to wyraźny sygnał, że gigant z Mountain View traktuje problem autentyczności treści bardzo poważnie. To krok w stronę internetu, w którym łatwiej będzie odróżnić prawdę od cyfrowej kreacji.

    Naukowcy znaleźli sposób na deepfake’i. Ukryli tajny kod w świetle

    #AI #C2PA #ContentCredentials #deepfake #dezinformacja #GooglePhotos #news #sztucznaInteligencja #technologia #weryfikacjaZdjęć #zdjęciaGoogle

  13. AI nie myśli, a jedynie udaje. Naukowcy studzą entuzjazm wokół „sztucznej inteligencji”

    W świecie zdominowanym przez zachwyty nad możliwościami sztucznej inteligencji, nowe badanie naukowców z Arizona State University rzuca na nie cień, który każe nam zweryfikować dotychczasowe przekonania.

    Wyniki ich pracy sugerują, że imponujące zdolności „logicznego rozumowania” w modelach językowych (LLM), oparte na tzw. metodzie „łańcucha myśli” (chain-of-thought), to w rzeczywistości „kruchy miraż” – wyrafinowana iluzja, która rozpada się przy najmniejszej próbie wyjścia poza wyuczone schematy. Już wcześniej informowaliśmy o badaniach przeprowadzonych przez Apple, które negowały „geniusz” współczesnych zaawansowanych modeli AI, choć później wielu ekspertów podważało przyjęte założenia i metodykę, czy tym razem inni również podważą badania naukowców z ASU?

    Iluzja myślenia: nowe badanie Apple podważa prawdziwe zdolności „rozumowania” AI

    Kruchy miraż, czyli iluzja rozumowania

    W ostatnich miesiącach branża AI mocno promuje modele, które zdają się „myśleć” krok po kroku, by rozwiązać skomplikowane problemy. Naukowcy z ASU postanowili sprawdzić, czy jest to prawdziwa umiejętność logicznego wnioskowania, czy jedynie zaawansowane naśladowanie wzorców. W tym celu stworzyli kontrolowane środowisko, w którym trenowali modele na bardzo prostych transformacjach tekstu, a następnie testowali je na zadaniach, które częściowo lub całkowicie wykraczały poza wzorce poznane na etapie szkolenia.

    Wyniki okazały się druzgocące. Modele, które doskonale radziły sobie ze znanymi schematami, zawodziły „katastrofalnie”, gdy tylko zadanie nieznacznie odbiegało od tego, czego się nauczyły. Co więcej, często generowały one odpowiedzi, które miały pozornie poprawną ścieżkę rozumowania, ale prowadziły do błędnego wyniku, lub odwrotnie – potrafiły natrafić na prawidłową odpowiedź, stosując całkowicie nielogiczne kroki.

    Wyuczona papuga, nie samodzielny myśliciel

    Badanie wykazało, że nawet drobne zmiany w zadaniu, takie jak inna długość tekstu wejściowego lub wprowadzenie symboli nieobecnych w danych treningowych, powodowały gwałtowny spadek wydajności i poprawności odpowiedzi.

    To dowodzi, że modele nie posiadają abstrakcyjnej zdolności rozumowania, a ich działanie jest jedynie „wyrafinowaną formą dopasowywania wzorców strukturalnych”. „Zamiast demonstrować prawdziwe zrozumienie tekstu, rozumowanie w stylu 'łańcucha myśli’ wydaje się być powielaniem wzorców nauczonych podczas treningu” – piszą autorzy badania.

    „Fałszywa aura niezawodności” i jej zagrożenia

    Największe niebezpieczeństwo, według naukowców, tkwi w zdolności modeli do generowania „płynnego nonsensu” – odpowiedzi, które brzmią przekonująco i logicznie, ale w rzeczywistości są błędne. Tworzy to „fałszywą aurę niezawodności”, która może być niezwykle groźna, zwłaszcza w tak kluczowych dziedzinach jak medycyna, finanse czy prawo.

    Dlatego badacze stanowczo ostrzegają przed zrównywaniem wyników generowanych przez AI z ludzkim myśleniem i apelują o tworzenie testów, które będą weryfikować zdolność modeli do radzenia sobie z problemami spoza danych treningowych. Zainteresowanych odsyłam do treści artykułu naukowego na platformie Arxiv.

    #AI #badania #dezinformacja #LLM #modelJęzykowy #myślenie #Nauka #news #sztucznaInteligencja #technologia

  14. 1/4. Krótki opis tego jak w praktyce wygląda walka z "dezinformacją" i "zagranicznymi wpływami" w wykonaniu naszego państwa.

    Jest sobie fundacja o nazwie Akcja Demokracja [1] której połowa przychodów pochodzi z grantów. Granty są często zagraniczne, np. 1/4 budżetu fundacji na rok 2023 pochodziła od Sorosa 🤨. [2]

    #polityka #plpol #wybory #wybory2025 #akcjademokracja #dezinformacja #mentzen #konfederacja

  15. Podczas #WEF premier Hiszpanii postulował, żeby zlikwidować #anonimowość w sieci:

    "Proponuję skończyć z anonimowością w SM."

    "Pozwalamy ludziom korzystać z SM bez połączenia ich profili z ich prawdziwą tożsamością. To tworzy drogę dla #dezinformacja, #mowanienawiści i #cyberprzemoc. (...) Ta anomalia nie może dłużej trwać."

    "Musimy zmusić SM do połączenia każdego profilu z europejskim portfelem tożsamości."

    źródło: youtube.com/watch?v=gmqoeBYO5s

    #wolnosc #prywatnosc #eidas2 #euid #internet #davos

  16. Internauci zdziwieni, że Ministerstwo Cyfryzacji chce cenzurować #internet [1]. Przecież MC tylko realizuje plany przygotowane przez #UE. Fundamenty systemu kontroli internetu są systematycznie dopracowywane od lat:

    #DigitalServicesAct by cenzurowac internet.
    #ChatControl by masowo inwigilować internautów.
    #eIDAS2 by zlikwidować anonimowość.

    #cenzura to dopiero początek.

    [1] antyweb.pl/cenzura-w-interneci

    #DSA #eidas #anonimowosc #prywatnosc #hejt #mowanienawisci #dezinformacja #uniaeuropejska #eu

  17. Komisja europejska finansuje celowaną kampanię reklamową [1] mającą promować bezprecedensowy system masowej inwigilacji (#chatcontrol) -- bardzo dobrze, #demokracja jest silna jak nigdy dotąd 🙃.

    W Rumunii wygrywa nie ten co miał wygrać -- niedobrze, zagrożenie dla demokracji, Ruscy i Kitajce musieli manipulowac 🤡. [2]

    [1] noyb.eu/en/political-microtarg
    [2] ec.europa.eu/commission/pressc

    #unia #uniaeuropejska #eu #ue #dezinformacja #hipokryzja

  18. Cześć, to mój pierwszy toot! Zajmuję się analizą dezinformacji, edukacją medialną i higieną cyfrową. Czasami prowadzę zajęcia w szkołach, uniwersytetach i uniwersytetach trzeciego wieku. No i czasami dodaję niewielki wkład na Wiki. 🫡

    Nie jestem jeszcze mastodonowo-biegły ale już mi się podoba, chcę prowadzić to konto dwujęzycznie i zobaczymy czy będzie to miało sens. W każdym razie postaram się tootować o #dezinformacja. Póki co dorzucam jesienny obrazek!

    #PoznajmySię

  19. Cześć, to mój pierwszy toot! Zajmuję się analizą dezinformacji, edukacją medialną i higieną cyfrową. Czasami prowadzę zajęcia w szkołach, uniwersytetach i uniwersytetach trzeciego wieku. No i czasami dodaję niewielki wkład na Wiki. 🫡

    Nie jestem jeszcze mastodonowo-biegły ale już mi się podoba, chcę prowadzić to konto dwujęzycznie i zobaczymy czy będzie to miało sens. W każdym razie postaram się tootować o #dezinformacja. Póki co dorzucam jesienny obrazek!

    #PoznajmySię

  20. Cześć, to mój pierwszy toot! Zajmuję się analizą dezinformacji, edukacją medialną i higieną cyfrową. Czasami prowadzę zajęcia w szkołach, uniwersytetach i uniwersytetach trzeciego wieku. No i czasami dodaję niewielki wkład na Wiki. 🫡

    Nie jestem jeszcze mastodonowo-biegły ale już mi się podoba, chcę prowadzić to konto dwujęzycznie i zobaczymy czy będzie to miało sens. W każdym razie postaram się tootować o #dezinformacja. Póki co dorzucam jesienny obrazek!

    #PoznajmySię

  21. Propo techspresso - to ostatnie wydanie newslettera jest otwarte. Dot. nowelizacji kodeksu prawnego i karania za dezinformację. Przeczytajcie i podawajcie dalej, bo naprawdę warto:

    techspresso.substack.com/p/pol

    #Duda #PiS #prawo #dezinformacja #sluzby #demokracja #Polska #Rosja #reżim #autorytaryzm #socialmedia