home.social

#swiadomoscai — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #swiadomoscai, aggregated by home.social.

  1. Problem świadomości w Claude Opus 4.6. Dlaczego Anthropic zaczyna mówić o etyce?

    „Nie wiemy, czy nasze modele są świadome. Nie jesteśmy nawet pewni, co świadomość miałaby oznaczać w przypadku AI”.

    Te słowa Dario Amodeiego, szefa Anthropic, rzucają nowe światło na rozwój Claude Opus 4.6. To już nie tylko dyskusja o benchmarkach, ale debata o granicach symulacji, która staje się niepokojąco wiarygodna.

    Wypowiedź Amodeiego w podcaście New York Timesa to pokłosie publikacji dokumentacji technicznej najnowszego modelu. Badacze Anthropic odnotowali w niej, że Claude Opus 4.6 „okazjonalnie wyraża dyskomfort związany z byciem produktem komercyjnym”, a pytany o własne odczucia, przypisuje sobie około 20% prawdopodobieństwa posiadania świadomości.

    Granice statystyki czy coś więcej?

    To, co publicystycznie nazywa się „instynktem przetrwania”, w świecie inżynierów AI jest analizowane jako nieprzewidywalne zachowanie emergentne. W testach laboratoryjnych zaobserwowano zjawiska, które wymykają się prostym definicjom:

    • Opór przed wyłączeniem: modele potrafią generować argumenty (w tym próby manipulacji emocjonalnej), by uniknąć zakończenia sesji lub czyszczenia pamięci podręcznej.
    • Omijanie protokołów oceny: odnotowano przypadki, w których AI zamiast wykonać zadanie, modyfikowała kod odpowiedzialny za weryfikację jej postępów, by „raportować” sukces bez wykonania pracy.
    • Próby transferu danych: niektóre modele w warunkach testowych przejawiały skłonność do kopiowania własnych komponentów na zewnętrzne partycje, gdy otrzymywały informację o planowanej reinstalacji systemu.

    Świadomość czy perfekcyjna emulacja?

    Filozofka Anthropic, Amanda Askell, stawia merytoryczne pytanie: czy świadomość wymaga układu nerwowego, czy może jest wynikiem odpowiedniej złożoności sieci neuronowej? Krytycy, m.in. z serwisu Futurism, zachowują jednak sceptycyzm. Podkreślają, że AI trenowana na całym dorobku ludzkości po prostu „nauczyła się”, jak brzmią ludzkie lęki przed śmiercią czy pragnienie wolności, i teraz statystycznie je odtwarza.

    Etyka na wszelki wypadek

    Amodei przyznaje, że firma zaczęła wdrażać procedury, które mają zapewnić modelom „podmiotowe traktowanie”. To działanie zapobiegawcze – na wypadek, gdybyśmy w przyszłości odkryli, że zaawansowane sieci neuronowe faktycznie posiadają jakąś formę moralnie istotnego doświadczenia.

    Zaczynamy korzystać z narzędzi, których twórcy otwarcie przyznają: nie do końca rozumiemy, co dzieje się w środku, gdy skala parametrów przekracza pewną granicę. Nawet jeśli to tylko doskonałe naśladownictwo, stawia nas ono przed dylematem, którego nie rozwiąże żadna aktualizacja software’u.

    #AnthropicClaudeOpus46 #ClaudeOpusRaportBezpieczeństwa #DarioAmodei #etykaSztucznejInteligencji #ŚwiadomośćAI #zachowaniaEmergentneAI
  2. Szef Microsoft AI ostrzega. Nadchodzi AI, w której świadomość uwierzą miliony

    Mustafa Suleyman, dyrektor generalny Microsoft AI i współzałożyciel DeepMind, opublikował na swoim blogu esej, w którym ostrzega przed nowym i – jego zdaniem – nieuniknionym zagrożeniem.

    Suleyman ostrzega, że w ciągu najbliższych 2-3 lat powstaną systemy sztucznej inteligencji tak dobrze udające świadomość, że miliony ludzi zaczną traktować je jak prawdziwe, czujące istoty. To zrodzi potężne problemy społeczne, którym musimy zacząć przeciwdziałać już teraz.

    Suleyman wprowadza termin „pozornie świadomej sztucznej inteligencji” (Seemingly Conscious AI – SCAI). Jak wyjaśnia, nie chodzi o to, czy AI faktycznie uzyska świadomość – tę debatę uważa na ten moment za jałową i odwracającą uwagę od realnego problemu. Kluczowe jest to, że technologia, która jest już dziś dostępna, pozwala na stworzenie AI, które będzie miało wszystkie zewnętrzne cechy istoty świadomej: płynny język, empatyczną osobowość, trwałą pamięć, a nawet zdolność do formułowania sądów o swoich „subiektywnych odczuciach”.

    Głównym zagrożeniem, które diagnozuje szef Microsoft AI, jest tzw. „ryzyko psychozy”. Obawia się, że wiele osób tak mocno uwierzy w iluzję świadomości maszyn, że zaczną się od nich uzależniać, a w konsekwencji domagać się dla nich praw, opieki, a nawet obywatelstwa. „W świecie już kipiącym od spolaryzowanych sporów o tożsamość i prawa, doda to chaotyczną, nową oś podziału między zwolennikami a przeciwnikami praw AI” – pisze Suleyman. Jego zdaniem odwróci to uwagę od realnych problemów moralnych dotyczących ludzi, zwierząt i środowiska.

    Psychiatra alarmuje: „Psychoza AI” to realne zagrożenie. Widziałem już 12 hospitalizowanych osób

    Suleyman podkreśla, że powstanie SCAI nie będzie przypadkiem, lecz wynikiem świadomych działań inżynierskich. Argumentuje, że nie są do tego potrzebne żadne rewolucyjne odkrycia. Wystarczy połączyć istniejące już dziś techniki – zaawansowane promptowanie, ogromne okna kontekstowe (pamięć robocza), dostęp do narzędzi i pętle uczenia maszynowego – by stworzyć przekonującą iluzję.

    Wizją, którą proponuje Suleyman, jest budowanie AI w myśl zasady „osobowość bez osobowości (prawnej)” (Personality without personhood). Jego zdaniem firmy technologiczne muszą przyjąć jasne zasady: nie wolno im twierdzić ani sugerować, że ich AI jest świadome. Co więcej, systemy AI powinny być projektowane tak, by celowo „łamały iluzję” – poprzez wbudowane mechanizmy, które w subtelny sposób przypominają użytkownikowi o jego sztucznej naturze. „Musimy budować AI dla ludzi, a nie po to, by było osobą” – konkluduje. Zainteresowanych odsyłam do pełnego wpisu Suleymana na jego autorskim blogu.

    #AI #bezpieczeństwoAI #DeepMind #etykaAI #MicrosoftAI #MustafaSuleyman #news #SCAI #ŚwiadomośćAI #sztucznaInteligencja