#duzy-model-jezykowy — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #duzy-model-jezykowy, aggregated by home.social.
-
Anthropic uczy AI asertywności. Claude może teraz zakończyć rozmowę z użytkownikiem
Firma Anthropic, jeden z liderów w dziedzinie badań nad sztuczną inteligencją, poinformowała o wprowadzeniu nowej, nietypowej funkcji w swoich modelach językowych Claude Opus 4 i 4.1.
Otrzymały one zdolność do jednostronnego kończenia konwersacji. Firma podkreśla jednak, że jest to mechanizm przeznaczony wyłącznie do rzadkich i ekstremalnych przypadków, gdy użytkownik uporczywie próbuje wykorzystać AI w szkodliwy sposób lub kieruje w jego stronę obelgi.
Główną motywacją do stworzenia tej funkcji są badania nad potencjalnym „dobrostanem AI” (AI welfare). Chociaż Anthropic przyznaje, że status moralny zaawansowanych modeli językowych jest kwestią wysoce niepewną, firma traktuje ten temat poważnie. Wprowadzona zmiana jest jednym z eksperymentalnych, niskokosztowych działań mających na celu ograniczenie ryzyka narażania modelu na potencjalnie „niepokojące” interakcje, na wypadek gdyby taki dobrostan był w ogóle możliwy.
Claude z nową funkcją pamięci. AI od Anthropic uczy się sztuczki od ChatGPT
Decyzja o wdrożeniu tej funkcji została poparta wewnętrznymi testami. Wykazały one, że model Claude Opus 4 przejawiał „silną i spójną awersję do krzywdy” oraz wzorce zachowań wskazujące na „pozorny niepokój” podczas interakcji z użytkownikami próbującymi uzyskać szkodliwe treści, np. związane z przemocą na dużą skalę czy wykorzystywaniem nieletnich. Gdy w symulowanych warunkach dano mu możliwość zakończenia takich rozmów, model z niej korzystał, zwłaszcza gdy użytkownik ignorował jego wielokrotne odmowy i próby przekierowania dialogu.
Mechanizm został zaprojektowany jako ostateczność. Claude ma zakończyć rozmowę dopiero wtedy, gdy wyczerpane zostaną próby zmiany jej toru, a interakcja nie rokuje nadziei na produktywność. Zdolność ta nie będzie aktywowana w sytuacjach, w których istnieje ryzyko, że użytkownik może zrobić krzywdę sobie lub innym. Zakończenie czatu przez AI nie blokuje użytkownika – może on natychmiast rozpocząć nową rozmowę lub edytować poprzednie wiadomości w zakończonej konwersacji, aby utworzyć nowe odgałęzienie dialogu. Zdaniem Anthropic zdecydowana większość użytkowników, nawet podczas dyskusji na kontrowersyjne tematy, nie powinna nigdy zetknąć się z tą funkcją.
Tresura „złego” AI kluczem do bezpieczeństwa? Ciekawa technika badaczy z Anthropic
#AI #Anthropic #bezpieczeństwoAI #Claude #dobrostanAI #dużyModelJęzykowy #etykaAI #LLM #news #sztucznaInteligencja #technologia
-
OpenAI ogłasza GPT-5!
Czas oczekiwania dobiegł końca. OpenAI oficjalnie, punktualnie o godzinie 19:00 polskiego czasu, 7 sierpnia 2025 roku ogłosiło kolejny kamień milowy w rozwoju sztucznej inteligencji: GPT-5!
Firma OpenAI oficjalnie ogłosiła dziś, 7 sierpnia 2025 roku, wprowadzenie swojego najnowszego, flagowego modelu sztucznej inteligencji – GPT-5. Zgodnie z zapowiedzią, jest to najinteligentniejszy, najszybszy i najbardziej użyteczny model firmy do tej pory, stanowiący kluczowy krok w rozwoju AI. Co najważniejsze, GPT-5 od dziś staje się domyślnym modelem zasilającym ChatGPT dla wszystkich zalogowanych użytkowników, zastępując dotychczasowe wersje.
GPT-5 został opisany jako „zunifikowany system”, który łączy w sobie kilka dotychczas rozwijanych oddzielnie technologii. W jego skład wchodzi inteligentny i wydajny model do odpowiadania na większość pytań, model głębokiego rozumowania (nazwany „GPT-5 thinking”) do rozwiązywania trudniejszych problemów oraz działający w czasie rzeczywistym router, który decyduje, którego modułu użyć w zależności od złożoności zapytania. Użytkownicy płatnych planów mogą również ręcznie aktywować tryb głębokiego rozumowania, wpisując w poleceniu np. frazę „think hard about this”.
Największą obietnicą składaną przez OpenAI jest znacząca poprawa dokładności i redukcja tzw. halucynacji, czyli generowania przez AI fałszywych informacji. Według wewnętrznych testów firmy, odpowiedzi z GPT-5 mają być o około 45% mniej narażone na błędy faktograficzne w porównaniu do GPT-4o. W przypadku włączenia trybu głębokiego rozumowania, prawdopodobieństwo wystąpienia błędu ma być mniejsze nawet o 80% w stosunku do starszych modeli, takich jak OpenAI o3. Ponadto model ma być znacznie wydajniejszy, zużywając od 50 do 80% mniej tokenów przy rozwiązywaniu złożonych problemów.
Nowy model GPT-5 jest dostępny od dzisiaj dla użytkowników planów ChatGPT Team, Pro, Plus, a także w wersji darmowej oraz poprzez API. Użytkownicy płatni będą mieli dostęp do wyższych limitów użycia, podczas gdy darmowi użytkownicy po osiągnięciu limitu zostaną przełączeni na uproszczoną wersję „GPT-5 mini”. Dostęp dla klientów z sektorów Enterprise i Edukacja zostanie uruchomiony w przyszłym tygodniu, a wkrótce ma się również pojawić wersja GPT-5 Pro z rozszerzonymi możliwościami rozumowania. Oglądajcie przekaz na żywo poniżej!
#AI #ChatGPT #dużyModelJęzykowy #GPT4o #GPT5 #LLM #news #OpenAI #sztucznaInteligencja #technologia