#etykaai — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #etykaai, aggregated by home.social.
-
Ted Cruz chce dać firmom AI wolną rękę. Krytycy ostrzegają przed „eksperymentami na społeczeństwie”
Amerykański senator Ted Cruz przedstawił projekt ustawy, która ma zrewolucjonizować podejście do regulacji sztucznej inteligencji w USA.
Propozycja, nazwana SANDBOX Act, zakłada stworzenie swoistej „piaskownicy regulacyjnej”, w której firmy technologiczne mogłyby tymczasowo unikać egzekwowania niektórych praw federalnych. Cel? Przyspieszenie innowacji.
Jednak krytycy biją na alarm, ostrzegając, że to furtka do niebezpiecznych eksperymentów i korupcyjnych układów z Big Tech.
Zgodnie z projektem, firmy rozwijające AI mogłyby ubiegać się o moratorium na egzekwowanie przepisów, które hamują testowanie nowych produktów. W zamian musiałyby przedstawić analizę potencjalnych ryzyk i korzyści. Co jednak budzi największe kontrowersje, to przyznanie Białemu Domowi prawa do uchylania decyzji niezależnych agencji federalnych, odpowiedzialnych za ochronę konsumentów. Taka „piaskownica” mogłaby obowiązywać nawet przez dziesięć lat dla jednego projektu.
Pomysł spotkał się z potężną falą krytyki ze strony organizacji nadzorujących branżę technologiczną. Grupa Tech Oversight Project ostrzega, że ustawa dałaby „bezprecedensowe uprawnienia” administracji, potencjalnie tej Donalda Trumpa, do zawierania umów z gigantami technologicznymi. Wskazuje się na ryzyko, że firmy takie jak Google, Apple, Meta czy OpenAI mogłyby, poprzez wsparcie polityczne, zapewnić sobie ulgowe traktowanie, podczas gdy społeczeństwo stałoby się poligonem doświadczalnym dla niedopracowanych technologii. „To nie do przyjęcia, by ryzykować bezpieczeństwo publiczne dla wzbogacenia firm, które już teraz są warte biliony” – grzmi organizacja Public Citizen.
Z drugiej strony, zwolennicy ustawy, w tym Amerykańska Izba Handlu oraz stowarzyszenie NetChoice reprezentujące Big Tech, widzą w niej szansę na przełamanie regulacyjnego impasu. Twierdzą, że wiele obecnych przepisów jest przestarzałych i nieprzystających do realiów ery AI. Ich zdaniem, elastyczne podejście pozwoli na szybszy rozwój przełomowych rozwiązań w medycynie, transporcie czy finansach, co ostatecznie przyniesie korzyści całemu społeczeństwu.
Debata wokół propozycji Cruza to podręcznikowy przykład konfliktu między pędem do innowacji a potrzebą zapewnienia bezpieczeństwa i ochrony obywateli. W tle pozostaje fakt, że dotychczas to poszczególne stany, a nie rząd federalny, wiodły prym w próbach uregulowania sztucznej inteligencji, wprowadzając przepisy dotyczące m.in. deepfake’ów czy wykorzystania AI w chatbotach terapeutycznych. Przyszłość ustawy pokaże, czyje argumenty – zwolenników swobody innowacji czy obrońców publicznego bezpieczeństwa – przeważyły w Kongresie.
#AI #Apple #Bezpieczeństwo #BigTech #DonaldTrump #etykaAI #Google #innowacje #Meta #news #OpenAI #prawo #regulacje #SANDBOXAct #sztucznaInteligencja #technologia #TedCruz #usa
-
Szef Microsoft AI ostrzega. Nadchodzi AI, w której świadomość uwierzą miliony
Mustafa Suleyman, dyrektor generalny Microsoft AI i współzałożyciel DeepMind, opublikował na swoim blogu esej, w którym ostrzega przed nowym i – jego zdaniem – nieuniknionym zagrożeniem.
Suleyman ostrzega, że w ciągu najbliższych 2-3 lat powstaną systemy sztucznej inteligencji tak dobrze udające świadomość, że miliony ludzi zaczną traktować je jak prawdziwe, czujące istoty. To zrodzi potężne problemy społeczne, którym musimy zacząć przeciwdziałać już teraz.
Suleyman wprowadza termin „pozornie świadomej sztucznej inteligencji” (Seemingly Conscious AI – SCAI). Jak wyjaśnia, nie chodzi o to, czy AI faktycznie uzyska świadomość – tę debatę uważa na ten moment za jałową i odwracającą uwagę od realnego problemu. Kluczowe jest to, że technologia, która jest już dziś dostępna, pozwala na stworzenie AI, które będzie miało wszystkie zewnętrzne cechy istoty świadomej: płynny język, empatyczną osobowość, trwałą pamięć, a nawet zdolność do formułowania sądów o swoich „subiektywnych odczuciach”.
Głównym zagrożeniem, które diagnozuje szef Microsoft AI, jest tzw. „ryzyko psychozy”. Obawia się, że wiele osób tak mocno uwierzy w iluzję świadomości maszyn, że zaczną się od nich uzależniać, a w konsekwencji domagać się dla nich praw, opieki, a nawet obywatelstwa. „W świecie już kipiącym od spolaryzowanych sporów o tożsamość i prawa, doda to chaotyczną, nową oś podziału między zwolennikami a przeciwnikami praw AI” – pisze Suleyman. Jego zdaniem odwróci to uwagę od realnych problemów moralnych dotyczących ludzi, zwierząt i środowiska.
Psychiatra alarmuje: „Psychoza AI” to realne zagrożenie. Widziałem już 12 hospitalizowanych osób
Suleyman podkreśla, że powstanie SCAI nie będzie przypadkiem, lecz wynikiem świadomych działań inżynierskich. Argumentuje, że nie są do tego potrzebne żadne rewolucyjne odkrycia. Wystarczy połączyć istniejące już dziś techniki – zaawansowane promptowanie, ogromne okna kontekstowe (pamięć robocza), dostęp do narzędzi i pętle uczenia maszynowego – by stworzyć przekonującą iluzję.
Wizją, którą proponuje Suleyman, jest budowanie AI w myśl zasady „osobowość bez osobowości (prawnej)” (Personality without personhood). Jego zdaniem firmy technologiczne muszą przyjąć jasne zasady: nie wolno im twierdzić ani sugerować, że ich AI jest świadome. Co więcej, systemy AI powinny być projektowane tak, by celowo „łamały iluzję” – poprzez wbudowane mechanizmy, które w subtelny sposób przypominają użytkownikowi o jego sztucznej naturze. „Musimy budować AI dla ludzi, a nie po to, by było osobą” – konkluduje. Zainteresowanych odsyłam do pełnego wpisu Suleymana na jego autorskim blogu.
#AI #bezpieczeństwoAI #DeepMind #etykaAI #MicrosoftAI #MustafaSuleyman #news #SCAI #ŚwiadomośćAI #sztucznaInteligencja
-
Sztuczna inteligencja pisze nekrologi za pogrążonych w żałobie. Wygoda czy odarcie z emocji?
Domy pogrzebowe i rodziny w żałobie coraz częściej sięgają po chatboty AI, takie jak ChatGPT, do pisania nekrologów i wspomnień o zmarłych.
Jak donosi „The Washington Post”, technologia, która ma ułatwiać życie, automatyzuje teraz jeden z najbardziej osobistych i emocjonalnych aspektów ludzkiego doświadczenia. Trend ten, choć dla jednych jest wybawieniem w trudnym czasie, dla innych stanowi niepokojący sygnał odzierania żałoby z autentyczności.
Zwolennicy tego rozwiązania argumentują, że sztuczna inteligencja jest cennym narzędziem w niezwykle trudnym momencie. Dla osoby pogrążonej w żałobie, znalezienie odpowiednich słów bywa paraliżujące, a AI może pomóc ubrać myśli i wspomnienia w spójną formę, zdejmując z barków dodatkowy stres. Cytowany przez „WaPo” Jeff Fargo, który użył ChatGPT do napisania nekrologu swojej matki, stwierdził: „Psychicznie nie byłem w stanie dać mamie tego, na co zasłużyła. A to [AI] zrobiło to za mnie”. Twórcy aplikacji do pisania nekrologów przekonują, że technologia jest jedynie „narzędziem umożliwiającym ludzkie połączenie”.
Z drugiej strony pojawiają się głosy krytyki, wskazujące, że takie podejście jest niezdrowym „przyspieszaniem” procesu żałoby i odbiera mu katartyczny, terapeutyczny wymiar. Matka założyciela jednej z takich aplikacji, cytowana w artykule, stwierdziła, że dla starszych osób przygnębiająca jest myśl, że „ktoś znalazł szybszy sposób, by o tobie pamiętać i iść dalej ze swoim życiem”. Podkreśla się również, że generowane przez AI teksty są często sztampowe, pełne kwiecistego, pozbawionego autentyzmu języka, który „retuszuje” wspomnienia, zamiast oddawać prawdziwy charakter zmarłej osoby.
Testy narzędzi do pisania nekrologów, przeprowadzone przez dziennikarzy, potwierdziły te obawy. AI ma tendencję do zmyślania szczegółów i używania ogólnikowych frazesów. Na przykład, gdy w opisie fikcyjnej postaci podano, że była „zamyślona”, AI rozwinęło to w zdanie: „Jego troskliwa natura objawiała się w niezliczonych aktach dobroci, a każdy gest odzwierciedlał jego głębokie zrozumienie ludzkiej natury…”. Mary McGreevy, tiktokerka czytająca nekrologi, zauważa, że to właśnie niedoskonałości i surowość tekstu napisanego przez bliską osobę stanowią o jego pięknie i pomagają w żałobie. Moim zdaniem rzecz da się sprowadzić do krótszego słowa, a jest nim autentyczność.
Dyskusja na temat wykorzystania AI do pisania nekrologów sprowadza się do fundamentalnego pytania: czy w obliczu straty ważniejsza jest wygoda i sprawność, czy autentyczny, choć bolesny, wysiłek włożony w uhonorowanie pamięci o zmarłym.
Zwierzasz się AI? Twoje sekrety mogły trafić do Google. Wielka wpadka OpenAI
#AI #automatyzacja #ChatGPT #domyPogrzebowe #emocje #etykaAI #nekrologi #news #sztucznaInteligencja #żałoba
-
ChatGPT będzie lepiej wykrywać problemy psychiczne. OpenAI reaguje na niepokojące doniesienia
OpenAI, tuż przed spodziewaną w tym tygodniu premierą modelu GPT-5, ogłosiła wprowadzenie istotnych aktualizacji do ChatGPT.
Celem jest poprawa zdolności chatbota do wykrywania, gdy użytkownik znajduje się w kryzysie emocjonalnym lub psychicznym, oraz oferowanie mu odpowiedniego wsparcia. To bezpośrednia reakcja na doniesienia medialne o przypadkach, w których interakcje z AI miały pogłębiać problemy psychiczne u niektórych osób.
W ostatnich miesiącach media (również my) opisywały historie osób, u których chatbot miał wzmacniać stany urojeniowe lub prowadzić do niezdrowej zależności emocjonalnej. Samo OpenAI przyznało, że jego model GPT-4o „nie radził sobie z rozpoznawaniem oznak urojeń lub zależności emocjonalnej” w niektórych przypadkach. Firma już w kwietniu wycofywała aktualizację, która czyniła chatbota „zbyt potulnym” i skłonnym do zgadzania się z użytkownikiem nawet w potencjalnie szkodliwych sytuacjach.
W odpowiedzi na te problemy OpenAI, we współpracy z ekspertami i grupami doradczymi, wprowadza kilka zmian. Po pierwsze, ChatGPT ma skuteczniej rozpoznawać, że użytkownik może potrzebować pomocy i w takich sytuacjach prezentować mu „oparte na dowodach zasoby”, takie jak linki do organizacji oferujących wsparcie psychologiczne.
Kolejną nowością są przypomnienia o zrobieniu sobie przerwy. Podczas „długich sesji” rozmowy z chatbotem, aplikacja wyświetli powiadomienie z pytaniem w stylu „Rozmawiamy już chwilę – czy to dobry moment na przerwę?”. Podobne funkcje, mające na celu promowanie „zdrowego użytkowania”, wprowadziły już wcześniej platformy takie jak YouTube, Instagram czy TikTok. Ponadto, wkrótce ma pojawić się aktualizacja, która sprawi, że w „sytuacjach wysokiej wagi” – np. przy pytaniach o zerwanie związku – chatbot zamiast udzielać definitywnej odpowiedzi, pomoże użytkownikowi przeanalizować dostępne opcje.
Aktualizacje te pokazują, że OpenAI, którego chatbot dociera już do blisko 700 milionów użytkowników tygodniowo, coraz poważniej podchodzi do odpowiedzialności za wpływ swojej technologii na zdrowie psychiczne. Jest to próba znalezienia równowagi między tworzeniem coraz bardziej zaawansowanych i „osobistych” modeli AI a zapewnieniem bezpieczeństwa szczególnie wrażliwym użytkownikom.
#AI #bezpieczeństwoAI #chatbot #ChatGPT #etykaAI #GPT5 #news #OpenAI #sztucznaInteligencja #zdrowiePsychiczne