#pacjenci — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #pacjenci, aggregated by home.social.
-
Laboratoria Medyczne Optimed zhackowane, dane pacjentów mogły zostać wykradzione
Laboratora Medyczne Optimed poinformowały o włamaniu na swoją infrastrukturę. Co ciekawe, spółka wie dokładnie kto stoi za atakiem (grupa z Białorusi) ale nie wie, czy dane pacjentów zostały wykradzione — w swoim oświadczeniu informuje o tym, że “nie można tego wykluczyć” i ostrzega że istnieje ryzyko prób kradzieży tożsamości oraz wyłudzeń finansowych i ujawniania informacji o stanie zdrowia pacjenta.
Informacje o naruszeniu danych osobowych
Szanowni Państwo, działając jako administrator danych osobowych, Laboratoria Medyczne Optimed Sp. z o.o., na podstawie art. 34 Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO), przekazujemy informację o naruszeniu ochrony danych osobowych, które może wiązać się z wysokim ryzykiem naruszenia praw i wolności osób, których dane są przez nas przetwarzane.
W dniu 3 maja 2026 roku nasze laboratorium padło ofiarą ataku cyberprzestępców. Wykryliśmy incydent bezpieczeństwa polegający na nieuprawnionym dostępie do części naszej infrastruktury informatycznej. Wstępna analiza wykazała, że zorganizowania grupa cyberprzestępców z Białorusi przełamała dostęp do systemu – nie można wykluczyć, że osoby nieuprawnione mogły uzyskać dostęp do danych, które były tam przechowywane.
Zakres danych, które mogły zostać objęte incydentem obejmuje Państwa dane identyfikacyjne, w tym:
– imię i nazwisko,
– numer PESEL,
– datę urodzenia
– adres zamieszkania,
– a także dane szczególnej kategorii dotyczące zdrowia, w szczególności informacje związane z wykonywanymi badaniami laboratoryjnymi oraz ich wynikami.
Z uwagi na charakter naruszenia istnieje ryzyko nieuprawnionego wykorzystania danych, w tym prób kradzieży [...]#Badania #DaneMedyczne #Diagnostyka #Optimed #Pacjenci #WyciekDanych
-
https://www.europesays.com/pl/318139/ Awaria uderzyła w apteki. Poważne utrudnienia dla pacjentów #apteki #awaria #BreakingNews #BreakingNews #DawidSieńkowski #dorzeczy #Headlines #kraj #LatestNews #LatestNews #Nagłówki #NajważniejszeArtykuły #News #pacjenci #Polish #Polski #swiat #TopStories #TopStories #Wiadomości #World #WorldNews #WorldNews #zdrowie
-
https://www.europesays.com/pl/126635/ „Na początku myślałem, że to grypa”. W końcu Tomasz postanowił zrobić test na HIV #badanie_hiv #BreakingNews #BreakingNews #choroby_od_a_do_z #choroby_przenoszone_droga_plciowa #FeaturedNews #FeaturedNews #Headlines #hiv #krew #LatestNews #LatestNews #Nagłówki #NajważniejszeArtykuły #nat_styl #News #omp #pacjenci #PL #Poland #Polish #Polska #Polski #screening_general #TopStories #TopStories #Wiadomości #wirus_hiv #zakazenie #zakazenie_hiv
-
Poufne wyznania pacjentów trafiają do ChatGPT. Niektórzy terapeuci używają AI w tajemnicy
Coraz więcej pacjentów odkrywa, że ich terapeuci potajemnie wykorzystują narzędzia sztucznej inteligencji, takie jak ChatGPT, podczas sesji terapeutycznych.
Jak donosi MIT Technology Review, prywatne i często bolesne wyznania są wprowadzane do ogólnodostępnych modeli AI bez wiedzy i zgody pacjentów, co rodzi poważne pytania o etykę i zaufanie w relacji terapeutycznej.
W jednym z opisanych przypadków terapeuta podczas sesji online przypadkowo udostępnił swój ekran, a pacjent na własne oczy zobaczył, jak jego osobiste przemyślenia są w czasie rzeczywistym wpisywane w okno czatu ChatGPT. Następnie terapeuta powtarzał odpowiedzi wygenerowane przez algorytm. Takie incydenty, odkrywane przez pacjentów, prowadzą do konfrontacji i nieodwracalnie niszczą zaufanie, które jest fundamentem skutecznej terapii. Eksperci podkreślają, że kluczowym problemem jest brak transparentności; terapeuci, którzy decydują się na wspomaganie AI, powinni bezwzględnie informować o tym swoich pacjentów.
Motywacje terapeutów sięgających po AI są różne. Niektórzy postrzegają te narzędzia jako sposób na oszczędność czasu, zwłaszcza w kontekście nielubianego przez nich obowiązku sporządzania notatek z sesji. Większość specjalistów, z którymi rozmawiali dziennikarze, jest jednak sceptyczna co do wykorzystywania AI do uzyskiwania porad dotyczących leczenia pacjenta. Wyrażają oni również obawy związane z wprowadzaniem wrażliwych danych do ogólnodostępnych narzędzi. Należy przy tym odróżnić użycie ogólnych modeli AI od specjalistycznych, dedykowanych botów terapeutycznych, których pierwsze badania kliniczne przyniosły obiecujące rezultaty.
Koniec z domysłami. Oto jakie są limity w darmowym i płatnym Gemini
Problem zaczynają dostrzegać zarówno organizacje zawodowe, jak i prawodawcy. Przykładowo, Amerykańskie Stowarzyszenie Poradnictwa (American Counseling Association) odradza stosowanie narzędzi AI do diagnozowania pacjentów. W Stanach Zjednoczonych pojawiają się też pierwsze regulacje prawne – stany Nevada i Illinois wprowadziły przepisy zakazujące wykorzystywania sztucznej inteligencji w podejmowaniu decyzji terapeutycznych.
Przedstawiciele firm technologicznych zdają się zachęcać do takiego wykorzystania AI. Sam Altman z OpenAI stwierdził, że wiele osób „skutecznie używa ChatGPT jako swego rodzaju terapeuty” i postrzega to jako zjawisko pozytywne. Eksperci kontrują jednak, że to, co oferują chatboty, nie jest prawdziwą terapią. Prawdziwa terapia często bywa procesem niewygodnym i wymagającym, podczas gdy AI ogranicza się do bycia „kojącym i potwierdzającym wszystko”, co powie użytkownik, bez rzucania wyzwań i dążenia do głębszego zrozumienia problemu.
Kolejny gigant idzie na wojnę z AI. Warner Bros. Discovery oskarża Midjourney o „bezczelną kradzież”
#AI #ChatGPT #daneMedyczne #etyka #news #pacjenci #poufność #psychoterapia #sztucznaInteligencja #terapia