Wróć do strony głównej
Zdrowiej wiedzieć | 02.03.2026

Dezinformacja w dobie sztucznej inteligencji

W medycynie szybciej rośnie liczba kanałów, którymi krążą „informacje zdrowotne” (także generowane przez AI) niż zdolność pacjentów i instytucji do ich weryfikacji. Skutkiem jest dezinformacja, która realnie osłabia profilaktykę – bo utrudnia podejmowanie prostych, codziennych decyzji zdrowotnych na podstawie rzetelnej wiedzy. Nieprzypadkowo ten wątek był jednym z ważnych tematów listopadowej konferencji „MedTech czy TechMed? Driven by AI” na UMW.

W Roku Profilaktyki Zdrowotnej, który UMW prowadzi pod hasłem „Zdrowiej wiedzieć” warto wrócić do panelu „Aktualne kontrowersje i wyzwania etyczne medtechu – czego musimy się bać i jak tego uniknąć?”, moderowanego przez Michała Karbowiaka. Rozmowa koncentrowała się na kwestiach, które w praktyce decydują o bezpieczeństwie: jakości danych, odpowiedzialności za rekomendacje oraz granic zastosowania narzędzi w obszarach szczególnie wrażliwych.

Dr Agnieszka Siennicka, prodziekan ds. rozwoju Wydziału Nauk o Zdrowiu UMW, zwróciła uwagę na fundament większości rozwiązań medtechowych: sposób pozyskiwania i przetwarzania danych ze szpitali. Jej perspektywa była jednoznaczna: jeśli proces danych jest źle zaprojektowany, system może wytwarzać wyniki pozornie sensowne, ale niezgodne z rzeczywistością kliniczną – a w medycynie taki błąd nie kończy się na poziomie technologii, tylko dotyczy decyzji podejmowanych wobec pacjenta.

Dr Renata Wallner, prof. UMW z Katedry Psychiatrii, zwróciła uwagę na wymiar odpowiedzialności w obszarze zdrowia psychicznego. Podkreślała, że AI jest już wykorzystywana jako forma wsparcia psychologicznego, podczas gdy terapeuci funkcjonują w rygorystycznych ramach etycznych, a narzędzia algorytmiczne – nie zawsze w porównywalnym reżimie. Pytania o to, kto odpowiada za „cyfrowych terapeutów” i co dzieje się z najbardziej wrażliwymi danymi pacjentów, w praktyce sprowadzają się do jednego: jak chronić osoby w kryzysie przed sytuacją, w której technologia daje jedynie pozór opieki.

Z kolei dr hab. Karina Stasiuk-Krajewska  akcentowała, że AI może zarówno wzmacniać fałszywe treści, jak i pomagać je wykrywać i weryfikować. To istotne przesunięcie akcentu: problemem nie jest samo istnienie narzędzi, tylko to, czy równolegle budujemy praktyki i kompetencje, które pozwalają odróżnić informację medyczną od jej imitacji.

Po konferencji te tezy szybko znalazły potwierdzenie w przestrzeni publicznej. W styczniu 2026 r. Rzecznik Praw Pacjenta informował o interwencji w sprawie materiału wideo rozpowszechnianego w mediach społecznościowych, w którym wykorzystano wizerunek znanego muzyka do promocji pseudomedycznych treści; sprawa została zgłoszona do organów ścigania. To przykład dezinformacji zdrowotnej w formie, która dzięki technologiom generowania treści może wyglądać jak wiarygodna relacja lub reklama. I jednocześnie problem, który narasta i wymaga systemowych działań. 

W takim kontekście „Zdrowiej wiedzieć” można czytać bardzo praktycznie: jako wezwanie do profilaktyki opartej nie tylko na badaniach i zaleceniach, ale też na umiejętności rozpoznawania wiarygodnych źródeł, weryfikowania przekazów i reagowania na treści, które podszywają się pod medycynę. Panel o etycznych wyzwaniach medtechu przypomniał, że w dobie AI walka o zdrowie zaczyna się coraz częściej od walki o jakość informacji.

Tagi #umw
Autor: Alicja Giedroyć-Skiba Data utworzenia: 02.03.2026 Autor edycji: Alicja Giedroyć-Skiba Data edycji: 02.03.2026