Udostępnij

AI Act wchodzi w decydującą fazę: Nowe obowiązki dla producentów wyrobów medycznych od sierpnia 2026 roku.

Grafika symbolizująca AI Act UE

Rok 2026 wyznacza nową erę w regulacji technologii cyfrowych w medycynie. Choć unijny Akt o Sztucznej Inteligencji (AI Act) został przyjęty wcześniej, to właśnie 2 sierpnia 2026 roku staje się kluczową datą dla sektora ochrony zdrowia. Od tego dnia zaczną obowiązywać rygorystyczne wymogi dla systemów AI sklasyfikowanych jako systemy wysokiego ryzyka, co bezpośrednio dotyka producentów oprogramowania jako wyrobu medycznego (SaMD) certyfikowanego zgodnie z MDR i IVDR.

Klasyfikacja wysokiego ryzyka: Kiedy AI Act spotyka MDR

Zgodnie z nowymi przepisami, większość systemów sztucznej inteligencji wykorzystywanych w diagnostyce, terapii czy monitorowaniu pacjentów zostaje automatycznie uznana za systemy wysokiego ryzyka. Wynika to z faktu, że produkty te podlegają już ocenie zgodności przez jednostki notyfikowane na gruncie rozporządzeń MDR (2017/745) lub IVDR (2017/746).

Dla producentów oznacza to konieczność wdrożenia dodatkowych ram zarządzania ryzykiem, które wykraczają poza standardową analizę kliniczną. Kluczowym wyzwaniem staje się zapewnienie odpowiedniej jakości danych treningowych, aby uniknąć błędów systematycznych (bias) oraz zapewnienie wysokiego poziomu cyberbezpieczeństwa. Co istotne, AI Act nakłada na firmy obowiązek prowadzenia szczegółowej dokumentacji technicznej dotyczącej cyklu życia algorytmu, w tym procesów jego „uczenia się” i ewolucji po wprowadzeniu do obrotu.

Nadzór po wprowadzeniu do obrotu i rola człowieka

Jednym z najbardziej restrykcyjnych wymogów, które wchodzą w życie w sierpniu 2026 roku, jest zapewnienie nadzoru ludzkiego (human oversight). Systemy AI nie mogą działać w sposób całkowicie autonomiczny w procesach decyzyjnych dotyczących zdrowia ludzkiego. Producenci muszą zaprojektować interfejsy w taki sposób, aby personel medyczny mógł w pełni zrozumieć sugestie generowane przez algorytm, a w razie potrzeby – zignorować je lub nadpisać.

Wprowadzenie tych zasad zbiega się z pełnym uruchomieniem modułów bazy EUDAMED, co pozwoli organom nadzorczym na bardziej efektywne monitorowanie incydentów związanych z działaniem AI. Firmy, które nie dostosują swoich systemów zarządzania jakością do nowych wymogów do lata 2026 roku, ryzykują nie tylko wysokie kary finansowe, ale przede wszystkim utratę certyfikatów dopuszczających ich produkty do obrotu na jednolitym rynku unijnym.

Strategia dla producentów: Integracja systemów zarządzania

Eksperci branżowi podkreślają, że kluczem do sukcesu w 2026 roku jest unikanie budowania odrębnych silosów dla zgodności z MDR i AI Act. Zaleca się integrację wymogów obu rozporządzeń w ramach jednego, spójnego Systemu Zarządzania Jakością (QMS) zgodnego z normą ISO 13485, wzbogaconą o elementy specyficzne dla oprogramowania.

Dla polskiego sektora MedTech, który dynamicznie rozwija rozwiązania z zakresu telemedycyny i analizy obrazowej, nadchodzący termin 2 sierpnia 2026 roku to ostatni dzwonek na przeprowadzenie audytów luk (gap analysis). Inwestycja w zgodność regulacyjną staje się obecnie tak samo ważna, jak innowacyjność samego algorytmu.

Opracowanie własne na podstawie: European Commission / Health Tech World

Link bezpośredni: https://healthtechworld.com/regulatory/ai-act-and-mdr-convergence-2026-milestones/

Newsletter

Zapisz się do newslettera

i otrzymuj wyselekcjonowane informacje z rynku wyrobów medycznych.

Informacja profesjonalna (MDR)

Portal przeznaczony jest wyłącznie dla profesjonalistów. Zawarte tu treści o charakterze technicznym i regulacyjnym dotyczą Rozwoju, produkcji oraz certyfikacji wyrobów medycznych i są kierowane do producentów oraz dostawców. Materiały nie są przeznaczone dla osób trzecich, nie stanowią porad medycznych ani ofert dla konsumentów. Wejście do serwisu oznacza potwierdzenie statusu profesjonalisty.

Nie jestem profesjonalistą – wychodzę