Krótka odpowiedź: Nie, AI Act nie zakazuje voicebotów w medycynie. Ale nakłada konkretne obowiązki — które już obowiązują.
Kiedy w 2024 roku Unia Europejska opublikowała Rozporządzenie (UE) 2024/1689 o sztucznej inteligencji — tzw. AI Act — w branży medycznej pojawiły się obawy: czy nowe przepisy zablokują wdrożenia AI w przychodni? Czy voicebot rejestracyjny stanie się nielegalny?
Odpowiedź brzmi: nie — ale warunki stosowania AI w medycynie zostały precyzyjnie uregulowane. Rozróżnienie, do której klasy ryzyka należy konkretny system AI, decyduje o tym, jakie obowiązki na Ciebie jako operatora spadają. I to rozróżnienie warto rozumieć — zanim podejmiesz decyzję o wdrożeniu.
Harmonogram AI Act — co już obowiązuje, co dopiero wejdzie w życie
AI Act wszedł w życie 1 sierpnia 2024 roku. Jego przepisy wdrażane są stopniowo:
| Data | Co wchodzi w życie |
|---|---|
| 1 sierpnia 2024 | Wejście w życie rozporządzenia |
| 2 lutego 2025 | Zakaz stosowania systemów AI o niedopuszczalnym ryzyku (Art. 5) |
| 2 sierpnia 2025 | Obowiązki dla dostawców modeli GPAI (np. GPT-4, Gemini) — Tytuł VIII |
| 2 sierpnia 2026 | Pełne obowiązki dla systemów wysokiego ryzyka (Aneks III), w tym rejestracja w bazie UE |
| 2 sierpnia 2027 | Przepisy przejściowe dla systemów AI będących wyrobami medycznymi |
Cztery poziomy ryzyka AI Act — gdzie plasuje się voicebot medyczny?
AI Act dzieli systemy AI na cztery kategorie ryzyka:
Ryzyko niedopuszczalne — zakaz stosowania (Art. 5)
Systemy zakazane bezwzględnie: manipulacja podprogowa, scoring społeczny przez organy publiczne, biometryczna identyfikacja w czasie rzeczywistym w miejscach publicznych, systemy eksploatujące podatności grup wrażliwych.Voicebot rejestracyjny: Nie należy do tej kategorii.
Wysokie ryzyko (Art. 6, Aneks III)
Systemy podlegające wymogom jakości, transparentności, nadzoru ludzkiego i rejestracji w bazie UE. W medycynie wysokie ryzyko obejmuje przede wszystkim:- AI będące wyrobami medycznymi klasy IIa, IIb lub III w rozumieniu Rozporządzenia MDR (EU) 2017/745 lub IVDR (EU) 2017/746 — systemy diagnostyczne, analizujące obrazy medyczne, wspierające decyzje kliniczne
- Systemy zarządzania szpitalami w zakresie priorytetyzacji leczenia ratowniczego
Ograniczone ryzyko (Art. 50) — tu jest voicebot
Systemy AI wchodzące w interakcję z ludźmi, generujące treści lub manipulujące wizerunkiem. Obowiązki ograniczają się do transparentności:Art. 50 ust. 1 AI Act: Dostawcy systemów AI przeznaczonych do interakcji bezpośredniej z osobami fizycznymi muszą zapewnić, że osoby te są informowane o tym, że wchodzą w interakcję z systemem AI — chyba że jest to oczywiste z kontekstu.
W praktyce oznacza to, że każdy voicebot medyczny musi identyfikować się jako system automatyczny na początku rozmowy. To wymóg obowiązujący już teraz.
Minimalne ryzyko
Większość systemów AI — filtry antyspamowe, rekomendacje treści, chatboty bez wpływu na prawa użytkownika. Brak szczególnych wymogów.Kiedy AI w medycynie staje się "wysokiego ryzyka"?
Granica między voicebotem administracyjnym a systemem wysokiego ryzyka przebiega w jednym miejscu: czy system AI podejmuje lub istotnie wspiera decyzje kliniczne?
Nie jest wysokiego ryzyka:
- Rejestracja i planowanie wizyt
- Automatyczne przypomnienia i potwierdzenia
- Odpowiedzi na pytania o godziny pracy, cennik, przygotowanie do wizyty
- Zbieranie danych do wywiadu administracyjnego (bez algorytmicznej oceny klinicznej)
- System AI analizujący EKG i sugerujący diagnozę
- AI triagujące pacjenta z algorytmicznym przypisaniem priorytetu medycznego wpływającym bezpośrednio na czas i sposób leczenia
- AI interpretujące wyniki laboratoryjne i generujące rekomendacje terapeutyczne
- Systemy wspierające decyzje o hospitalizacji
Kluczowa zasada: Jeśli AI tylko zbiera dane od pacjenta, a lekarz podejmuje decyzję — system AI jest narzędziem administracyjnym, nie klinicznym. Jeśli AI interpretuje dane i sugeruje lub podejmuje decyzję medyczną — wkraczamy w obszar wysokiego ryzyka wymagający oceny zgodności z MDR/AI Act.
GPAI — co z voicebotami opartymi na modelach jak GPT-4?
Tytuł VIII AI Act wprowadza szczególne wymogi dla dostawców modeli ogólnego przeznaczenia (General-Purpose AI, GPAI) — takich jak GPT-4 czy Gemini. Obowiązki te dotyczą dostawców modeli (OpenAI, Google, Anthropic), nie klinik, które modele te stosują.
Klinika korzystająca z voicebota opartego na GPT-4 nie jest dostawcą GPAI — jest operatorem (deployer). Jej obowiązki wynikają z klasyfikacji ryzyka systemu, w którym model jest używany — a nie z samego modelu.
Jeśli voicebot używa GPT-4 do obsługi rejestracji (ryzyko ograniczone) — obowiązki kliniki to transparentność (Art. 50) i zgodność z RODO. Brak wymogów rejestracji w bazie UE czy oceny zgodności.
Co VoiceLink zrobił, by spełnić wymogi AI Act
VoiceLink dostosował system do wymagań AI Act w następujących obszarach:
- Art. 50 — transparentność: Każda rozmowa zaczyna się od identyfikacji bota jako systemu automatycznego — przed zebraniem jakichkolwiek danych
- Nadzór ludzki: Dla złożonych lub niejasnych przypadków system przekazuje rozmowę do recepcji — bot nie podejmuje autonomicznych decyzji o odmowie usługi
- Dokumentacja i logowanie: Wszystkie interakcje są logowane z możliwością audytu — zgodnie z wymogami rejestracji danych dla operatorów
- Zakaz manipulacji: System nie stosuje technik wpływających na decyzje użytkownika poniżej progu świadomości (Art. 5 ust. 1 lit. a)
- Zgodność z RODO — jako uzupełniający system prawny regulujący przetwarzanie danych osobowych równolegle z AI Act
FAQ — AI Act i voiceboty medyczne
Czy muszę zgłaszać voicebota do jakiegoś rejestru UE? Nie — jeśli system klasyfikuje się jako ograniczonego ryzyka (rejestracja, obsługa administracyjna). Rejestracja w unijnej bazie systemów AI (EU AI database) dotyczy wyłącznie systemów wysokiego ryzyka i dostawców GPAI. Obowiązuje od 2 sierpnia 2026 r.
Czy AI Act wymaga zatrudnienia "AI Officer" — analogicznie do IOD? AI Act nie wprowadza obowiązku wyznaczenia dedykowanego oficera AI dla operatorów (klinik). Dostawcy modeli GPAI mają własne wymogi organizacyjne. Klinika powinna jednak upewnić się, że IOD jest zaznajomiony z implikacjami AI Act w kontekście RODO.
Co grozi za niespełnienie wymogu transparentności z Art. 50? AI Act przewiduje kary za naruszenia art. 50 do 15 milionów EUR lub 3% całkowitego rocznego obrotu (art. 99 ust. 4 AI Act) — stosowana jest kwota wyższa. Nadzór sprawuje krajowy organ właściwy ds. AI — w Polsce jego wskazanie jest w toku implementacji AI Act.
Czy AI Act dotyczy tylko nowych systemów, czy też już działających voicebotów? Systemy AI wprowadzone na rynek lub oddane do użytku przed 2 sierpnia 2026 r. mają czas na dostosowanie — ale wymóg transparentności (Art. 50) stosuje się do wszystkich interakcji bez okresu przejściowego.
Podsumowanie: AI Act reguluje, nie zakazuje — kluczowe jest prawidłowe zrozumienie klasyfikacji
Rozporządzenie o AI nie jest przeszkodą dla wdrożenia voicebota w klinice. Jest ramą prawną, która wyraźnie rozróżnia systemy administracyjne (ryzyko ograniczone) od systemów diagnostycznych (ryzyko wysokie) — i dla każdej klasy precyzuje obowiązki. Voicebot rejestracyjny mieści się w pierwszej kategorii.
Sprawdź zgodność VoiceLink z AI Act w Twojej klinice → Przygotujemy dokumentację zgodności obejmującą zarówno AI Act, jak i RODO — gotową do przedstawienia organom nadzoru lub partnerom biznesowym.

