Sztuczna inteligencja odgrywa coraz większą rolę w biznesie, a chatboty stają się nieodzownym elementem obsługi klienta, automatyzacji procesów oraz komunikacji online. Im większy stopień zaawansowania, tym większe ryzyko naruszeń. Stąd, tradycyjnie, wdrożenie takich rozwiązań wiąże się z szeregiem wyzwań prawnych, które należy bezwzględnie uwzględnić.
Jak AI ACT – jak reguluje chatboty?
AI ACT to unijne rozporządzenie, które nie tylko klasyfikuje systemy AI według poziomu ryzyka i nakłada na nie określone obowiązki, ale również zawiera przepisy dotyczące niedozwolonych praktyk w zakresie AI oraz regulacje odnoszące się do modeli ogólnego przeznaczenia (General Purpose AI Models - GPAI). Chatboty, w zależności od ich funkcjonalności, mogą podlegać różnym wymaganiom.
Najważniejsze założenia AI ACT dotyczące chatbotów (i nie tylko) obejmują:
- transparentność - użytkownik musi wiedzieć, że komunikacja odbywa się z systemem AI, co ma na celu umożliwienie podejmowania świadomych decyzji,
- klasyfikacja ryzyka - chatboty wykorzystywane w kluczowych sektorach, takich jak bankowość, edukacja czy opieka zdrowotna, mogą być uznane za systemy wysokiego ryzyka, jeśli spełniają kryteria określone wskazane w AI Act lub są elementem wyrobu medycznego albo innego produktu regulowanego odrębnymi przepisami unijnymi (np. MDR – Medical Devices Regulation). W takich przypadkach muszą one spełniać dodatkowe wymogi bezpieczeństwa, jak np. obowiązek wdrożenia systemu zarządzania ryzykiem.
- odpowiedzialność - firmy wdrażające chatboty muszą zapewnić, że systemy AI spełniają wymogi określone w AI Act, w tym:
- prowadzenie dokumentacji technicznej i oceny zgodności,
- wdrożenie systemów monitorowania działania AI po wprowadzeniu na rynek (post-market monitoring),
- zapewnienie nadzoru człowieka nad działaniem systemu,
- podejmowanie działań korygujących w przypadku wykrycia niezgodności lub zagrożeń.
Każdorazowo ten zakres też może się zmieniać, w szczególności w zależności od tego czy system będzie zakwalifikowany jako system wysokiego ryzyka.
Sprawdź również: Obsługa prawna asystent AI
Czy chatboty muszą być zgodne z RODO?
Chatboty, które przetwarzają dane osobowe użytkowników, muszą być zgodne z RODO (GDPR). Jednak obowiązki wynikające z RODO zależą od celu i kontekstu przetwarzania danych.
Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO firmy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na chociażby następujące kwestie:
- czy chatboty przetwarzają dane osobowe klientów zgodnie z RODO?
- czy zostały wdrożone odpowiednie środki techniczne i organizacyjne, aby chronić dane użytkowników przed naruszeniami?
- czy użytkownik jest odpowiednio informowany o przetwarzaniu danych przez AI?
Dodatkowo, ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną. W każdym wypadku, należy zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.
Obsługa prawna AI w firmach – jakie obowiązki mają przedsiębiorstwa?
Firmy wdrażające chatboty muszą przestrzegać regulacji dotyczących AI i ochrony danych. Kluczowe aspekty obsługi prawnej IT i chatbotów w biznesie obejmują:
- ocenę zgodności z przepisami prawa, w tym AI Act i RODO, ale także przepisami chroniącymi konsumentów – firmy powinny przeprowadzić audyt chatbotów, aby upewnić się, że spełniają wymagania prawne,
- polityka prywatności – chatboty muszą jasno informować użytkowników o sposobie, celu i zakresie przetwarzania ich danych,
- monitorowanie i aktualizacja – regulacje dotyczące AI dynamicznie się zmieniają, dlatego przedsiębiorstwa powinny regularnie aktualizować swoje systemy AI zgodnie z nowymi wymogami.
- nadzór - końcowo to przedsiębiorca ponosi odpowiedzialność za przekazywanie błędnych informacji przez czatbota, a więc należy zapewnić nie tylko nadzór pracownika, ale również w razie problemów zapewnić konsumentowi możliwość skontaktowania się z takim pracownikiem.
Wraz z rozwojem technologii pojawiają się także wyzwania prawne i etyczne, w tym:
- ryzyko błędnych decyzji podejmowanych przez AI i odpowiedzialność z tym związana,
- ochrona danych i cyberbezpieczeństwo,
- zapewnienie równego traktowania użytkowników i eliminacja uprzedzeń.