UOKiK bada podejrzenia nielegalnych systemów promocyjnych typu piramida
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) wszczął postępowania wyjaśniające wobec dwóch platform internetowych: BE Poland oraz GrowUp Session. Celem jest sprawdzenie, czy ich działalność nie narusza zbiorowych interesów konsumentów poprzez stosowanie systemów promocyjnych typu piramida.
BE Poland – edukacja czy piramida?
BE Poland to część międzynarodowego projektu BE (Better Experience) z siedzibą w Dubaju. Uczestnicy, działający pod nazwą TPR (Trading People Revolution), oferują pakiety subskrypcyjne umożliwiające korzystanie z platform edukacyjnych do nauki tradingu. Promocja odbywa się głównie za pośrednictwem mediów społecznościowych, w szczególności Instagrama. UOKiK bada, czy model biznesowy BE Poland nie opiera się na systemie promocyjnym typu piramida, w którym korzyści finansowe uczestników zależą głównie od rekrutacji nowych członków, a nie od rzeczywistej sprzedaży usług.
GrowUp Session – obietnice zysków bez ryzyka
GrowUp Session oferuje pakiety szkoleń z zakresu tradingu na rynku Forex i handlu kryptowalutami. Promocja programu polega na przedstawianiu w mediach społecznościowych wysokiego standardu życia i dużych zarobków, które rzekomo wynikają z uczestnictwa w projekcie. UOKiK analizuje, czy działalność GrowUp Session nie narusza zbiorowych interesów konsumentów poprzez stosowanie nieuczciwych praktyk rynkowych.
Czym jest system promocyjny typu piramida?
Systemy promocyjne typu piramida polegają na obiecywaniu uczestnikom zysków głównie za wprowadzanie nowych osób do systemu. Wpłaty nowych członków finansują zyski wcześniejszych uczestników, a nie są inwestowane w realne produkty czy usługi. Taki model jest nielegalny i może prowadzić do poważnych strat finansowych dla uczestników, zwłaszcza gdy napływ nowych członków ustaje.
Apel UOKiK do konsumentów
Prezes UOKiK, Tomasz Chróstny, apeluje do konsumentów o ostrożność wobec ofert obiecujących szybkie i wysokie zyski bez ryzyka. Zaleca dokładne sprawdzanie wiarygodności projektów inwestycyjnych, zwłaszcza tych promowanych w internecie i mediach społecznościowych. Konsumenci powinni być szczególnie czujni wobec przedsięwzięć o nieprzejrzystych zasadach działania, gdzie korzyści są uzależnione od rekrutacji nowych uczestników.
Co to oznacza dla firm?
Firmy, które prowadzą działalność opartą na systemach promocyjnych, powinny szczególnie zwrócić uwagę na kilka kluczowych kwestii, aby uniknąć ryzyka, że ich model biznesowy zostanie uznany za nielegalny system piramidy. W tym celu należy unikać przede wszystkim:
Prawidłowa działalność powinna opierać się na rzeczywistej sprzedaży towarów lub usług o realnej, obiektywnej wartości dla konsumenta, a nie na samym rekrutowaniu nowych uczestników .
Sztuczna inteligencja (AI) odgrywa coraz większą rolę w biznesie, a chatboty stają się nieodzownym elementem obsługi klienta, automatyzacji procesów oraz komunikacji online. Im większy stopień zaawansowania, tym większe ryzyko naruszeń. Stąd, tradycyjnie, wdrożenie takich rozwiązań wiąże się z szeregiem wyzwań prawnych, które należy bezwzględnie uwzględnić.
AI ACT to unijne rozporządzenie, które nie tylko klasyfikuje systemy AI według poziomu ryzyka i nakłada na nie określone obowiązki, ale również zawiera przepisy dotyczące niedozwolonych praktyk w zakresie AI oraz regulacje odnoszące się do modeli ogólnego przeznaczenia (General Purpose AI Models – GPAI). Chatboty, w zależności od ich funkcjonalności, mogą podlegać różnym wymaganiom.
Najważniejsze założenia AI ACT dotyczące chatbotów (i nie tylko) obejmują:
-prowadzenie dokumentacji technicznej i oceny zgodności,
- wdrożenie systemów monitorowania działania AI po wprowadzeniu na rynek (post-market monitoring),
- zapewnienie nadzoru człowieka nad działaniem systemu,
- podejmowanie działań korygujących w przypadku wykrycia niezgodności lub zagrożeń
Każdorazowo ten zakres też może się zmieniać, w szczególności w zależności od tego czy system będzie zakwalifikowany jako system wysokiego ryzyka.
Chatboty, które przetwarzają dane osobowe użytkowników, muszą być zgodne z RODO (GDPR). Jednak obowiązki wynikające z RODO zależą od celu i kontekstu przetwarzania danych.
Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO firmy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na chociażby następujące kwestie:
Dodatkowo, ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną.
W każdym wypadku, należy zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.
Firmy wdrażające chatboty muszą przestrzegać regulacji dotyczących AI i ochrony danych. Kluczowe aspekty obsługi prawnej IT i chatbotów w biznesie obejmują:
Wraz z rozwojem technologii pojawiają się także wyzwania prawne i etyczne, w tym:
Z pewnością, praktyka korzystania z AI w kancelariach prawnych (ale nie tylko) jest podyktowana potrzebą efektywności i oszczędności czasu, na kwestie bardziej administracyjne.
Systemy oparte na AI są w stanie szybko i efektywnie przetworzyć duże ilości danych, co pozwala na automatyzację wstępnej selekcji kandydatów. Dzięki temu rekruterzy mogą szybciej i dokładniej ocenić, czy kandydaci spełniają wymagania stawiane na dane stanowisko.
Warto przypomnieć, że w AI Act dokonano klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka. I tak, systemy AI wykorzystywane w rekrutacji z któregokolwiek z obszarów z zatrudniania, zarządzania pracownikami i dostępu do samozatrudniania mogą zostać zakwalifikowane jako systemy wysokiego ryzyka. Przykładowo będą to właśnie systemy przeznaczone do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizy i filtrowania podań o pracę oraz do oceny kandydatów. To wszystko oczywiście wpływa na zakres obowiązków z tym związanych.
AI w rekrutacji to bez wątpienia kilka istotnych korzyści. Po pierwsze, skraca czas selekcji, co jest szczególnie ważne w przypadku dużej liczby aplikacji. Po drugie, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co może prowadzić do lepszych wyników w dłuższej perspektywie. Jednakże, AI w rekrutacji może być bardziej problematyczne w przypadku stanowisk specjalistycznych lub wysokich stanowisk, gdzie decyzje muszą być podejmowane z uwzględnieniem bardziej miękkich czynników.
Przede wszystkim poprzez automatyzację procesu filtrowania aplikacji, poprzez szybką ocenę zgodność aplikacji z wymaganiami stanowiska, co zwiększa precyzję podejmowanych decyzji. Dodatkowo, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co jest istotne dla długoterminowej sukcesu rekrutacji.
Zastosowanie AI w rekrutacji pracowników wiąże się również z koniecznością przestrzegania przepisów RODO. Procesy te muszą być zgodne zwłaszcza z przepisami RODO, ale też należy pamiętać o takich jak przepisach jak kodeks pracy (pamiętajmy, że w Polsce jednak domyślnym stosunkiem prawnym powinien być stosunek pracy).
Podstawową zasadą, którą pracodawcy powinni kierować się w każdym procesie rekrutacyjnym, jest zasada minimalizacji danych. Przetwarzanie danych osobowych przez AI (ale nie tylko w przypadku AI) wymaga także zapewnienia zgodności z zasadą przejrzystości – kandydaci muszą być jasno poinformowani o celu i zakresie przetwarzania. Dodatkowo, należy pamiętać, że RODO ogranicza możliwość podejmowania decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu danych, jeśli mają one istotny wpływ na osobę, chyba że są one dopuszczone prawem i osoba ma możliwość odwołania się do człowieka.
Istotne jest również pytanie o zgodę na przetwarzanie danych przez AI. Czy zawsze jest ona wymagana - to zależy nie tyle od metody przetwarzania, co od samego procesu - jeśli nie dochodzi do zautomatyzowanego podejmowania decyzji, to zgoda nie zawsze będzie konieczna. Ważne jest także, aby uzyskać wyraźną zgodę kandydatów na przetwarzanie ich danych przez AI (o ile taka zgoda będzie wymagana zgodnie z przepisami) i szczegółowo informować o celach oraz sposobach przetwarzania tych danych. Administrator powinien także zapewnić usunięcie danych osobowych z systemu w przypadku takiego żądania (co jak wiemy - pomimo najlepszych intencji może napotkać trudności).
W tego typu sprawach warto skorzystać z obsługi prawnej branży IT oraz wsparcia, jakie zapewnia prawnik AI, który pomoże zadbać o zgodność procesów rekrutacyjnych z przepisami prawa i aktualnymi wytycznymi.
Sztuczna inteligencja (AI) stanowi coraz istotniejsze narzędzie w wielu branżach, w tym także w obsłudze prawnej. Dynamiczny rozwój tej technologii niesie za sobą nowe wyzwania, wymagając kompleksowego podejścia do kwestii prawnych związanych z jej zastosowaniem. W niniejszym artykule analizujemy kluczowe aspekty prawne dotyczące asystentów AI, zakres regulacji ich dotyczących oraz ograniczenia wynikające z obowiązującego prawa.
Kluczowym aktem prawnym w tym zakresie jest obecnie tzw. AI Act – unijne rozporządzenie mające na celu zapewnienie m.in. transparentności, odpowiedzialności czy klasyfikacji ryzyka związanego z wykorzystaniem AI.
Zastosowanie AI Act wobec chatbotów zależy od ich funkcjonalności i ustalenia poziomu ryzyka. Jeśli chatboty są wykorzystywane między innymi do zautomatyzowanych procesów decyzyjnych mających wpływ na prawa i wolności użytkowników, np. w procesach rekrutacyjnych, ocenie zdolności kredytowej czy selekcji kandydatów do świadczeń socjalnych – mogą zostać zaklasyfikowane jako systemy wysokiego ryzyka.
Ograniczenia prawne dla sztucznej inteligencji w Unii Europejskiej wynikają przede wszystkim z AI Act, który wprowadza czteropoziomową klasyfikację ryzyka – od systemów zakazanych, przez wysokiego ryzyka (np. AI w rekrutacji, medycynie czy sądownictwie), po ograniczone i minimalne ryzyko. Systemy AI wysokiego ryzyka podlegają m.in. ścisłym wymogom zgodności, audytom i nadzorowi.
W przypadku AI należy także spełniać wymogi RODO (GDPR), zapewniając zgodność z przepisami dotyczącymi ochrony danych osobowych. Wyzwania pojawiają się zwłaszcza w zakresie anonimizacji i wykorzystywania danych do trenowania modeli AI.
Modele AI mogą nieświadomie utrwalać lub wzmacniać uprzedzenia, prowadząc do dyskryminacyjnych decyzji. Może to mieć znaczenie np. w kontekście przepisów prawa pracy, szczególnie w obszarach rekrutacji, oceny pracowników czy przyznawania awansów.
Oczywiście skutki naruszenia niektórych z ograniczeń mogą skutkować nie tylko odpowiedzialnością prawną, ale także negatywnymi konsekwencjami wizerunkowymi dla podmiotów wdrażających takie systemy AI.
W kontekście automatyzacji obsługi klienta za pomocą AI, ochrona własności intelektualnej może obejmować różnorodne aspekty. Od zabezpieczenia algorytmów i kodu źródłowego, przez ochronę danych i baz klientów, po wykorzystywane licencje.
Jednocześnie, z uwagi na to, że zgodnie z naszym prawem, generalnie twórcą może być tylko człowiek to sama kwestia praw do treści generowanych przez AI jest to właściwie zagadnienie na odrębny artykuł. Pomijając zresztą problematykę twórcy to jednak zwykle w tym przypadku będą to narzędzia służące do obsługi klienta, a więc również mało prawdopodobny jest scenariusz, gdzie w ogóle powstałoby coś twórczego.
Systemy AI są podatne na ataki cybernetyczne, co może prowadzić do wycieku danych, manipulacji wynikami analiz oraz zakłócenia ich działania. Ochrona przed tego rodzaju zagrożeniami wymaga stosowania zaawansowanych środków zabezpieczających.
W przypadku wdrażania AI w firmie warto skonsultować się z prawnikiem AI, który pomoże zadbać o zgodność z obowiązującymi przepisami oraz zminimalizować ryzyka prawne.
Rozwój sztucznej inteligencji (AI) w medycynie przynosi ogromne korzyści, jednak wiąże się także z istotnymi wyzwaniami prawnymi. Jednym z kluczowych aspektów pozostaje ochrona danych medycznych, szczególnie w kontekście przepisów RODO oraz unijnego rozporządzenia o sztucznej inteligencji (AI Act).
W świetle RODO posługujemy się pojęciem danych dotyczących zdrowia, które oznaczają dane osobowe o zdrowiu fizycznym lub psychicznym osoby fizycznej – w tym o korzystaniu z usług opieki zdrowotnej – ujawniające informacje o stanie jej zdrowia.
W 2024 roku Unia Europejska przyjęła Rozporządzenie Parlamentu Europejskiego i Rady (UE) o sztucznej inteligencji (AI Act), które ustanawia jednolite zasady dla projektowania, wdrażania i nadzoru nad systemami AI w UE. Fakt, że produkt oparty na AI zostanie uznany za wyrób medyczny, może skutkować zakwalifikowaniem go jako system wysokiego ryzyka. AI Act ma bowiem zastosowanie niezależnie od innych aktów prawnych – nawet jeśli system podlega już innym zharmonizowanym przepisom sektorowym, jak np. rozporządzenia 2017/745 (MDR).
Kluczowe wymagania wynikające z AI Act dla sektora medycznego (ale nie tylko) obejmują m.in.:
Przetwarzanie tych danych wymaga szczególnej staranności ze względu na ich wrażliwy charakter. Zgodnie z RODO dane dotyczące zdrowia należą do szczególnych kategorii danych osobowych, których przetwarzanie co do zasady jest zabronione, przy czym RODO przewiduje w tym zakresie wyjątki. W tym kontekście prawnik AI odgrywa kluczową rolę, pomagając placówkom medycznym wdrażać rozwiązania zgodne z przepisami prawa.
Systemy AI wdrażane w placówkach medycznych muszą być projektowane i stosowane przy zapewnieniu bezpieczeństwa i poufności danych pacjentów. Coraz więcej instytucji medycznych korzysta z narzędzi AI do przetwarzania danych pacjentów, co wymaga zastosowania odpowiednich środków technicznych i organizacyjnych, takich jak szyfrowanie czy kontrola dostępu.
RODO nakłada na administratorów danych obowiązki, w tym m.in. zasadę minimalizacji danych, zapewnienia ich odpowiedniego zabezpieczenia czy przejrzystości przetwarzania. Zgoda pacjenta na przetwarzanie danych medycznych z wykorzystaniem AI musi być wyraźna, dobrowolna, świadoma, konkretna i możliwa do wycofania.
Jednak zgoda nie jest jedyną podstawą legalności przetwarzania takich danych. Art. 9 ust. 2 RODO dopuszcza przetwarzanie danych dotyczących zdrowia m.in. w następujących przypadkach, np.: gdy przetwarzanie jest niezbędne do celów profilaktyki zdrowotnej lub medycyny pracy, do oceny zdolności pracownika do pracy, lub ze względów związanych z interesem publicznym w dziedzinie zdrowia publicznego, np. ochrona przed poważnymi transgranicznymi zagrożeniami zdrowotnymi.
Ważne jest także uwzględnienie regulacji dotyczących profilowania oraz zautomatyzowanego podejmowania decyzji, szczególnie w kontekście systemów AI wykorzystywanych do wspomagania diagnozy lub leczenia. Jeśli decyzje podejmowane są wyłącznie automatycznie i wywołują skutki prawne lub istotnie wpływają na pacjenta, stosowanie art. 22 RODO jest obligatoryjne.
Tak, przetwarzanie danych dotyczących zdrowia przy użyciu systemów AI jest dopuszczalne, ale tylko w granicach wyznaczonych przez RODO oraz inne obowiązujące przepisy. Kluczowe jest zapewnienie legalności, rzetelności i przejrzystości przetwarzania, a także wdrożenie odpowiednich środków bezpieczeństwa.
W przypadku gdy system AI kwalifikuje się jako narzędzie wysokiego ryzyka (co dotyczy większości systemów medycznych), niezbędne jest przeprowadzenie oceny skutków dla ochrony danych (Data Protection Impact Assessment – DPIA), zgodnie z art. 35 RODO.
AI może znacznie zwiększyć efektywność procesów medycznych, umożliwiając szybszą analizę danych, ograniczenie błędów i usprawnienie zarządzania dokumentacją. Jednak równocześnie wiąże się z ryzykami, takimi jak nieautoryzowany dostęp do danych, błędy algorytmiczne czy brak przejrzystości działania.
Dlatego systemy AI powinny być nadzorowane przez człowieka (tzw. human oversight) i projektowane zgodnie z zasadą „privacy by design” oraz „privacy by default”.
Właściwe wdrożenie AI w podmiotach medycznych wymaga współpracy z ekspertami z zakresu obsługi prawnej branży IT, którzy pomogą zadbać o zgodność procesów z obowiązującymi regulacjami prawnymi.
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.
Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:
Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.
Od lipca 2013 do listopada 2022 roku Jura Poland – wyłączny importer ekspresów tej szwajcarskiej marki – wraz z kluczowymi dystrybutorami, ustalała sztywne ceny odsprzedaży. Dotyczyło to nie tylko cen standardowych, ale również promocji, gratisów i warunków wyprzedaży. Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.
Decyzja UOKiK to jasny sygnał: zmowy cenowe będą surowo karane – zarówno na poziomie firm, jak i osób fizycznych. To ostrzeżenie dla wszystkich przedsiębiorców, że ustalanie cen z konkurencją lub partnerami handlowymi może się skończyć milionowymi karami i utratą reputacji. UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.
Akurat ta sytuacja jest ewidentna, ale też do naruszenia może dojść w sposób nieumyślny. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy. Szkolenia takie mogą obejmować np. zakazy dotyczące zmów cenowych oraz rozgraniczenie uczciwej konkurencji od zachowań, które mogą być ścigane przez UOKiK lub być podstawą do wytoczenia powództwa przez pokrzywdzonego konkurenta.
Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar (leniency), zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.
Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:
Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.
Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.
UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.
Firmy powinny inwestować w systemy compliance – czyli wewnętrzne procedury i polityki zapobiegające naruszeniom prawa. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy.
Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar, zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.