Bądź na bieżąco ze zmianami w prawie
Dziękujemy!
Rejestracja przebiegła pomyślnie.
Ups...twój mail nie może być wysłany!

Blog

Wybierz kategorię
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
News

UOKiK bada podejrzenia nielegalnych systemów promocyjnych typu piramida

UOKiK bada podejrzenia nielegalnych systemów promocyjnych typu piramida

Urząd Ochrony Konkurencji i Konsumentów (UOKiK) wszczął postępowania wyjaśniające wobec dwóch platform internetowych: BE Poland oraz GrowUp Session. Celem jest sprawdzenie, czy ich działalność nie narusza zbiorowych interesów konsumentów poprzez stosowanie systemów promocyjnych typu piramida.

BE Poland – edukacja czy piramida?

BE Poland to część międzynarodowego projektu BE (Better Experience) z siedzibą w Dubaju. Uczestnicy, działający pod nazwą TPR (Trading People Revolution), oferują pakiety subskrypcyjne umożliwiające korzystanie z platform edukacyjnych do nauki tradingu. Promocja odbywa się głównie za pośrednictwem mediów społecznościowych, w szczególności Instagrama. UOKiK bada, czy model biznesowy BE Poland nie opiera się na systemie promocyjnym typu piramida, w którym korzyści finansowe uczestników zależą głównie od rekrutacji nowych członków, a nie od rzeczywistej sprzedaży usług.

GrowUp Session – obietnice zysków bez ryzyka

GrowUp Session oferuje pakiety szkoleń z zakresu tradingu na rynku Forex i handlu kryptowalutami. Promocja programu polega na przedstawianiu w mediach społecznościowych wysokiego standardu życia i dużych zarobków, które rzekomo wynikają z uczestnictwa w projekcie. UOKiK analizuje, czy działalność GrowUp Session nie narusza zbiorowych interesów konsumentów poprzez stosowanie nieuczciwych praktyk rynkowych.

Czym jest system promocyjny typu piramida?

Systemy promocyjne typu piramida polegają na obiecywaniu uczestnikom zysków głównie za wprowadzanie nowych osób do systemu. Wpłaty nowych członków finansują zyski wcześniejszych uczestników, a nie są inwestowane w realne produkty czy usługi. Taki model jest nielegalny i może prowadzić do poważnych strat finansowych dla uczestników, zwłaszcza gdy napływ nowych członków ustaje.

Apel UOKiK do konsumentów
Prezes UOKiK, Tomasz Chróstny, apeluje do konsumentów o ostrożność wobec ofert obiecujących szybkie i wysokie zyski bez ryzyka. Zaleca dokładne sprawdzanie wiarygodności projektów inwestycyjnych, zwłaszcza tych promowanych w internecie i mediach społecznościowych. Konsumenci powinni być szczególnie czujni wobec przedsięwzięć o nieprzejrzystych zasadach działania, gdzie korzyści są uzależnione od rekrutacji nowych uczestników.

Co to oznacza dla firm?

Firmy, które prowadzą działalność opartą na systemach promocyjnych, powinny szczególnie zwrócić uwagę na kilka kluczowych kwestii, aby uniknąć ryzyka, że ich model biznesowy zostanie uznany za nielegalny system piramidy. W tym celu należy unikać przede wszystkim:

  • uzależniania wynagrodzenia od wprowadzania kolejnych uczestników do projektu,
  • oferowania korzyści wyłącznie lub głównie za rekrutację nowych osób, a nie za realną sprzedaż towarów lub usług o mierzalnej wartości,
  • tworzenia struktury, w której środki wpłacane przez nowych uczestników służą wypłatom dla osób już uczestniczących,
  • maskowania programu hasłami typu „projekt”, „platforma reklamowa”, „program edukacyjny”, gdy faktycznie działalność polega na pozyskiwaniu nowych członków.

Prawidłowa działalność powinna opierać się na rzeczywistej sprzedaży towarów lub usług o realnej, obiektywnej wartości dla konsumenta, a nie na samym rekrutowaniu nowych uczestników .

Nowe Technologie i Branża IT
Obsługa korporacyjna

Chatboty a prawo – regulacje prawne AI i zgodność z RODO

Sztuczna inteligencja (AI) odgrywa coraz większą rolę w biznesie, a chatboty stają się nieodzownym elementem obsługi klienta, automatyzacji procesów oraz komunikacji online. Im większy stopień zaawansowania, tym większe ryzyko naruszeń. Stąd, tradycyjnie, wdrożenie takich rozwiązań wiąże się z szeregiem wyzwań prawnych, które należy bezwzględnie uwzględnić.

Jak AI ACT – jak reguluje chatboty?

AI ACT to unijne rozporządzenie, które nie tylko klasyfikuje systemy AI według poziomu ryzyka i nakłada na nie określone obowiązki, ale również zawiera przepisy dotyczące niedozwolonych praktyk w zakresie AI oraz regulacje odnoszące się do modeli ogólnego przeznaczenia (General Purpose AI Models – GPAI). Chatboty, w zależności od ich funkcjonalności, mogą podlegać różnym wymaganiom.

Najważniejsze założenia AI ACT dotyczące chatbotów (i nie tylko) obejmują:

  • transparentność – użytkownik musi wiedzieć, że komunikacja odbywa się z systemem AI, co ma na celu umożliwienie podejmowania świadomych decyzji,
  • klasyfikacja ryzyka – chatboty wykorzystywane w kluczowych sektorach, takich jak bankowość, edukacja czy opieka zdrowotna, mogą być uznane za systemy wysokiego ryzyka, jeśli spełniają kryteria określone wskazane w AI Act lub są elementem wyrobu medycznego albo innego produktu regulowanego odrębnymi przepisami unijnymi (np. MDR – Medical Devices Regulation). W takich przypadkach muszą one spełniać dodatkowe wymogi bezpieczeństwa, jak np. obowiązek wdrożenia systemu zarządzania ryzykiem.
  • odpowiedzialność – firmy wdrażające chatboty muszą zapewnić, że systemy AI spełniają wymogi określone w AI Act, w tym:

-prowadzenie dokumentacji technicznej i oceny zgodności,

- wdrożenie systemów monitorowania działania AI po wprowadzeniu na rynek (post-market monitoring),

- zapewnienie nadzoru człowieka nad działaniem systemu,

- podejmowanie działań korygujących w przypadku wykrycia niezgodności lub zagrożeń

Każdorazowo ten zakres też może się zmieniać, w szczególności w zależności od tego czy system będzie zakwalifikowany jako system wysokiego ryzyka. 

Czy chatboty muszą być zgodne z RODO?

Chatboty, które przetwarzają dane osobowe użytkowników, muszą być zgodne z RODO (GDPR). Jednak obowiązki wynikające z RODO zależą od celu i kontekstu przetwarzania danych.

Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO firmy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na chociażby następujące kwestie:

  • czy chatboty przetwarzają dane osobowe klientów zgodnie z RODO?
  • czy zostały wdrożone odpowiednie środki techniczne i organizacyjne, aby chronić dane użytkowników przed naruszeniami?
  • czy użytkownik jest odpowiednio informowany o przetwarzaniu danych przez AI?

Dodatkowo, ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną.  

W każdym wypadku, należy zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.

Obsługa prawna AI w firmach – jakie obowiązki mają przedsiębiorstwa?

Firmy wdrażające chatboty muszą przestrzegać regulacji dotyczących AI i ochrony danych. Kluczowe aspekty obsługi prawnej IT i chatbotów w biznesie obejmują:

  1. ocena zgodności z przepisami prawa, w tym AI Act i RODO, ale także przepisami chroniącymi konsumentów – firmy powinny przeprowadzić audyt chatbotów, aby upewnić się, że spełniają wymagania prawne,
  2. polityka prywatności – chatboty muszą jasno informować użytkowników o sposobie, celu i zakresie przetwarzania ich danych,
  3. monitorowanie i aktualizacja – regulacje dotyczące AI dynamicznie się zmieniają, dlatego przedsiębiorstwa powinny regularnie aktualizować swoje systemy AI zgodnie z nowymi wymogami.
  4. nadzór - końcowo to przedsiębiorca ponosi odpowiedzialność za przekazywanie błędnych informacji przez czatbota, a więc należy zapewnić nie tylko nadzór pracownika, ale również w razie problemów zapewnić konsumentowi możliwość skontaktowania się z takim pracownikiem.

Wraz z rozwojem technologii pojawiają się także wyzwania prawne i etyczne, w tym:

  • ryzyko błędnych decyzji podejmowanych przez AI i odpowiedzialność z tym związana,
  • ochrona danych i cyberbezpieczeństwo,
  • zapewnienie równego traktowania użytkowników i eliminacja uprzedzeń.

Nowe Technologie i Branża IT
Obsługa korporacyjna

AI a Rekrutacja pracowników

Czy kancelarie prawne korzystają z AI?

Z pewnością, praktyka korzystania z AI w kancelariach prawnych (ale nie tylko) jest podyktowana potrzebą efektywności i oszczędności czasu, na kwestie bardziej administracyjne. 

Analiza CV przez AI

Systemy oparte na AI są w stanie szybko i efektywnie przetworzyć duże ilości danych, co pozwala na automatyzację wstępnej selekcji kandydatów. Dzięki temu rekruterzy mogą szybciej i dokładniej ocenić, czy kandydaci spełniają wymagania stawiane na dane stanowisko.

Warto przypomnieć, że w AI Act dokonano klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka. I tak, systemy AI wykorzystywane w rekrutacji z któregokolwiek z obszarów z zatrudniania, zarządzania pracownikami i dostępu do samozatrudniania mogą zostać zakwalifikowane jako systemy wysokiego ryzyka. Przykładowo będą to właśnie systemy przeznaczone do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizy i filtrowania podań o pracę oraz do oceny kandydatów. To wszystko oczywiście wpływa na zakres obowiązków z tym związanych.

Jak AI wpływa na rekrutację?

AI w rekrutacji to bez wątpienia kilka istotnych korzyści. Po pierwsze, skraca czas selekcji, co jest szczególnie ważne w przypadku dużej liczby aplikacji. Po drugie, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co może prowadzić do lepszych wyników w dłuższej perspektywie. Jednakże, AI w rekrutacji może być bardziej problematyczne w przypadku stanowisk specjalistycznych lub wysokich stanowisk, gdzie decyzje muszą być podejmowane z uwzględnieniem bardziej miękkich czynników.

Jak sztuczna inteligencja pomaga w selekcji CV?

Przede wszystkim poprzez automatyzację procesu filtrowania aplikacji, poprzez szybką ocenę zgodność aplikacji z wymaganiami stanowiska, co zwiększa precyzję podejmowanych decyzji. Dodatkowo, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co jest istotne dla długoterminowej sukcesu rekrutacji.

AI a RODO

Zastosowanie AI w rekrutacji pracowników wiąże się również z koniecznością przestrzegania przepisów RODO. Procesy te muszą być zgodne zwłaszcza z przepisami RODO, ale też należy pamiętać o takich jak przepisach jak kodeks pracy (pamiętajmy, że w Polsce jednak domyślnym stosunkiem prawnym powinien być stosunek pracy). 

Podstawową zasadą, którą pracodawcy powinni kierować się w każdym procesie rekrutacyjnym, jest zasada minimalizacji danych. ​​Przetwarzanie danych osobowych przez AI (ale nie tylko w przypadku AI) wymaga  także zapewnienia zgodności z zasadą przejrzystości – kandydaci muszą być jasno poinformowani o celu i zakresie przetwarzania. Dodatkowo, należy pamiętać, że RODO ogranicza możliwość podejmowania decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu danych, jeśli mają one istotny wpływ na osobę, chyba że są one dopuszczone prawem i osoba ma możliwość odwołania się do człowieka.

Istotne jest również pytanie o zgodę na przetwarzanie danych przez AI. Czy zawsze jest ona wymagana - to zależy nie tyle od metody przetwarzania, co od samego procesu - jeśli nie dochodzi do zautomatyzowanego podejmowania decyzji, to zgoda nie zawsze będzie konieczna. Ważne jest także, aby uzyskać wyraźną zgodę kandydatów na przetwarzanie ich danych przez AI (o ile taka zgoda będzie wymagana zgodnie z przepisami) i szczegółowo informować o celach oraz sposobach przetwarzania tych danych. Administrator powinien także zapewnić usunięcie danych osobowych z systemu w przypadku takiego żądania (co jak wiemy - pomimo najlepszych intencji może napotkać trudności).

W tego typu sprawach warto skorzystać z obsługi prawnej branży IT oraz wsparcia, jakie zapewnia prawnik AI, który pomoże zadbać o zgodność procesów rekrutacyjnych z przepisami prawa i aktualnymi wytycznymi.

Nowe Technologie i Branża IT

Obsługa prawna asystent AI

Sztuczna inteligencja (AI) stanowi coraz istotniejsze narzędzie w wielu branżach, w tym także w obsłudze prawnej. Dynamiczny rozwój tej technologii niesie za sobą nowe wyzwania, wymagając kompleksowego podejścia do kwestii prawnych związanych z jej zastosowaniem. W niniejszym artykule analizujemy kluczowe aspekty prawne dotyczące asystentów AI, zakres regulacji ich dotyczących oraz ograniczenia wynikające z obowiązującego prawa.

Prawne aspekty AI - regulacje

Kluczowym aktem prawnym w tym zakresie jest obecnie tzw. AI Act – unijne rozporządzenie mające na celu zapewnienie m.in. transparentności, odpowiedzialności czy klasyfikacji ryzyka związanego z wykorzystaniem AI.

Czy chatboty podlegają AI Act?

Zastosowanie AI Act wobec chatbotów zależy od ich funkcjonalności i ustalenia poziomu ryzyka. Jeśli chatboty są wykorzystywane między innymi do zautomatyzowanych procesów decyzyjnych mających wpływ na prawa i wolności użytkowników, np. w procesach rekrutacyjnych, ocenie zdolności kredytowej czy selekcji kandydatów do świadczeń socjalnych – mogą zostać zaklasyfikowane jako systemy wysokiego ryzyka.

Jakie są ograniczenia prawne prawne dla AI?

  1. AI Act 

Ograniczenia prawne dla sztucznej inteligencji w Unii Europejskiej wynikają przede wszystkim z AI Act, który wprowadza czteropoziomową klasyfikację ryzyka – od systemów zakazanych, przez wysokiego ryzyka (np. AI w rekrutacji, medycynie czy sądownictwie), po ograniczone i minimalne ryzyko. Systemy AI wysokiego ryzyka podlegają m.in. ścisłym wymogom zgodności, audytom i nadzorowi. 

  1. Ochrona danych osobowych

W przypadku AI należy także spełniać wymogi RODO (GDPR), zapewniając zgodność z przepisami dotyczącymi ochrony danych osobowych. Wyzwania pojawiają się zwłaszcza w zakresie anonimizacji i wykorzystywania danych do trenowania modeli AI.

  1. Dyskryminacja i uprzedzenia algorytmiczne

Modele AI mogą nieświadomie utrwalać lub wzmacniać uprzedzenia, prowadząc do dyskryminacyjnych decyzji. Może to mieć znaczenie np. w kontekście przepisów prawa pracy, szczególnie w obszarach rekrutacji, oceny pracowników czy przyznawania awansów. 

Oczywiście skutki naruszenia niektórych z ograniczeń mogą skutkować nie tylko odpowiedzialnością prawną, ale  także negatywnymi konsekwencjami wizerunkowymi dla podmiotów wdrażających takie systemy AI.

  1. Własność intelektualna a chatboty

W kontekście automatyzacji obsługi klienta za pomocą AI, ochrona własności intelektualnej może obejmować różnorodne aspekty. Od zabezpieczenia algorytmów i kodu źródłowego, przez ochronę danych i baz klientów, po wykorzystywane licencje.

 

Jednocześnie, z uwagi na to, że zgodnie z naszym prawem, generalnie twórcą może być tylko człowiek to sama kwestia praw do treści generowanych przez AI jest to właściwie zagadnienie na odrębny artykuł. Pomijając zresztą problematykę twórcy to jednak zwykle w tym przypadku będą to narzędzia służące do obsługi klienta, a więc również mało prawdopodobny jest scenariusz, gdzie w ogóle powstałoby coś twórczego.

  1.  Cyberbezpieczeństwo

Systemy AI są podatne na ataki cybernetyczne, co może prowadzić do wycieku danych, manipulacji wynikami analiz oraz zakłócenia ich działania. Ochrona przed tego rodzaju zagrożeniami wymaga stosowania zaawansowanych środków zabezpieczających.

W przypadku wdrażania AI w firmie warto skonsultować się z prawnikiem AI, który pomoże zadbać o zgodność z obowiązującymi przepisami oraz zminimalizować ryzyka prawne.

Dane Osobowe

Sztuczna inteligencja a dane medyczne

Rozwój sztucznej inteligencji (AI) w medycynie przynosi ogromne korzyści, jednak wiąże się także z istotnymi wyzwaniami prawnymi. Jednym z kluczowych aspektów pozostaje ochrona danych medycznych, szczególnie w kontekście przepisów RODO oraz unijnego rozporządzenia o sztucznej inteligencji (AI Act).

W świetle RODO posługujemy się pojęciem danych dotyczących zdrowia, które oznaczają dane osobowe o zdrowiu fizycznym lub psychicznym osoby fizycznej – w tym o korzystaniu z usług opieki zdrowotnej – ujawniające informacje o stanie jej zdrowia.

Regulacje dotyczące AI w medycynie – AI Act

W 2024 roku Unia Europejska przyjęła Rozporządzenie Parlamentu Europejskiego i Rady (UE) o sztucznej inteligencji (AI Act), które ustanawia jednolite zasady dla projektowania, wdrażania i nadzoru nad systemami AI w UE.  Fakt, że produkt oparty na AI zostanie uznany za wyrób medyczny, może skutkować zakwalifikowaniem go jako system wysokiego ryzyka. AI Act ma bowiem zastosowanie niezależnie od innych aktów prawnych – nawet jeśli system podlega już innym zharmonizowanym przepisom sektorowym, jak np. rozporządzenia 2017/745 (MDR).

Kluczowe wymagania wynikające z AI Act dla sektora medycznego (ale nie tylko) obejmują m.in.:

  • wdrożenie systemu zarządzania jakością;
  • obowiązek zapewnienia nadzoru ludzkiego nad działaniem systemu AI;
  • wymóg przejrzystości i informowania o użyciu systemu – wdrożenie odpowiednich środków technicznych i organizacyjnych celem zapewnienia zgodności z ich przeznaczeniem;
  • jakość i adekwatność danych wykorzystywanych przez system;
  • obowiązek prowadzenia dokumentacji technicznej oraz zgłaszania incydentów związanych z działaniem systemu AI

Ochrona danych medycznych a sztuczna inteligencja

Przetwarzanie tych danych wymaga szczególnej staranności ze względu na ich wrażliwy charakter. Zgodnie z RODO dane dotyczące zdrowia należą do szczególnych kategorii danych osobowych, których przetwarzanie co do zasady jest zabronione, przy czym RODO przewiduje w tym zakresie wyjątki. W tym kontekście prawnik AI odgrywa kluczową rolę, pomagając placówkom medycznym wdrażać rozwiązania zgodne z przepisami prawa.

Systemy AI wdrażane w placówkach medycznych muszą być projektowane i stosowane przy zapewnieniu bezpieczeństwa i poufności danych pacjentów. Coraz więcej instytucji medycznych korzysta z narzędzi AI do przetwarzania danych pacjentów, co wymaga zastosowania odpowiednich środków technicznych i organizacyjnych, takich jak szyfrowanie czy kontrola dostępu.

RODO a AI – aspekty prawne

RODO nakłada na administratorów danych obowiązki, w tym m.in. zasadę minimalizacji danych, zapewnienia ich odpowiedniego zabezpieczenia czy przejrzystości przetwarzania. Zgoda pacjenta na przetwarzanie danych medycznych z wykorzystaniem AI musi być wyraźna, dobrowolna, świadoma, konkretna i możliwa do wycofania.

Jednak zgoda nie jest jedyną podstawą legalności przetwarzania takich danych. Art. 9 ust. 2 RODO dopuszcza przetwarzanie danych dotyczących zdrowia m.in. w następujących przypadkach, np.: gdy przetwarzanie jest niezbędne do celów profilaktyki zdrowotnej lub medycyny pracy, do oceny zdolności pracownika do pracy, lub ze względów związanych z interesem publicznym w dziedzinie zdrowia publicznego, np. ochrona przed poważnymi transgranicznymi zagrożeniami zdrowotnymi.

Ważne jest także uwzględnienie regulacji dotyczących profilowania oraz zautomatyzowanego podejmowania decyzji, szczególnie w kontekście systemów AI wykorzystywanych do wspomagania diagnozy lub leczenia. Jeśli decyzje podejmowane są wyłącznie automatycznie i wywołują skutki prawne lub istotnie wpływają na pacjenta, stosowanie art. 22 RODO jest obligatoryjne.

Czy można przetwarzać dane medyczne przy użyciu AI?

Tak, przetwarzanie danych dotyczących zdrowia przy użyciu systemów AI jest dopuszczalne, ale tylko w granicach wyznaczonych przez RODO oraz inne obowiązujące przepisy. Kluczowe jest zapewnienie legalności, rzetelności i przejrzystości przetwarzania, a także wdrożenie odpowiednich środków bezpieczeństwa.

W przypadku gdy system AI kwalifikuje się jako narzędzie wysokiego ryzyka (co dotyczy większości systemów medycznych), niezbędne jest przeprowadzenie oceny skutków dla ochrony danych (Data Protection Impact Assessment – DPIA), zgodnie z art. 35 RODO.

Jak AI wpływa na ochronę danych pacjentów?

AI może znacznie zwiększyć efektywność procesów medycznych, umożliwiając szybszą analizę danych, ograniczenie błędów i usprawnienie zarządzania dokumentacją. Jednak równocześnie wiąże się z ryzykami, takimi jak nieautoryzowany dostęp do danych, błędy algorytmiczne czy brak przejrzystości działania.

Dlatego systemy AI powinny być nadzorowane przez człowieka (tzw. human oversight) i projektowane zgodnie z zasadą „privacy by design” oraz „privacy by default”.

Właściwe wdrożenie AI w podmiotach medycznych wymaga współpracy z ekspertami z zakresu obsługi prawnej branży IT, którzy pomogą zadbać o zgodność procesów z obowiązującymi regulacjami prawnymi.

E-commerce
News
Startupy

UOKiK nakłada ponad 66 mln zł kar za zmowę cenową na rynku ekspresów do kawy​

Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.

Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:

  • Terg (Media Expert) – 30 065 250 zł
  • Jura Poland – 12 212 000 zł
  • Euro-net (RTV Euro AGD) – 10 500 450 zł
  • Media Saturn Online (Media Markt online) – 6 772 000 zł
  • Media Saturn Holding Polska (Media Markt stacjonarnie) – 6 549 000 zł

Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.

Na czym polegała zmowa?

Od lipca 2013 do listopada 2022 roku Jura Poland – wyłączny importer ekspresów tej szwajcarskiej marki – wraz z kluczowymi dystrybutorami, ustalała sztywne ceny odsprzedaży. Dotyczyło to nie tylko cen standardowych, ale również promocji, gratisów i warunków wyprzedaży. Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.

Co to oznacza dla przedsiębiorców?

Decyzja UOKiK to jasny sygnał: zmowy cenowe będą surowo karane – zarówno na poziomie firm, jak i osób fizycznych. To ostrzeżenie dla wszystkich przedsiębiorców, że ustalanie cen z konkurencją lub partnerami handlowymi może się skończyć milionowymi karami i utratą reputacji. UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.

Akurat ta sytuacja jest ewidentna, ale też do naruszenia może dojść w sposób nieumyślny. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy. Szkolenia takie mogą obejmować np. zakazy dotyczące zmów cenowych oraz rozgraniczenie uczciwej konkurencji od zachowań, które mogą być ścigane przez UOKiK lub być podstawą do wytoczenia powództwa przez pokrzywdzonego konkurenta.

Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar (leniency), zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.

No items found.

UOKiK nakłada ponad 66 mln zł kar za zmowę cenową na rynku ekspresów do kawy​

Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.

Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:

  • Terg (Media Expert) – 30 065 250 zł
  • Jura Poland – 12 212 000 zł
  • Euro-net (RTV Euro AGD) – 10 500 450 zł
  • Media Saturn Online (Media Markt online) – 6 772 000 zł
  • Media Saturn Holding Polska (Media Markt stacjonarnie) – 6 549 000 zł

Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.

Na czym polegała zmowa?

Od lipca 2013 do listopada 2022 roku Jura Poland – wyłączny importer ekspresów tej szwajcarskiej marki – wraz z kluczowymi dystrybutorami, ustalała sztywne ceny odsprzedaży. Dotyczyło to nie tylko cen standardowych, ale również promocji, gratisów i warunków wyprzedaży.

Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.

Co to oznacza dla przedsiębiorców?

Decyzja UOKiK to jasny sygnał: zmowy cenowe są nielegalne i będą surowo karane – zarówno na poziomie firm, jak i osób fizycznych. To ostrzeżenie dla wszystkich przedsiębiorców, że ustalanie cen z konkurencją lub partnerami handlowymi może się skończyć milionowymi karami i utratą reputacji.

UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.

Firmy powinny inwestować w systemy compliance – czyli wewnętrzne procedury i polityki zapobiegające naruszeniom prawa. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy.

Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar, zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Lawmore represents bValue in the investment in CallPage

Confidential information in a startup

FORMS OF EMPLOYMENT IN A STARTUP

Investment in iTaxi—PLN 8 million from investors

LAWMORE represents Shoplo—an investment of PLN 3 million of the fund bValue

New shareholders in Brand24

|

Legal due diligence–what entrepreneurs should know on pre-investment company audit.

Founders Agreement–first startup’s agreement

LAWMORE as the advisor of TVN VENTURES in the investment in Everytap

Jak czytać umowę dotyczącą praw autorskich

MOST COMMON MISTAKES IN AGREEMENTS CONNECTED WITH COPYRIGHT

The right to idea

Skontaktuj się z nami

Biuro:
BROWARY WARSZAWSKIE
ul. Krochmalna 54 lokal 78 (piętro 6)
00-864 Warszawa

Bądź na bieżąco ze zmianami w prawie

Zapisz się do naszego newslettera

Dziękujemy!
Rejestracja przebiegła pomyślnie.
Ups...twój mail nie może być wysłany!