Z przyjemnością informujemy, że kancelaria LAWMORE zapewniła kompleksowe wsparcie prawne dla założycieli oraz pozostałych udziałowców – innowacyjnej firmy specjalizującej się w edukacji programistycznej dla dzieci i młodzieży. Dzięki wsparciu naszej kancelarii, Giganci Programowania zrealizowali kluczową transakcję pozyskania strategicznych inwestorów, co otwiera przed firmą możliwości ekspansji na rynki zagraniczne, w tym na rynki Ameryki Północnej, z kapitałem o wartości wielu milionów euro.
Zespół naszej kancelarii wspierał spółkę na każdym etapie procesu inwestycyjnego, zapewniając profesjonalną i kompleksową obsługę wszystkich kwestii prawnych.
Giganci Programowania to firma, która oferuje nowoczesne narzędzia edukacyjne, wspierające rozwój umiejętności programistycznych wśród młodego pokolenia. Dzięki tej transakcji firma zyskała nie tylko solidnych partnerów finansowych, ale również możliwość dalszej ekspansji oraz wzmocnienia swojej pozycji jako lidera w branży edukacyjnej.
Zakaz konkurencji jest jednym z kluczowych elementów umowy inwestycyjnej w startupach. Jego celem jest ochrona interesów inwestorów oraz samego startupu przed działaniami, które mogłyby negatywnie wpłynąć na jego rozwój.
Czym jest zakaz konkurencji?
Klauzula dotycząca zakazu konkurencji zobowiązuje founderów, a często też kluczowych pracowników firmy do powstrzymania się od podejmowania działań konkurencyjnych, które mogłyby godzić w interesy spółki.
Ważne jest aby w pierwszej kolejności takie postanowienie precyzowało dokładnie definicję działalności konkurencyjnej, a w drugiej kolejności dokładny zakres przedmiotu zakazu.
Działalność konkurencyjna może być definiowana jako wszelką działalność gospodarcza lub zawodowa w zakresie identycznym lub istotnie podobnym w stosunku do działalności spółki, bez względu na fakt, czy działalność ta jest wykonywana w sposób ciągły, okresowy czy jednorazowy oraz niezależnie od formy czy sposobu prowadzenia takiej działalności.
Kogo obowiązuje zakaz konkurencji
Zakaz konkurencji najczęściej obowiązuje:
Założycieli startupu - osoby, które są głównymi inicjatorami projektu i mają największy wpływ na jego rozwój. Są oni kluczowymi osobami odpowiedzialnymi za strategię i kierunek rozwoju firmy, dlatego ich pełne zaangażowanie jest niezwykle istotne.
Kluczowych pracowników - pracowników posiadających istotną wiedzę i umiejętności, które mogłyby być wykorzystane w działalności konkurencyjnej. Dotyczy to szczególnie tych, którzy mają dostęp do poufnych informacji i technologii rozwijanych przez startup.
Inwestorów – czasami, jednak w praktyce spotyka się to stosunkowo rzadko, ale zakaz konkurencji może obejmować również inwestorów, szczególnie tych, którzy angażują się operacyjnie w rozwój startupu. Mogą oni być zobowiązani do powstrzymania się od wspierania bezpośrednich konkurentów startupu, aby uniknąć konfliktu interesów.
Okres obowiązywanie zakazu konkurencji
Kolejną istotną kwestią, którą należy uwzględnić w umowie inwestycyjnej jest okres obowiązywania zakazu konkurencji, który może trwać także po zakończeniu współpracy. Zwyczajowo przyjmuje się, że czas ten nie powinien przekraczać dwóch lat od momentu rozstania ze spółką, a jednocześnie za datę odejścia uznaje się nie tylko moment rezygnacji z zarządu spółki, lecz także moment zbycia udziałów. Można więc formalnie nie być już w spółce, ale posiadając udziały, nadal podlegać zakazowi konkurencji.
Jak zakaz konkurencji wpływa na życie prywatne?
Zakaz konkurencji może mieć bezpośredni wpływ na życie prywatne founderów oraz kluczowych pracowników. Oto kilka aspektów, które warto wziąć pod uwagę:
Rodzina - W niektórych przypadkach zakaz konkurencji może obejmować również najbliższych członków rodziny, takich jak małżonkowie czy dzieci, jeśli angażują się oni w działalność biznesową. Ważne jest, aby zrozumieć, jakie są dokładne zapisy umowy inwestycyjnej i w jaki sposób mogą one wpływać na możliwości zawodowe członków rodziny. Warto również zadbać o transparentną komunikację zarówno z członkami rodziny jak i inwestorami, aby uniknąć nieporozumień i konfliktów. Jasne przedstawienie swoich planów i zobowiązań może pomóc uniknąć konfliktów.
Hobby - Zakaz konkurencji może również wpływać na hobby założycieli i pracowników. Jeśli ich pasje są związane z działalnością, która mogłaby być uznana za konkurencyjną wobec startupu, lub mogą mieć bezpośredni wpływ na działalność w spółce mogą pojawić się pewne ograniczenia. Nawet jeśli te działania są wykonywane w ramach czasu wolnego, mogą one wpłynąć na skupienie i zaangażowanie założyciela w rozwój startupu. Dlatego ważne jest, aby założyciele dokładnie przemyśleli swoje zaangażowanie w inne projekty i hobby, aby uniknąć naruszenia zakazu konkurencji. Na przykład, osoba zaangażowana w startup technologiczny może być zobowiązana do rezygnacji z udziału w projektach open-source, które mogłyby konkurować z produktami startupu.
Klauzula ta jest wprowadzana, aby zapewnić, że cała wiedza, doświadczenie i zaangażowanie kluczowych osób będą skierowane na rozwój startupu, a nie na działalność, która mogłaby go osłabić
Podsumowując, klauzula zakazu konkurencji ma na celu ochronę interesów inwestora, ale może również wpływać na codzienne życie, wybory zawodowe i pasje właściciela firmy oraz jego rodziny. Prawidłowo sformułowana i wdrożona klauzula może znacząco przyczynić się do stabilności operacyjnej firmy oraz zabezpieczenia jej tajemnic handlowych i know-how. Niemniej jednak, jej implementacja wymaga starannego przemyślenia, proporcjonalności i zgodności z obowiązującymi przepisami prawnymi. Dlatego ważne jest, aby dokładnie przeanalizować zapisy takiej klauzuli i rozważyć jej potencjalny wpływ na różne aspekty życia prywatnego i zawodowego.
Wbrew temu, co sugerują niektóre portale, przypadek „A Single Piece of American Cheese” nie oznacza przyznania praw autorskich do autonomicznie stworzonego dzieła przez sztuczną inteligencję. Tak, to prawda, że Amerykański Urząd ds. Praw Autorskich (USCO) zarejestrował zgłoszenie dotyczące tego dzieła, ale ochrona objęła wyłącznie kompilację — tj. wybór, koordynację i aranżację materiałów wygenerowanych przez AI przez człowieka, a nie same wygenerowane obrazy.
Materiał stworzony przez AI został formalnie oznaczony jako „excluded material” i nie podlega ochronie autorskiej. Kluczowym elementem w decyzji była więc twórcza ingerencja człowieka na etapie kompozycji, a nie samo użycie technologii generatywnej.
Proces twórczy i decyzja USCO
Kent Keirsey, CEO Invoke AI i wnioskodawca, użył opisów surrealistycznych, takich jak „pęknięte szkło” czy „makaronowe włosy”, aby wygenerować różne warianty obrazów. Następnie wybrał kilkadziesiąt fragmentów wygenerowanych prac i za pomocą techniki inpaintingu (modyfikacji wybranych fragmentów obrazu) stworzył ostateczną kompozycję. To właśnie ten autorski proces selekcji i aranżacji był podstawą rejestracji dzieła.
Decyzja dotycząca „A Single Piece of American Cheese” pokazuje, że twórcza kontrola człowieka nad materiałami wygenerowanymi przez AI może prowadzić do przyznania ochrony prawnej — jednak ochrona obejmuje wyłącznie ludzki wkład, a nie samodzielnie wygenerowane przez AI elementy.
Mimo to decyzja ta nie tworzy jasnych i przejrzystych zasad przyznawania praw autorskich dla dzieł AI. Przeciwnie, uwypukla trudności, z jakimi mierzą się instytucje w adaptacji tradycyjnego prawa autorskiego do nowej rzeczywistości technologicznej.
Co to oznacza dla firm:
Powyższy decyzja niewiele zmienia, w kontekście tego, o czym mówimy od dawa. Twórcy korzystający z AI powinni między innymi:
W praktyce rynkowej wciąż zauważamy, że wiele firm nie rozpoznaje "zjawiska" przedsiębiorcy-konsumenta, tj. jednoosobowego przedsiębiorcy, który w określonych sytuacjach korzysta z ochrony przewidzianej dla konsumentów.
Przypomnijmy: osoby fizyczne prowadzące działalność gospodarczą, zawierając umowy niezwiązane bezpośrednio z ich działalnością zawodową, mogą korzystać między innymi z prawa do odstąpienia od umowy zawartej na odległość czy ochrony przed niedozwolonymi postanowieniami umownymi. Teraz dodatkowo - w świetle projektowanych zmian w prawie - pojawi się możliwość składania przez przedsiębiorców stosownego oświadczenia o charakterze zawieranej umowy (zawodowym lub niezawodowym).
Czyli obecnie procedowany projekt zmiany prawa, przewiduje obowiązek umożliwienia przedsiębiorcy samodzielnego określenia charakteru zawieranej umowy - a kontrahent nie będzie mógł wymagać takiego oświadczenia pod przymusem.
Co to oznacza dla firm:
Niestety, wciąż widzimy istotny problem - brak świadomości, że przedsiębiorca na prawach konsumenta to obowiązująca rzeczywistość, a nie prawnicze słowotwórstwo. Warto zainteresować się np. swoją sprzedażą online, czy wewnętrzne procedury uwzględniają takie kwestie.
Naczelny Sąd Administracyjny (NSA) wydał 14 kwietnia 2025 r. postanowienie sygnalizacyjne, które może stanowić przełom w praktyce stosowania przepisów o przedawnieniu zobowiązań podatkowych w Polsce. Sąd wskazał na niekonstytucyjność praktyki instrumentalnego wszczynania postępowań karnoskarbowych w celu zawieszenia biegu terminu przedawnienia. Jednocześnie skierował to postanowienie do ministra finansów, sygnalizując konieczność zmian legislacyjnych.
Spór dotyczył 12-letniego postępowania podatkowego, które ponownie trafiło do organów skarbowych po rozstrzygnięciu przez NSA. Wojewódzki Sąd Administracyjny w Bydgoszczy oddalił skargę spółki na decyzję dyrektora Izby Administracji Skarbowej w przedmiocie podatku VAT za czerwiec 2013 r. Podatnik zakwestionował zawieszenie biegu terminu przedawnienia zobowiązania podatkowego, twierdząc, że postępowanie karnoskarbowe zostało wszczęte wyłącznie w celu przerwania tego terminu.
NSA oddalił skargę kasacyjną spółki, jednak w postanowieniu sygnalizacyjnym zwrócił uwagę na istotne naruszenia w stosowaniu art. 70 § 6 pkt 1 Ordynacji podatkowej. Sąd wskazał na praktykę instrumentalnego wszczynania postępowań karnoskarbowych, mającą na celu jedynie zawieszenie biegu terminu przedawnienia zobowiązania podatkowego. Zdaniem NSA taka praktyka jest sprzeczna z Konstytucją RP, w szczególności z zasadą zaufania obywateli do państwa i stanowionego przez nie prawa.
Sędzia podkreślił, że instytucja przedawnienia zobowiązań podatkowych została albo przeregulowana, albo nie została odpowiednio doregulowana, co prowadzi do nieustannych konfliktów. NSA orzekł, że organy podatkowe oraz sądy mają prawo analizować, czy wszczęcie postępowania karno-skarbowego było podyktowane wyłącznie chęcią zawieszenia terminu przedawnienia. Jednak samo umorzenie takiego postępowania nie świadczy automatycznie o jego instrumentalnym charakterze; konieczne jest badanie wszystkich okoliczności sprawy.
Postanowienie NSA zostało skierowane do ministra finansów, co stanowi sygnał dla administracji skarbowej o konieczności zmiany praktyk w zakresie stosowania przepisów o przedawnieniu. Ministerstwo Finansów powinno podjąć działania mające na celu eliminację nadużyć oraz zapewnienie zgodności z konstytucyjnymi zasadami prawa.
Orzeczenie NSA podkreśla potrzebę reformy instytucji przedawnienia zobowiązań podatkowych w Polsce. Należy dążyć do stworzenia jasnych i jednoznacznych przepisów, które zapobiegną nadużyciom oraz zapewnią sprawiedliwość podatnikom. Ministerstwo Finansów powinno niezwłocznie podjąć prace nad zmianą legislacyjną, aby wyeliminować praktyki sprzeczne z konstytucją i zapewnić transparentność oraz przewidywalność w stosowaniu prawa podatkowego.
W obliczu rosnącej liczby spraw podatkowych oraz skomplikowanego systemu podatkowego, kluczowe jest wprowadzenie rozwiązań, które będą chronić prawa obywateli i przedsiębiorców, jednocześnie umożliwiając skuteczne egzekwowanie zobowiązań podatkowych.
Od 18 lutego 2024 r. obowiązuje rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/1542 w sprawie baterii i zużytych baterii. Dokument ten zastępuje wcześniejszą dyrektywę z 2006 r. i stanowi istotny krok w kierunku gospodarki obiegu zamkniętego, obejmując wszystkie etapy życia baterii – od projektu, przez produkcję, aż po recykling.
Nowe rozporządzenie dotyczy szerokiego grona podmiotów:
W przypadku baterii przemysłowych oraz stosowanych w pojazdach elektrycznych, wprowadzany zostaje tzw. cyfrowy paszport. Będzie on zawierał dane o składzie chemicznym, pochodzeniu, trwałości, wydajności i możliwościach recyklingu danej baterii. Obowiązek jego stosowania zacznie obowiązywać od sierpnia 2027 roku.
Producenci będą zobowiązani do wykorzystywania określonych ilości materiałów z recyklingu – takich jak kobalt, lit, nikiel czy ołów – w nowych bateriach. Minimalne progi zaczną obowiązywać stopniowo – pierwsze od lipca 2027 r., kolejne od stycznia 2031 r.
Nowe regulacje przewidują, że baterie przenośne – np. te stosowane w urządzeniach codziennego przeznaczenia – muszą być zaprojektowane w taki sposób, by użytkownik końcowy mógł je łatwo wyjąć i wymienić. Wymóg ten wejdzie w życie również w sierpniu 2027 r.
Każda bateria powinna być oznakowana m.in. pod względem trwałości, pojemności, składu chemicznego i sposobu utylizacji. Informacje te mają być dostępne zarówno fizycznie, jak i cyfrowo (np. przez kody QR). Nowe oznaczenia powinny być wprowadzane sukcesywnie – zgodnie z typem baterii i rokiem ich wprowadzenia na rynek.
Państwa członkowskie muszą osiągać konkretne poziomy zbiórki zużytych baterii – dla baterii przenośnych celem jest osiągnięcie poziomu zbiórki na poziomie 63% do 2027 roku. Równocześnie zwiększone zostały wymagania dotyczące efektywności procesu odzysku materiałów, zwłaszcza metali strategicznych.
Już od lutego 2024 roku firmy wprowadzające baterie na rynek są zobowiązane do rejestracji w systemie producentów oraz składania cyklicznych raportów. Muszą one zawierać m.in. dane o ilości i typie baterii, ich składzie oraz sposobie przetwarzania.
Dla przedsiębiorców oznacza to konieczność przeanalizowania całego cyklu życia swoich produktów. W praktyce:
Chociaż dostosowanie się do nowych wymogów może początkowo wiązać się z kosztami i reorganizacją procesów, w dłuższej perspektywie pozwoli to na budowanie przewagi konkurencyjnej. Zielona transformacja nie jest już opcją – to wymóg regulacyjny i rynkowy, który stanie się fundamentem przyszłości każdego odpowiedzialnego biznesu.
Polska wkracza na nowy poziom cyfryzacji dzięki opracowaniu własnego dużego modelu językowego – PLLuM (Polish Large Language Model). Ten zaawansowany system sztucznej inteligencji, stworzony przez konsorcjum HIVE pod nadzorem Ministerstwa Cyfryzacji, ma na celu wspieranie zarówno administracji publicznej, jak i sektora prywatnego.
PLLuM to rodzina modeli AI, które przetwarzają i generują teksty w języku polskim, oparta na architekturze LLaMA od Meta AI. Model został przeszkolony na jednym z największych polskich korpusów tekstowych, zawierającym ponad 100 miliardów słów. Dostępny jest w dwóch wariantach: komercyjnym i naukowym, z modelami o wielkości od 8 do 70 miliardów parametrów.
PLLuM ma zrewolucjonizować sposób, w jaki obywatele i urzędnicy korzystają z usług publicznych. W planach jest integracja modelu z aplikacją mObywatel, gdzie będzie pełnił rolę wirtualnego asystenta, pomagając użytkownikom w uzyskiwaniu informacji publicznych. Ponadto, inteligentny asystent urzędniczy oparty na PLLuM ma zautomatyzować przetwarzanie dokumentów, analizę treści oraz wsparcie w udzielaniu odpowiedzi na pytania obywateli.
14 marca 2025 roku Minister Rodziny, Pracy i Polityki Społecznej wydał rozporządzenie, które precyzuje, jakie informacje oraz dokumenty powinny zostać zawarte we wniosku o udzielenie urlopu macierzyńskiego. Celem nowych przepisów jest ujednolicenie procedury zgłaszania potrzeby skorzystania z tego urlopu oraz zapewnienie, że pracodawcy będą dysponowali kompletem niezbędnych danych.
Zgodnie z nowym rozporządzeniem:
To rozwiązanie ma zastosowanie również wtedy, gdy matka nie jest zatrudniona, jest hospitalizowana lub posiada orzeczenie o niezdolności do samodzielnej egzystencji – w takich sytuacjach ojciec może przejąć opiekę w ramach urlopu macierzyńskiego na podstawie własnego wniosku i załączonych dokumentów.
Większa odpowiedzialność za kompletność dokumentacji - Działy HR muszą weryfikować, czy składane wnioski zawierają wszystkie niezbędne dane i dokumenty. Brak któregokolwiek z nich może skutkować koniecznością korekty lub opóźnieniem w rozpatrzeniu.
Nowe obowiązki informacyjne wobec pracowników - Pracodawcy powinni poinformować pracowników o zmianach – najlepiej w formie krótkiego przewodnika lub komunikatu wewnętrznego. To pomoże uniknąć nieporozumień i przyspieszy obieg dokumentów.
Potrzeba elastycznego reagowania - Przekazanie urlopu innemu opiekunowi, wcześniejszy powrót matki do pracy czy sytuacja hospitalizacji wymagają sprawnej reakcji kadrowej. Firmy powinny być gotowe do szybkiego przetwarzania dokumentów i organizacji zastępstw.
Zmiany w dokumentacji pracowniczej - Nowe przepisy nakładają obowiązek archiwizacji dodatkowych dokumentów w aktach osobowych (część B), w tym m.in. wniosków o urlop uzupełniający, oświadczeń i zaświadczeń lekarskich.
Komisja Europejska pracuje nad opracowaniem Kodeksu Postępowania dla Sztucznej Inteligencji Ogólnego Przeznaczenia (AI), który ma na celu szczegółowe określenie zasad zawartych w Akcie o Sztucznej Inteligencji dla dostawców modeli AI ogólnego przeznaczenia oraz modeli AI z ryzykiem systemowym. Celem jest zapewnienie bezpiecznego i godnego zaufania rozwoju sztucznej inteligencji w Unii Europejskiej, szczególnie w przypadku zaawansowanych modeli AI, które mogą wiązać się z ryzykiem na poziomie systemowym.
Dlaczego Kodeks Postępowania jest potrzebny?
Modele AI ogólnego przeznaczenia (GPAI) stają się fundamentem wielu systemów sztucznej inteligencji wykorzystywanych w UE. Dzięki swojej wszechstronności, mogą pełnić szeroki zakres funkcji, ale ich rozwój i popularność wiążą się także z potencjalnym ryzykiem. Modele te, jeśli będą powszechnie stosowane, mogą stworzyć zagrożenia systemowe, dlatego ważne jest, by ich dostawcy przestrzegali zasad przejrzystości, praw autorskich i oceny ryzyka.
Aby zapewnić bezpieczeństwo i odpowiedzialność w rozwoju AI, Akt o Sztucznej Inteligencji wprowadza obowiązki dla dostawców modeli ogólnego przeznaczenia, w tym przeprowadzanie ocen ryzyka w przypadku modeli mogących powodować skutki systemowe. Zasady te wejdą w życie w sierpniu 2025 roku, a Biuro Sztucznej Inteligencji jest odpowiedzialne za opracowanie Kodeksu Postępowania, który pomoże dostawcom AI w przestrzeganiu tych norm.
Prace nad Kodeksem Postępowania
Proces opracowywania Kodeksu Postępowania jest przeprowadzany w sposób iteracyjny i ma zostać zakończony do maja 2025 roku, czyli dziewięć miesięcy po wejściu w życie Aktu o Sztucznej Inteligencji, który wejdzie w życie 1 sierpnia 2024 roku. Kodeks ma być narzędziem, które pozwoli dostawcom modeli AI ogólnego przeznaczenia wykazać zgodność z wymaganiami zawartymi w nowym akcie prawnym.
Od 30 września 2024 roku Biuro Sztucznej Inteligencji rozpoczęło prace nad Kodeksem, organizując inauguracyjne wydarzenie plenarne z udziałem niemal 1000 uczestników. Wśród nich znaleźli się przedstawiciele organizacji zawodowych, dostawcy AI, instytucje publiczne i agencje zajmujące się oceną ryzyka AI. W ramach tych obrad, uczestnicy zostali podzieleni na cztery grupy robocze, które zajmują się poszczególnymi aspektami opracowywania Kodeksu.
Kodeks opracowywany jest w sposób inkluzyjny i przejrzysty, z udziałem szerokiego grona interesariuszy: dostawców AI, organizacji branżowych, przedstawicieli społeczeństwa obywatelskiego, świata nauki, a także niezależnych ekspertów. Biuro Sztucznej Inteligencji organizuje cykliczne warsztaty i spotkania robocze, które umożliwiają wprowadzanie uwag i opinii do procesu tworzenia dokumentu. Wszystkie działania są transparentne, a postępy są monitorowane, co pozwala na utrzymanie otwartego i współpracującego środowiska.
Kroki ku finalnej wersji Kodeksu
Pierwsza wersja Kodeksu Postępowania będzie gotowa w maju 2025 roku, a finalna wersja dokumentu zostanie zaprezentowana podczas zamkniętego posiedzenia plenarnych obrad i opublikowana publicznie. Dokument ten będzie stanowił fundament dla zapewnienia zgodności z wymogami Aktu o Sztucznej Inteligencji, a także pomoże w identyfikowaniu i łagodzeniu ryzyk związanych z wykorzystaniem AI.
Szablon dla Podsumowania Danych Treningowych
Równolegle z opracowywaniem Kodeksu, Biuro Sztucznej Inteligencji pracuje także nad szablonem dla podsumowania danych treningowych. Zgodnie z artykułem 53(1)d) Aktu o Sztucznej Inteligencji, dostawcy AI ogólnego przeznaczenia będą zobowiązani do publicznego udostępnienia szczegółowego podsumowania używanych danych. Biuro Sztucznej Inteligencji zebrało opinie od interesariuszy i, na ich podstawie, opracowuje dokument, który również zostanie poddany konsultacjom publicznym i przedstawiony do zatwierdzenia przez Komisję Europejską w drugim kwartale 2025 roku.
Ważny wyrok NSA w kontekście danych osobowych
W dniu 5 lutego 2025 r. Naczelny Sąd Administracyjny (NSA) wydał wyrok (sygn. akt III OSK 6553/21), który stanowi istotny punkt odniesienia dla firm przechowujących dane osobowe swoich byłych klientów po zakończeniu umowy. Sąd, podtrzymując decyzję Prezesa Urzędu Ochrony Danych Osobowych (PUODO), stwierdził, że przetwarzanie danych osobowych może odbywać się jedynie wtedy, gdy jest to niezbędne do realizacji prawnie uzasadnionych interesów administratora danych, takich jak dochodzenie roszczeń. Zgodnie z wyrokiem, sama hipotetyczna możliwość przyszłych roszczeń nie może stanowić podstawy do długotrwałego przechowywania danych osobowych.
NSA zaznaczył, że administrator danych osobowych powinien wykazać rzeczywistą potrzebę przechowywania tych informacji, która może wynikać np. z toczących się postępowań sądowych lub zgłoszonych roszczeń w określonym czasie po zakończeniu umowy. Sąd wskazał, że przechowywanie danych na podstawie samego przypuszczenia o możliwych roszczeniach w przyszłości jest niezgodne z przepisami RODO. Administratorzy powinni określić konkretny okres przechowywania danych i wprowadzić mechanizmy kontrolne, które zapewnią, że dane nie będą przetwarzane przez czas nieokreślony.
Sprawa dotyczyła klienta, który po zakończeniu umowy wynajmu samochodu dowiedział się, że firma nadal przechowuje jego dane osobowe, w tym imię, nazwisko, adres, numer telefonu oraz numery dowodu osobistego i prawa jazdy. Prezes UODO nakazał firmie usunięcie tych danych, uznając, że nie ma podstaw prawnych do ich dalszego przechowywania po zakończeniu umowy. UODO podkreślił, że zgodnie z zasadą minimalizacji danych, administrator danych powinien przechowywać je jedynie przez okres niezbędny do realizacji celów, dla których zostały zebrane. Powoływanie się na możliwość przyszłych roszczeń nie stanowi wystarczającego uzasadnienia dla ich przechowywania, ponieważ firma w takim przypadku przetwarza dane „na zapas”, co jest niedopuszczalne według RODO.
Firma odwołała się od decyzji UODO, argumentując, że przechowywanie danych jest niezbędne do dochodzenia lub obrony przed roszczeniami związanymi z wynajmem samochodów. Przedsiębiorca wskazał, że nie jest w stanie przewidzieć, kiedy mogą pojawić się ewentualne spory z byłymi klientami, a przechowywanie danych pozwala na skuteczną obronę w przypadku roszczeń. NSA jednak podtrzymał decyzję organu ochrony danych, stwierdzając, że przechowywanie danych na podstawie hipotetycznych roszczeń jest nieuzasadnione.
Wydany wyrok stanowi ważne przypomnienie dla firm, które przetwarzają dane osobowe swoich klientów, że ich przechowywanie po zakończeniu umowy może mieć miejsce jedynie w ściśle określonych przypadkach. Administratorzy danych muszą jasno określić okresy przechowywania danych oraz uzasadnienie ich dalszego przetwarzania. Celem jest zapewnienie zgodności z przepisami RODO oraz minimalizacja ryzyka naruszenia prawa i ewentualnych sankcji.
Do powyższego wyroku nawiązuje sporo rekomendowanych działań, w tym:
Ministerstwo Sprawiedliwości przedstawiło projekt nowelizacji Kodeksu spółek handlowych (KSH), który wprowadza istotne zmiany dla spółek akcyjnych (S.A.) oraz komandytowo-akcyjnych (S.K.A.). Propozycje te mają na celu dostosowanie przepisów do rzeczywistości po dematerializacji akcji oraz zwiększenie transparentności działania tych spółek.
Nowelizacja zakłada obowiązek ujawniania w Krajowym Rejestrze Sądowym (KRS) danych podmiotów prowadzących rejestry akcjonariuszy lub rejestrujących akcje w depozycie papierów wartościowych. Celem jest zwiększenie przejrzystości oraz umożliwienie zainteresowanym podmiotom, takim jak użytkownicy czy zastawnicy akcji, łatwego zidentyfikowania właściwego rejestratora.
Projekt przewiduje, że zawarcie umowy o prowadzenie rejestru akcjonariuszy będzie musiało być zgłoszone do KRS. Analogicznie, wygaśnięcie takiej umowy również będzie wymagało zgłoszenia. Ma to na celu zapewnienie aktualności danych w rejestrze i umożliwienie sądom rejestrowym nadzoru nad przestrzeganiem tych obowiązków.
W przypadku niedopełnienia obowiązków związanych z aktualizacją danych w KRS, sądy rejestrowe otrzymają uprawnienia nadzorcze. Będą mogły nałożyć na członków organów spółki grzywny do 20 000 zł. Ma to na celu zdyscyplinowanie zarządów do terminowego wykonywania obowiązków informacyjnych.
Organy reprezentujące spółki będą zobowiązane do zgłaszania zmian w danych akcjonariuszy do podmiotu prowadzącego rejestr w terminie 7 dni od zaistnienia zdarzenia uzasadniającego zmianę. Dla wpisów konstytutywnych w KRS, termin ten będzie liczony od dnia dokonania wpisu.
Nowelizacja przewiduje zniesienie podziału akcji na imienne i na okaziciela. Wszystkie akcje będą miały jednolity status, co uprości strukturę kapitałową spółek i ułatwi obrót akcjami.
Wprowadzony zostanie nowy typ podziału spółek – podział przez wyodrębnienie. Polega on na przeniesieniu części majątku spółki dzielonej na nowo zawiązaną spółkę, w zamian za udziały lub akcje obejmowane przez spółkę dzieloną. Ponadto, możliwe będzie uproszczone łączenie spółek bez konieczności podwyższania kapitału zakładowego, jeśli jeden wspólnik posiada wszystkie udziały lub akcje w łączących się spółkach lub wspólnicy posiadają je w tej samej proporcji.
Nowelizacja umożliwi spółkom kapitałowym i komandytowo-akcyjnym przeprowadzanie transgranicznych przekształceń i podziałów. Spółki będą mogły przenosić swoją siedzibę do innych państw członkowskich UE lub EOG bez konieczności likwidacji w Polsce. Wprowadzone zostaną także środki ochronne dla wspólników mniejszościowych, pracowników i wierzycieli, takie jak prawo wyjścia ze spółki z odpowiednim wynagrodzeniem czy możliwość żądania zabezpieczenia roszczeń.
Dla firm zwłaszcza spółek akcyjnych i komandytowo-akcyjnych – planowane zmiany oznaczają konieczność dostosowania się do nowych obowiązków administracyjnych i organizacyjnych. Firmy będą musiały:
Zmiany mogą być szczególnie odczuwalne dla mniejszych spółek, które nie dysponują rozbudowanym zapleczem prawnym i organizacyjnym. Warto więc już teraz przeanalizować, jak projektowane regulacje wpłyną na konkretną strukturę i funkcjonowanie spółki – oraz odpowiednio się do nich przygotować.
UOKiK bada podejrzenia nielegalnych systemów promocyjnych typu piramida
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) wszczął postępowania wyjaśniające wobec dwóch platform internetowych: BE Poland oraz GrowUp Session. Celem jest sprawdzenie, czy ich działalność nie narusza zbiorowych interesów konsumentów poprzez stosowanie systemów promocyjnych typu piramida.
BE Poland – edukacja czy piramida?
BE Poland to część międzynarodowego projektu BE (Better Experience) z siedzibą w Dubaju. Uczestnicy, działający pod nazwą TPR (Trading People Revolution), oferują pakiety subskrypcyjne umożliwiające korzystanie z platform edukacyjnych do nauki tradingu. Promocja odbywa się głównie za pośrednictwem mediów społecznościowych, w szczególności Instagrama. UOKiK bada, czy model biznesowy BE Poland nie opiera się na systemie promocyjnym typu piramida, w którym korzyści finansowe uczestników zależą głównie od rekrutacji nowych członków, a nie od rzeczywistej sprzedaży usług.
GrowUp Session – obietnice zysków bez ryzyka
GrowUp Session oferuje pakiety szkoleń z zakresu tradingu na rynku Forex i handlu kryptowalutami. Promocja programu polega na przedstawianiu w mediach społecznościowych wysokiego standardu życia i dużych zarobków, które rzekomo wynikają z uczestnictwa w projekcie. UOKiK analizuje, czy działalność GrowUp Session nie narusza zbiorowych interesów konsumentów poprzez stosowanie nieuczciwych praktyk rynkowych.
Czym jest system promocyjny typu piramida?
Systemy promocyjne typu piramida polegają na obiecywaniu uczestnikom zysków głównie za wprowadzanie nowych osób do systemu. Wpłaty nowych członków finansują zyski wcześniejszych uczestników, a nie są inwestowane w realne produkty czy usługi. Taki model jest nielegalny i może prowadzić do poważnych strat finansowych dla uczestników, zwłaszcza gdy napływ nowych członków ustaje.
Apel UOKiK do konsumentów
Prezes UOKiK, Tomasz Chróstny, apeluje do konsumentów o ostrożność wobec ofert obiecujących szybkie i wysokie zyski bez ryzyka. Zaleca dokładne sprawdzanie wiarygodności projektów inwestycyjnych, zwłaszcza tych promowanych w internecie i mediach społecznościowych. Konsumenci powinni być szczególnie czujni wobec przedsięwzięć o nieprzejrzystych zasadach działania, gdzie korzyści są uzależnione od rekrutacji nowych uczestników.
Co to oznacza dla firm?
Firmy, które prowadzą działalność opartą na systemach promocyjnych, powinny szczególnie zwrócić uwagę na kilka kluczowych kwestii, aby uniknąć ryzyka, że ich model biznesowy zostanie uznany za nielegalny system piramidy. W tym celu należy unikać przede wszystkim:
Prawidłowa działalność powinna opierać się na rzeczywistej sprzedaży towarów lub usług o realnej, obiektywnej wartości dla konsumenta, a nie na samym rekrutowaniu nowych uczestników .
Sztuczna inteligencja (AI) odgrywa coraz większą rolę w biznesie, a chatboty stają się nieodzownym elementem obsługi klienta, automatyzacji procesów oraz komunikacji online. Im większy stopień zaawansowania, tym większe ryzyko naruszeń. Stąd, tradycyjnie, wdrożenie takich rozwiązań wiąże się z szeregiem wyzwań prawnych, które należy bezwzględnie uwzględnić.
AI ACT to unijne rozporządzenie, które nie tylko klasyfikuje systemy AI według poziomu ryzyka i nakłada na nie określone obowiązki, ale również zawiera przepisy dotyczące niedozwolonych praktyk w zakresie AI oraz regulacje odnoszące się do modeli ogólnego przeznaczenia (General Purpose AI Models – GPAI). Chatboty, w zależności od ich funkcjonalności, mogą podlegać różnym wymaganiom.
Najważniejsze założenia AI ACT dotyczące chatbotów (i nie tylko) obejmują:
-prowadzenie dokumentacji technicznej i oceny zgodności,
- wdrożenie systemów monitorowania działania AI po wprowadzeniu na rynek (post-market monitoring),
- zapewnienie nadzoru człowieka nad działaniem systemu,
- podejmowanie działań korygujących w przypadku wykrycia niezgodności lub zagrożeń
Każdorazowo ten zakres też może się zmieniać, w szczególności w zależności od tego czy system będzie zakwalifikowany jako system wysokiego ryzyka.
Sprawdź również: Obsługa prawna asystent AI
Chatboty, które przetwarzają dane osobowe użytkowników, muszą być zgodne z RODO (GDPR). Jednak obowiązki wynikające z RODO zależą od celu i kontekstu przetwarzania danych.
Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO firmy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na chociażby następujące kwestie:
Dodatkowo, ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną.
W każdym wypadku, należy zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.
Firmy wdrażające chatboty muszą przestrzegać regulacji dotyczących AI i ochrony danych. Kluczowe aspekty obsługi prawnej IT i chatbotów w biznesie obejmują:
Wraz z rozwojem technologii pojawiają się także wyzwania prawne i etyczne, w tym:
Z pewnością, praktyka korzystania z AI w kancelariach prawnych (ale nie tylko) jest podyktowana potrzebą efektywności i oszczędności czasu, na kwestie bardziej administracyjne.
Systemy oparte na AI są w stanie szybko i efektywnie przetworzyć duże ilości danych, co pozwala na automatyzację wstępnej selekcji kandydatów. Dzięki temu rekruterzy mogą szybciej i dokładniej ocenić, czy kandydaci spełniają wymagania stawiane na dane stanowisko.
Warto przypomnieć, że w AI Act dokonano klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka. I tak, systemy AI wykorzystywane w rekrutacji z któregokolwiek z obszarów z zatrudniania, zarządzania pracownikami i dostępu do samozatrudniania mogą zostać zakwalifikowane jako systemy wysokiego ryzyka. Przykładowo będą to właśnie systemy przeznaczone do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizy i filtrowania podań o pracę oraz do oceny kandydatów. To wszystko oczywiście wpływa na zakres obowiązków z tym związanych.
AI w rekrutacji to bez wątpienia kilka istotnych korzyści. Po pierwsze, skraca czas selekcji, co jest szczególnie ważne w przypadku dużej liczby aplikacji. Po drugie, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co może prowadzić do lepszych wyników w dłuższej perspektywie. Jednakże, AI w rekrutacji może być bardziej problematyczne w przypadku stanowisk specjalistycznych lub wysokich stanowisk, gdzie decyzje muszą być podejmowane z uwzględnieniem bardziej miękkich czynników.
Przede wszystkim poprzez automatyzację procesu filtrowania aplikacji, poprzez szybką ocenę zgodność aplikacji z wymaganiami stanowiska, co zwiększa precyzję podejmowanych decyzji. Dodatkowo, AI może pomóc w dopasowaniu kandydatów do kultury organizacyjnej, co jest istotne dla długoterminowej sukcesu rekrutacji.
Sprawdź również: Obsługa prawna asystent AI
Zastosowanie AI w rekrutacji pracowników wiąże się również z koniecznością przestrzegania przepisów RODO. Procesy te muszą być zgodne zwłaszcza z przepisami RODO, ale też należy pamiętać o takich jak przepisach jak kodeks pracy (pamiętajmy, że w Polsce jednak domyślnym stosunkiem prawnym powinien być stosunek pracy).
Podstawową zasadą, którą pracodawcy powinni kierować się w każdym procesie rekrutacyjnym, jest zasada minimalizacji danych. Przetwarzanie danych osobowych przez AI (ale nie tylko w przypadku AI) wymaga także zapewnienia zgodności z zasadą przejrzystości – kandydaci muszą być jasno poinformowani o celu i zakresie przetwarzania. Dodatkowo, należy pamiętać, że RODO ogranicza możliwość podejmowania decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu danych, jeśli mają one istotny wpływ na osobę, chyba że są one dopuszczone prawem i osoba ma możliwość odwołania się do człowieka.
Istotne jest również pytanie o zgodę na przetwarzanie danych przez AI. Czy zawsze jest ona wymagana - to zależy nie tyle od metody przetwarzania, co od samego procesu - jeśli nie dochodzi do zautomatyzowanego podejmowania decyzji, to zgoda nie zawsze będzie konieczna. Ważne jest także, aby uzyskać wyraźną zgodę kandydatów na przetwarzanie ich danych przez AI (o ile taka zgoda będzie wymagana zgodnie z przepisami) i szczegółowo informować o celach oraz sposobach przetwarzania tych danych. Administrator powinien także zapewnić usunięcie danych osobowych z systemu w przypadku takiego żądania (co jak wiemy - pomimo najlepszych intencji może napotkać trudności).
W tego typu sprawach warto skorzystać z obsługi prawnej branży IT oraz wsparcia, jakie zapewnia prawnik AI, który pomoże zadbać o zgodność procesów rekrutacyjnych z przepisami prawa i aktualnymi wytycznymi.
Sztuczna inteligencja (AI) stanowi coraz istotniejsze narzędzie w wielu branżach, w tym także w obsłudze prawnej. Dynamiczny rozwój tej technologii niesie za sobą nowe wyzwania, wymagając kompleksowego podejścia do kwestii prawnych związanych z jej zastosowaniem. W niniejszym artykule analizujemy kluczowe aspekty prawne dotyczące asystentów AI, zakres regulacji ich dotyczących oraz ograniczenia wynikające z obowiązującego prawa.
Kluczowym aktem prawnym w tym zakresie jest obecnie tzw. AI Act – unijne rozporządzenie mające na celu zapewnienie m.in. transparentności, odpowiedzialności czy klasyfikacji ryzyka związanego z wykorzystaniem AI.
Zastosowanie AI Act wobec chatbotów zależy od ich funkcjonalności i ustalenia poziomu ryzyka. Jeśli chatboty są wykorzystywane między innymi do zautomatyzowanych procesów decyzyjnych mających wpływ na prawa i wolności użytkowników, np. w procesach rekrutacyjnych, ocenie zdolności kredytowej czy selekcji kandydatów do świadczeń socjalnych – mogą zostać zaklasyfikowane jako systemy wysokiego ryzyka.
Sprawdź również: Chatboty a prawo – regulacje prawne AI i zgodność z RODO
Ograniczenia prawne dla sztucznej inteligencji w Unii Europejskiej wynikają przede wszystkim z AI Act, który wprowadza czteropoziomową klasyfikację ryzyka – od systemów zakazanych, przez wysokiego ryzyka (np. AI w rekrutacji, medycynie czy sądownictwie), po ograniczone i minimalne ryzyko. Systemy AI wysokiego ryzyka podlegają m.in. ścisłym wymogom zgodności, audytom i nadzorowi.
W przypadku AI należy także spełniać wymogi RODO (GDPR), zapewniając zgodność z przepisami dotyczącymi ochrony danych osobowych. Wyzwania pojawiają się zwłaszcza w zakresie anonimizacji i wykorzystywania danych do trenowania modeli AI.
Modele AI mogą nieświadomie utrwalać lub wzmacniać uprzedzenia, prowadząc do dyskryminacyjnych decyzji. Może to mieć znaczenie np. w kontekście przepisów prawa pracy, szczególnie w obszarach rekrutacji, oceny pracowników czy przyznawania awansów.
Oczywiście skutki naruszenia niektórych z ograniczeń mogą skutkować nie tylko odpowiedzialnością prawną, ale także negatywnymi konsekwencjami wizerunkowymi dla podmiotów wdrażających takie systemy AI.
W kontekście automatyzacji obsługi klienta za pomocą AI, ochrona własności intelektualnej może obejmować różnorodne aspekty. Od zabezpieczenia algorytmów i kodu źródłowego, przez ochronę danych i baz klientów, po wykorzystywane licencje.
Jednocześnie, z uwagi na to, że zgodnie z naszym prawem, generalnie twórcą może być tylko człowiek to sama kwestia praw do treści generowanych przez AI jest to właściwie zagadnienie na odrębny artykuł. Pomijając zresztą problematykę twórcy to jednak zwykle w tym przypadku będą to narzędzia służące do obsługi klienta, a więc również mało prawdopodobny jest scenariusz, gdzie w ogóle powstałoby coś twórczego.
Systemy AI są podatne na ataki cybernetyczne, co może prowadzić do wycieku danych, manipulacji wynikami analiz oraz zakłócenia ich działania. Ochrona przed tego rodzaju zagrożeniami wymaga stosowania zaawansowanych środków zabezpieczających.
W przypadku wdrażania AI w firmie warto skonsultować się z prawnikiem AI, który pomoże zadbać o zgodność z obowiązującymi przepisami oraz zminimalizować ryzyka prawne.
Rozwój sztucznej inteligencji (AI) w medycynie przynosi ogromne korzyści, jednak wiąże się także z istotnymi wyzwaniami prawnymi. Jednym z kluczowych aspektów pozostaje ochrona danych medycznych, szczególnie w kontekście przepisów RODO oraz unijnego rozporządzenia o sztucznej inteligencji (AI Act).
W świetle RODO posługujemy się pojęciem danych dotyczących zdrowia, które oznaczają dane osobowe o zdrowiu fizycznym lub psychicznym osoby fizycznej – w tym o korzystaniu z usług opieki zdrowotnej – ujawniające informacje o stanie jej zdrowia.
Sprawdź również: AI a Rekrutacja pracowników
W 2024 roku Unia Europejska przyjęła Rozporządzenie Parlamentu Europejskiego i Rady (UE) o sztucznej inteligencji (AI Act), które ustanawia jednolite zasady dla projektowania, wdrażania i nadzoru nad systemami AI w UE. Fakt, że produkt oparty na AI zostanie uznany za wyrób medyczny, może skutkować zakwalifikowaniem go jako system wysokiego ryzyka. AI Act ma bowiem zastosowanie niezależnie od innych aktów prawnych – nawet jeśli system podlega już innym zharmonizowanym przepisom sektorowym, jak np. rozporządzenia 2017/745 (MDR).
Kluczowe wymagania wynikające z AI Act dla sektora medycznego (ale nie tylko) obejmują m.in.:
Przetwarzanie tych danych wymaga szczególnej staranności ze względu na ich wrażliwy charakter. Zgodnie z RODO dane dotyczące zdrowia należą do szczególnych kategorii danych osobowych, których przetwarzanie co do zasady jest zabronione, przy czym RODO przewiduje w tym zakresie wyjątki. W tym kontekście prawnik AI odgrywa kluczową rolę, pomagając placówkom medycznym wdrażać rozwiązania zgodne z przepisami prawa.
Systemy AI wdrażane w placówkach medycznych muszą być projektowane i stosowane przy zapewnieniu bezpieczeństwa i poufności danych pacjentów. Coraz więcej instytucji medycznych korzysta z narzędzi AI do przetwarzania danych pacjentów, co wymaga zastosowania odpowiednich środków technicznych i organizacyjnych, takich jak szyfrowanie czy kontrola dostępu.
RODO nakłada na administratorów danych obowiązki, w tym m.in. zasadę minimalizacji danych, zapewnienia ich odpowiedniego zabezpieczenia czy przejrzystości przetwarzania. Zgoda pacjenta na przetwarzanie danych medycznych z wykorzystaniem AI musi być wyraźna, dobrowolna, świadoma, konkretna i możliwa do wycofania.
Jednak zgoda nie jest jedyną podstawą legalności przetwarzania takich danych. Art. 9 ust. 2 RODO dopuszcza przetwarzanie danych dotyczących zdrowia m.in. w następujących przypadkach, np.: gdy przetwarzanie jest niezbędne do celów profilaktyki zdrowotnej lub medycyny pracy, do oceny zdolności pracownika do pracy, lub ze względów związanych z interesem publicznym w dziedzinie zdrowia publicznego, np. ochrona przed poważnymi transgranicznymi zagrożeniami zdrowotnymi.
Ważne jest także uwzględnienie regulacji dotyczących profilowania oraz zautomatyzowanego podejmowania decyzji, szczególnie w kontekście systemów AI wykorzystywanych do wspomagania diagnozy lub leczenia. Jeśli decyzje podejmowane są wyłącznie automatycznie i wywołują skutki prawne lub istotnie wpływają na pacjenta, stosowanie art. 22 RODO jest obligatoryjne.
Tak, przetwarzanie danych dotyczących zdrowia przy użyciu systemów AI jest dopuszczalne, ale tylko w granicach wyznaczonych przez RODO oraz inne obowiązujące przepisy. Kluczowe jest zapewnienie legalności, rzetelności i przejrzystości przetwarzania, a także wdrożenie odpowiednich środków bezpieczeństwa.
W przypadku gdy system AI kwalifikuje się jako narzędzie wysokiego ryzyka (co dotyczy większości systemów medycznych), niezbędne jest przeprowadzenie oceny skutków dla ochrony danych (Data Protection Impact Assessment – DPIA), zgodnie z art. 35 RODO.
AI może znacznie zwiększyć efektywność procesów medycznych, umożliwiając szybszą analizę danych, ograniczenie błędów i usprawnienie zarządzania dokumentacją. Jednak równocześnie wiąże się z ryzykami, takimi jak nieautoryzowany dostęp do danych, błędy algorytmiczne czy brak przejrzystości działania.
Dlatego systemy AI powinny być nadzorowane przez człowieka (tzw. human oversight) i projektowane zgodnie z zasadą „privacy by design” oraz „privacy by default”.
Właściwe wdrożenie AI w podmiotach medycznych wymaga współpracy z ekspertami z zakresu obsługi prawnej branży IT, którzy pomogą zadbać o zgodność procesów z obowiązującymi regulacjami prawnymi.
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.
Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:
Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.
Od lipca 2013 do listopada 2022 roku Jura Poland – wyłączny importer ekspresów tej szwajcarskiej marki – wraz z kluczowymi dystrybutorami, ustalała sztywne ceny odsprzedaży. Dotyczyło to nie tylko cen standardowych, ale również promocji, gratisów i warunków wyprzedaży. Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.
Decyzja UOKiK to jasny sygnał: zmowy cenowe będą surowo karane – zarówno na poziomie firm, jak i osób fizycznych. To ostrzeżenie dla wszystkich przedsiębiorców, że ustalanie cen z konkurencją lub partnerami handlowymi może się skończyć milionowymi karami i utratą reputacji. UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.
Akurat ta sytuacja jest ewidentna, ale też do naruszenia może dojść w sposób nieumyślny. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy. Szkolenia takie mogą obejmować np. zakazy dotyczące zmów cenowych oraz rozgraniczenie uczciwej konkurencji od zachowań, które mogą być ścigane przez UOKiK lub być podstawą do wytoczenia powództwa przez pokrzywdzonego konkurenta.
Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar (leniency), zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.
Urząd Ochrony Konkurencji i Konsumentów (UOKiK) ujawnił trwającą niemal dekadę zmowę cenową pomiędzy spółką Jura Poland a czołowymi sieciami handlowymi: RTV Euro AGD, Media Markt i Media Expert. W wyniku nielegalnego porozumienia konsumenci byli pozbawieni możliwości zakupu ekspresów do kawy marki Jura w konkurencyjnych cenach.
Prezes UOKiK, Tomasz Chróstny, nałożył łącznie ponad 66 milionów złotych kar na zaangażowane podmioty. Najwyższe sankcje finansowe otrzymały:
Dodatkowo Joanna Luto, prezes zarządu Jura Poland w czasie trwania zmowy, została osobiście ukarana grzywną w wysokości 243 750 zł.
Firmy monitorowały się nawzajem i egzekwowały ustalenia – m.in. poprzez groźby wstrzymania dostaw lub zakończenia współpracy. Tego typu działania naruszały podstawowe zasady konkurencji i uderzały bezpośrednio w konsumentów.
UOKiK pokazuje, że odpowiedzialność za praktyki ograniczające konkurencję ponoszą nie tylko firmy, ale też konkretne osoby zarządzające. Dla menedżerów to wyraźna informacja, że muszą znać i przestrzegać zasad prawa konkurencji.
Firmy powinny inwestować w systemy compliance – czyli wewnętrzne procedury i polityki zapobiegające naruszeniom prawa. Warto szkolić pracowników, szczególnie działy sprzedaży, marketingu i zarządy.
Jeśli przedsiębiorstwo uczestniczyło w niedozwolonym porozumieniu, może skorzystać z programu łagodzenia kar, zgłaszając proceder do UOKiK i współpracując z urzędem. To może pozwolić uniknąć sankcji lub je znacząco obniżyć.