Connect with us

technologia

Polska wszczyna dochodzenie w sprawie ochrony danych w ChatGPT w związku ze skargą dotyczącą RODO

Published

on

Polska wszczyna dochodzenie w sprawie ochrony danych w ChatGPT w związku ze skargą dotyczącą RODO

OpenAI czeka dalsze dochodzenie w celu sprawdzenia, czy chatbot ChatGPT generujący sztuczną inteligencję jest zgodny z przepisami Unii Europejskiej dotyczącymi ochrony danych.

W zeszłym miesiącu złożono skargę na ChatGPT i OpenAI w Polsce, zarzucając firmie szereg naruszeń unijnego ogólnego rozporządzenia o ochronie danych (RODO). Wczoraj polskie władze zdecydowały się na nietypowy krok… publiczne ogłoszenie aby potwierdzić, że dochodzenie zostało wszczęte.

„Urząd Ochrony Danych Osobowych [UODO] rozpatruje skargę dotyczącą ChatGPT, w której składający skargę zarzuca twórcy narzędzia, firmie OpenAI, m.in. przetwarzanie danych w sposób niezgodny z prawem i nierzetelny oraz niejasne zasady, na jakich to się dzieje” – napisano w notatce prasowej UODO [translated from Polish to English using DeepL].

Agencja stwierdziła, że ​​spodziewa się „trudnego” śledztwa. Zauważyła, że ​​OpenAI ma siedzibę poza UE i wskazała na nowość technologii generatywnego chatbota AI, której zgodność będzie oceniać.

„Sprawa dotyczy naruszenia licznych przepisów o ochronie danych osobowych, dlatego zwrócimy się do OpenAI o udzielenie odpowiedzi na szereg pytań w celu rzetelnego przeprowadzenia postępowania administracyjnego” – poinformował w oświadczeniu Jan Nowak, prezes UODO.

Wiceprezydent Jakub Groszkowski dodał do agencji ostrzeżenie Komunikat prasowy – Napisz, że nowe technologie nie działają poza ramami prawnymi i muszą respektować RODO. Stwierdził, że skarga zawierała zarzuty podające w wątpliwość systemowe podejście OpenAI do europejskich zasad ochrony danych, dodając, że organ „wyjaśni te wątpliwości, szczególnie w świetle podstawowej zasady ochrony danych od samego początku zawartej w RODO”.

Skargę złożył lokalny badacz prywatności i bezpieczeństwa Łukasz OlejnikOpenAI zarzuca OpenAI szereg naruszeń ogólnounijnych regulacji – w obszarach podstawy prawnej, przejrzystości, uczciwości, praw dostępu do danych i wbudowanej ochrony danych.

Skupiono się na odpowiedzi OpenAI na prośbę Olejnika o poprawienie nieprawidłowych danych osobowych w biografii stworzonej na jego temat przez ChatGPT – co według OpenAI nie było możliwe. Oskarża także giganta sztucznej inteligencji o to, że nie odpowiedział właściwie na jego wniosek o dostęp do danych oraz o udzielanie wymijających, wprowadzających w błąd i wewnętrznie sprzecznych odpowiedzi podczas próby skorzystania z przysługującego mu prawa dostępu do danych.

READ  Julia Wandt: Werdykt oprogramowania do rozpoznawania twarzy w sprawie Polki, która twierdzi, że jest Madeleine McCann

Technologia leżąca u podstaw ChatGPT to tak zwany model dużego języka (LLM) – rodzaj generatywnego modelu sztucznej inteligencji, który jest szkolony na masach danych w języku naturalnym, umożliwiając obu reagowanie w sposób podobny do ludzkiego. Biorąc pod uwagę ogólną użyteczność narzędzia, zostało ono oczywiście przeszkolone do obsługi wszelkiego rodzaju informacji, co pozwala mu odpowiadać na różne pytania i wątpliwości – w wielu przypadkach włączając w to wprowadzanie danych o żyjących osobach.

Eksploatacja publicznego Internetu przez OpenAI w celu pozyskiwania danych szkoleniowych bez wiedzy i zgody ludzi jest jednym z głównych czynników powodujących kłopoty regulacyjne ChatGPT w UE. Wyraźnie nie jest w stanie określić, w jaki sposób przetwarza dane osobowe. lub korygowania błędów, gdy sztuczna inteligencja „ma halucynacje” i generuje fałszywe informacje na temat wymienionych osób lub innych osób.

Blokada reguluje przetwarzanie danych osobowych i wymaga, aby podmiot przetwarzający miał podstawę prawną do gromadzenia i wykorzystywania danych osobowych. Przetwarzający muszą także spełniać wymogi przejrzystości i uczciwości. Ponadto obywatelom UE przyznaje się szereg praw dostępu do danych, co oznacza, że ​​obywatele UE mają (między innymi) prawo do żądania poprawienia nieprawidłowych danych na ich temat.

Skarga Olejnika sprawdza zgodność OpenAI z RODO w wielu aspektach. Dlatego też wszelkie egzekwowanie przepisów może mieć znaczenie dla rozwoju generatywnej sztucznej inteligencji.

W odpowiedzi na potwierdzenie UODO, że bada skargę ChatGPT, Olejnik powiedział TechCrunch: „Nacisk na prywatność od samego początku jest absolutnie kluczowy i spodziewałem się, że to będzie główny aspekt”. Brzmi to całkiem rozsądnie. Dotyczyłoby to aspektów projektowania i dostarczania systemów LLM.

Wcześniej opisał doświadczenie uzyskiwania odpowiedzi od OpenAI na temat przetwarzania swoich informacji jako poczucie, że czuje się jak Josef K. z książki Kafki Proces. „Jeśli to mógłby być moment Josefa K. dla AI/LLM, mamy nadzieję, że rzuci on światło na zachodzące w nim procesy” – dodał teraz.

READ  Niemcy i Polska przejmują spółki gazowe powiązane z Rosją

Na uwagę zasługuje względna szybkość, z jaką polski organ odpowiedział na skargę, a także jego otwartość na śledztwo.

To pogłębia rosnące problemy regulacyjne, przed którymi stoi OpenAI w Unii Europejskiej. Polskie dochodzenie jest następstwem interwencji włoskiego organu ochrony danych na początku tego roku, która doprowadziła do tymczasowego zawieszenia ChatGPT w kraju. Badanie przez gwarancja kontynuuje badanie również obaw związanych ze zgodnością z RODO związanych z takimi czynnikami, jak podstawa prawna i prawa dostępu do danych.

W innym miejscu hiszpański organ ochrony danych wszczął dochodzenie. Natomiast grupa zadaniowa utworzona przez Europejską Radę Ochrony Danych na początku tego roku bada, w jaki sposób organy ochrony danych powinny reagować na technologię chatbotów AI, w celu osiągnięcia konsensusu wśród organów nadzorujących prywatność w bloku w sprawie sposobu regulacji tej nowatorskiej technologii.

Grupa zadaniowa nie zastępuje dochodzeń prowadzonych przez poszczególne organy. Może to jednak w przyszłości doprowadzić do pewnej harmonizacji podejścia organów ochrony danych do regulacji najnowocześniejszej sztucznej inteligencji. Rozbieżności są jednak możliwe również wtedy, gdy wśród organów ochrony danych istnieją zdecydowane i odmienne poglądy. Czas pokaże, jakie dalsze działania w zakresie egzekwowania prawa mogą podjąć organy nadzoru bloku przeciwko narzędziom takim jak ChatGPT. (A właściwie, jak szybko mogą działać.)

W komunikacie prasowym UODO – który wspomina o istnieniu grupy zadaniowej – prezydent twierdzi, że agencja „bardzo poważnie” podchodzi do śledztwa ChatGPT. Zaznacza także, że zarzuty zawarte w skardze nie są pierwszymi, które podają w wątpliwość przestrzeganie przez ChatGPT europejskich przepisów o ochronie danych i prywatności.

Maciej Gawroński z kancelarii GP Partners, która reprezentuje Olejnika w skardze, w rozmowie z TechCrunch omówił otwartość i tempo działania agencji: „UODO coraz częściej wypowiada się na temat kwestii prywatności, ochrony danych, technologii i praw człowieka”. , że nasza skarga stwarza taką możliwość [it] pracować nad pogodzeniem postępu cyfrowego i społecznego z indywidualną sprawczością i prawami człowieka.

READ  Najlepsze oferty na AirPods w Czarny piątek: AirPods Pro do 195 USD w Woot, 99 USD za AirPods w Walmart 4 listopada

„Pamiętajcie, że Polska jest krajem bardzo zaawansowanym pod względem IT. Oczekuję, że UODO będzie bardzo rozsądne w swoim podejściu i podejściu. Oczywiście, o ile OpenAI pozostanie otwarte, podlega dyskusji.”

Zapytany, czy spodziewa się szybkiej decyzji w sprawie skargi, Gawroński dodał: „Agencja dość uważnie monitoruje postęp technologiczny. Jestem obecnie na konferencji UODO poświęconej nowym technologiom. Do UODO zwrócili się już różni interesariusze w sprawie sztucznej inteligencji. Nie spodziewam się jednak szybkiej decyzji. Nie jest moim zamiarem także przedwczesne zakończenie tego procesu. Wolałbym odbyć szczerą i wnikliwą dyskusję z OpenAI na temat tego, co, kiedy, jak i w jakim stopniu w odniesieniu do zgodności ChatGPT z RODO, a w szczególności jak chronić prawa osoby, której dane dotyczą.

Skontaktowano się z OpenAI w celu uzyskania komentarza w sprawie dochodzenia prowadzonego przez polski organ ochrony danych, ale nie przesłano odpowiedzi.

Gigant AI nie stoi w miejscu w obliczu coraz bardziej złożonej sytuacji regulacyjnej w UE. Firma ogłosiła niedawno otwarcie biura w Dublinie w Irlandii – prawdopodobnie w celu usprawnienia swojej sytuacji regulacyjnej w zakresie ochrony danych, jeśli będzie mogła kierować wszelkie skargi związane z RODO przez Irlandię.

Jednak ta amerykańska firma nie jest obecnie uważana za „siedzibę” do celów RODO w żadnym państwie członkowskim UE (w tym w Irlandii), ponieważ decyzje dotyczące lokalnych użytkowników są nadal podejmowane w jej amerykańskiej siedzibie w Kalifornii. Jak dotąd biuro w Dublinie to tylko mały satelita. Oznacza to, że organy ochrony danych w całej Unii nadal mają uprawnienia do zbadania zastrzeżeń ChatGPT zgłoszonych w ich łatce. Mogą więc nastąpić dalsze badania.

Skargi poprzedzające przyszłą zmianę statusu siedziby OpenAI można nadal składać w dowolnym miejscu w UE.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *