Rosnąca popularność generatywnej sztucznej inteligencji sprawia, że operatorzy takich usług muszą coraz częściej aktualizować zasady korzystania z platform. OpenAI właśnie ogłosiło kompleksową rewizję regulaminu ChatGPT, obejmującą zarówno nowe funkcje społecznościowe, jak i doprecyzowanie kwestii związanych z bezpieczeństwem nieletnich oraz przejrzystością przetwarzania danych. Poniżej przedstawiamy kluczowe elementy zmian i ich potencjalny wpływ na użytkowników indywidualnych oraz firmy korzystające z narzędzia.
Nowa funkcja synchronizacji kontaktów – wygoda czy ryzyko?
Najnowsza wersja aplikacji ChatGPT umożliwia dobrowolne zsynchronizowanie książki adresowej urządzenia z serwerami OpenAI. Po włączeniu opcji algorytm analizuje numery telefonów i adresy e-mail w celu identyfikacji osób, które również aktywowały tę funkcję. W praktyce oznacza to, że użytkownik może szybciej odnaleźć znajomych, z którymi chciałby współpracować lub dzielić się wynikami pracy kreatywnej generowanej przez model.
Technicznie mechanizm przypomina rozwiązania znane z komunikatorów mobilnych – serwer przechowuje skróty haszowane kontaktów, porównując je z bazą innych użytkowników. OpenAI deklaruje, że pełne dane nie są widoczne dla osób trzecich, a opcję można w każdej chwili wyłączyć z poziomu ustawień prywatności. Mimo to pojawiają się pytania o zakres i okres przechowywania informacji. W kontekście europejskiego RODO taka funkcja musi uwzględniać zasadę minimalizacji danych oraz prawo do bycia zapomnianym. Według dokumentacji spółki kopie kontaktów kasowane są niezwłocznie po dezaktywacji opcji, lecz organizacje zajmujące się ochroną praw konsumentów zapowiadają monitorowanie praktyk w tym obszarze.
Z punktu widzenia użytkowników korporacyjnych i administracji publicznej synchronizacja kontaktów może być postrzegana jako ryzyko nadużycia poufnych danych. W wielu firmach obowiązują restrykcyjne wewnętrzne polityki dotyczące udostępniania list kontrahentów i pracowników, dlatego włączenie funkcji będzie prawdopodobnie blokowane na poziomie konfiguracji MDM (Mobile Device Management). Z kolei dla odbiorców indywidualnych wygoda szybszego nawiązania kontaktu z przyjaciółmi może przeważyć nad obawami, o ile OpenAI utrzyma wysokie standardy szyfrowania i transparentnego raportowania incydentów.
Automatyczne rozpoznawanie wieku i bezpieczna przestrzeń dla nastolatków
Drugim filarem aktualizacji jest wprowadzenie automatycznego mechanizmu szacowania wieku użytkownika na podstawie wzorca korzystania z usługi. Celem jest lepsze dopasowanie treści do grup wiekowych oraz dodatkowa warstwa ochrony dla osób niepełnoletnich. System ma kategoryzować konta na trzy poziomy: dzieci, młodzież oraz dorośli. Dla pierwszych dwóch kategorii przewidziano ostrzejsze filtry moderacyjne i częściowe ograniczenia niektórych funkcji, takich jak generowanie treści o charakterze erotycznym lub dostęp do określonych wtyczek zewnętrznych.
To rozwiązanie wpisuje się w globalny trend regulacyjny. W Stanach Zjednoczonych ustawodawcy dyskutują nad rozszerzeniem przepisów wzorowanych na COPPA, a na terenie Unii Europejskiej zaczyna obowiązywać Akt o Usługach Cyfrowych (DSA), nakładający na platformy AI dodatkowe wymogi w zakresie ochrony małoletnich. Choć automatyczne prognozowanie wieku nie eliminuje całkowicie ryzyka, stanowi uzupełnienie klasycznego uwierzytelniania daty urodzenia i może ograniczyć ekspozycję nieodpowiednich treści.
Rodzice zyskują nowy panel kontroli, pozwalający między innymi śledzić historię konwersacji dziecka, ustalać limity czasu pracy z aplikacją oraz wyłączać konkretne moduły generowania obrazu, dźwięku czy wideo. OpenAI zapowiada, że wszystkie te narzędzia będą dostępne z poziomu jednego kokpitu, co ułatwi bieżący nadzór bez konieczności instalowania zewnętrznych programów filtrujących.
Przejrzystość przetwarzania danych i rozwój ekosystemu narzędzi
Aktualizacja regulaminu uzupełniona została o szczegółowe wytyczne dotyczące podstaw prawnych przetwarzania danych osobowych oraz jasno określone czasy retencji. OpenAI deklaruje m.in. przechowywanie treści konwersacji standardowo przez 30 dni na potrzeby wykrywania nadużyć, po czym dane są anonimizowane lub usuwane. Dla klientów korporacyjnych możliwy jest krótszy lub dłuższy okres, jeśli wynika to z umowy z firmą.
W dokumencie pojawiły się również wzmianki o nowych produktach: przeglądarce Atlas, mającej integrować wyszukiwanie internetowe z generowaniem streszczeń AI, oraz drugiej generacji modelu wideo Sora 2, łączącej tekst, obraz i ruch w realistyczne klipy. Oba narzędzia mają wykorzystywać wspólną infrastrukturę bezpieczeństwa, co upraszcza zarządzanie zgodami na przetwarzanie danych w jednym miejscu. Dzięki temu użytkownicy będą mogli łatwiej kontrolować, które moduły mogą gromadzić informacje i w jakim celu.
Dodatkowo spółka wprowadza bardziej granularne uprawnienia dla twórców wtyczek, wymagając, aby każda rozszerzona funkcja jasno opisywała, jakie dane zbiera i na jakich zasadach będzie je udostępniać podmiotom trzecim. Ma to zminimalizować ryzyko sytuacji, w których wtyczka korzysta z danych nieadekwatnych do realizowanej usługi, co już wcześniej bywało przedmiotem krytyki organizacji branżowych.
Implikacje dla rynku i przyszłe kierunki rozwoju
Zmiany wprowadzone przez OpenAI pojawiają się w momencie, gdy cały sektor AI przygotowuje się na kolejną falę regulacji. Funkcje takie jak synchronizacja kontaktów mogą stać się standardem w aplikacjach konwersacyjnych, o ile użytkownicy otrzymają jasne gwarancje prywatności. Z kolei precyzyjne mechanizmy kontroli rodzicielskiej to sygnał dla klientów instytucjonalnych – szkół, bibliotek i organizacji wspierających edukację – że ChatGPT może być wdrażany w młodszych grupach wiekowych bez ryzyka naruszenia przepisów chroniących małoletnich.
Dla biznesu oznacza to konieczność rewizji wewnętrznych polityk bezpieczeństwa, szczególnie jeśli pracownicy planują korzystać z nowych narzędzi ekosystemu OpenAI na urządzeniach służbowych. Warto już teraz uwzględnić w umowach z dostawcą zapisy dotyczące szyfrowania danych i potencjalnego wyłączenia funkcji społecznościowych w środowisku produkcyjnym.
W ujęciu makroekonomicznym rozbudowa regulaminu może przyspieszyć standaryzację praktyk w branży AI. Transparentne wskazanie podstaw prawnych, okresów retencji i szczegółów moderacji treści staje się oczekiwaną normą rynkową, a dostawcy, którzy nie nadążą za rosnącymi wymogami, mogą utracić zaufanie zarówno użytkowników, jak i organów nadzoru.