O czym rozmawialiście z ChatGPT? 100 000 rozmów jest teraz dostępnych publicznie w Google: od tajemnic firmowych po dramaty miłosne.

Czy potrafisz sobie wyobrazić, jak najbardziej intymna lub najbardziej pikantna rozmowa, jaką przeprowadziłeś z ChatGPT, ostatecznie unosiła się w Google i była dostępna dla każdego za jednym kliknięciem? Dla tysięcy użytkowników ChatGPT ten koszmar jest już rzeczywistością. Wśród prawie 100 000 ujawnionych czatów znajdują się wszystko – od poufnych projektów umów po niewysłane wiadomości miłosne – nieme świadectwo tego, jak odnosimy się do tych cyfrowych narzędzi.
Scena ta przywodzi na myśl początki mediów społecznościowych, kiedy ludzie publikowali posty, nie zdając sobie sprawy, że cały świat może je zobaczyć. Tym razem nie mówimy o zdjęciach z wakacji ani niewinnych komentarzach, ale o interakcji ze sztuczną inteligencją, która dla wielu pełniła funkcję asystenta w pracy , spowiednika sentymentów i improwizowanego redaktora. Nieuniknione pytanie brzmi: jak daleko sięga nasza odpowiedzialność jako użytkowników, a jak daleko sięga odpowiedzialność platform, które obiecują prywatność?
Wyciek nie tylko ujawnia wadę projektową eksperymentalnej funkcji OpenAI. Otwiera również niepokojące okno na ludzkie zachowanie wobec technologii: powierzamy sekrety i ważne dokumenty algorytmowi, nie zastanawiając się, czy jego „cyfrowy sejf” jest rzeczywiście bezpieczny.
Jak wyciekło prawie 100 000 rozmów z ChatGPTHistoria zaczyna się od pozornie niegroźnej funkcji: przycisku „Udostępnij” w ChatGPT. Jeszcze kilka dni temu każdy użytkownik mógł wygenerować publiczny link do swojej rozmowy i przesłać go osobom trzecim . Linki te, ze względu na swoją otwartą naturę, były indeksowane przez wyszukiwarki takie jak Google.
Rezultatem był przewidywalny ciąg zdarzeń. Najpierw niektórzy użytkownicy udostępniali linki z wrażliwymi treściami, nie zdając sobie sprawy, że są one publicznie dostępne. Następnie Google indeksował te adresy URL, włączając je do swojego indeksu. W końcu badacze i ciekawscy zaczęli lokalizować i kompilować czaty, tworząc ogromne archiwum liczące prawie 100 000 konwersacji.
Firma OpenAI potwierdziła skalę wycieku i zareagowała. Dane Stuckey, dyrektor ds. bezpieczeństwa (CISO), oświadczył, że usunęli tę funkcję, aby zapobiec przypadkowemu udostępnianiu informacji, których nie chcieli upublicznić. Rozpoczęli również proces usuwania danych z indeksów w wyszukiwarkach , jednak jest już za późno, aby całkowicie odwrócić skutki wycieku: osoby trzecie masowo pobrały te materiały.
Jakiego rodzaju informacje zostały ujawnioneZbiór danych ujawnia różnorodność zastosowań ChatGPT przez użytkowników. Wśród zindeksowanych konwersacji znajdują się:
- Kopie rzekomych umów o zachowaniu poufności z OpenAI i innych firm.
- Projekty umów żądane przez właścicieli firm, zawierające nazwy i dane firm.
- Konsultacje emocjonalne i osobiste, np. dotyczące listów do byłych partnerów lub dylematów dotyczących związków romantycznych.
- Bardziej przyziemne zlecenia, takie jak pisanie postów na LinkedIn czy korekta tekstów.
To połączenie rozsądku z banałem ukazuje zjawisko, przed którym eksperci ds. prywatności ostrzegają od lat: każda funkcja udostępniania, bez względu na to, jak pozornie niegroźna, może stać się przyczyną wycieku prywatnych danych, jeśli jej zakres nie zostanie jasno określony.
Konsekwencje dla prywatności i bezpieczeństwaUjawnienie tych rozmów rodzi kilka istotnych problemów. Pierwszym z nich jest współodpowiedzialność. OpenAI oferował system opt-in, ale wielu użytkowników prawdopodobnie nie rozumiało, że zaznaczenie pola „udostępnij” oznacza globalną ekspozycję. Ta rozbieżność między percepcją a rzeczywistością jest powszechna w erze cyfrowej: zakładamy, że prywatność jest normą, podczas gdy w rzeczywistości każda interakcja online pozostawia ślady.
Co więcej, fakt, że osoby trzecie już pobrały zbiór danych, stwarza stałe ryzyko. Nawet jeśli OpenAI uda się zmusić Google do usunięcia linków , lokalne kopie mogą krążyć na forach, w wyciekłych bazach danych, a nawet w darknecie. Konkurencyjne firmy, atakujący lub po prostu ciekawscy użytkownicy mają dostęp do materiałów zawierających dane osobowe i korporacyjne.
Wreszcie, wyciek wzmacnia potrzebę cyfrowej edukacji opartej na sztucznej inteligencji. Korzystanie z ChatGPT jako bezpiecznego asystenta osobistego bez zrozumienia mechanizmów jego działania naraża osoby prywatne i firmy na ryzyko utraty reputacji i ryzyko prawne.
Lekcje na przyszłość sztucznej inteligencji i prywatnościOdcinek 100 000 ujawnionych czatów stanowi ostrzeżenie dla ekosystemu technologicznego. Platformy AI będą musiały zapewnić większą transparentność w kwestii działania swoich opcji udostępniania i prawdopodobnie projektować je z uwzględnieniem zasady domyślnej prywatności.
Dla użytkowników lekcja jest dwojaka. Po pierwsze, nie deleguj bezmyślnie przechowywania poufnych danych do systemu chmurowego bez jasnych gwarancji bezpieczeństwa. Po drugie, zrozum, że każdy przycisk „udostępnij” lub „upublicznij” może być bardziej rozbudowany, niż się wydaje.
eleconomista