TEKNOLOGI

ChatGPT-samtal dök upp i Googlesökningar – nu drar OpenAI i nödbromsen

Tusentals användare blev chockade när deras privata ChatGPT-samtal plötsligt låg öppet på Google. Nu försöker OpenAI städa upp i röran.

Tänk dig att du har ett sårbart samtal med en AI – och plötsligt går det att hitta med en enkel Googling. Det var precis det mardrömsscenario många ChatGPT-användare vaknade upp till den här veckan, efter att det avslöjades att tusentals samtal blivit indexerade av Google och därmed synliga för hela världen.

Det var Fast Company som först avslöjade läckan. De upptäckte att även om chattarna inte innehöll namn eller e-postadresser, så kunde de ändå rymma djupt personliga detaljer – allt från relationsproblem till psykisk ohälsa. Kort sagt: tillräckligt för att någon med lite kontext skulle kunna lista ut vem som skrev vad.

OpenAI har nu erkänt problemet och tagit bort funktionen. Enligt säkerhetschefen Dane Stuckey rörde det sig om en “kortlivad experimentfunktion” som skulle göra det enklare att upptäcka användbara samtal. Användare kunde välja att dela sina chattar via en länk – och där dök den ökända rutan upp med texten “Gör den här chatten sökbar”. Problemet? Varningen om att chatten kunde hamna i Google stod med ljusgrå, pytteliten text.

Annons:

 

Det var “alldeles för lätt att klicka fel”, erkänner Stuckey nu. Funktionen öppnade, enligt honom, “alldeles för många möjligheter för folk att oavsiktligt dela något de aldrig tänkt offentliggöra”.

Och delat har det blivit. Fast Company hittade exempel där användare diskuterade sexliv, drogbruk och traumatiska upplevelser – allt tillgängligt via Google.

OpenAI jobbar nu med att få bort de indexerade chattarna från sökmotorerna, men det är lättare sagt än gjort. Google har bekräftat att det är OpenAIs ansvar – inte Googles – vad som blir synligt online. Och även om det finns verktyg för att ta bort sidor från sökresultaten, betyder det inte att de försvinner från internet eller andra sökmotorer.

Etikexperter är oroade. Carissa Véliz, AI-etiker vid Oxford University, kallar situationen “djupt oroande” och menar att teknikföretag alldeles för ofta “använder allmänheten som försökskaniner”. Istället för att testa funktioner ordentligt, ser man enligt henne om någon klagar – i efterhand.

Annons:

 

Skandalen kommer samtidigt som OpenAI redan är under press för sin hantering av användardata. Företaget har nyligen tvingats bevara raderade chattar som en del av en rättsprocess – något som väckt oro bland användare som trodde deras konversationer var borta för alltid.

Dane Stuckey understryker dock att OpenAI tar situationen på största allvar:

“Säkerhet och integritet är avgörande för oss. Vi kommer att fortsätta se till att det återspeglas i våra produkter och funktioner.”

Annons:

 

Men det lär knappast bli sista gången techvärlden måste ta itu med frågan om balansen mellan innovation och etik. Frågan är nu: hur många av oss vågar klicka på “Dela” nästa gång ChatGPT frågar?

Back to top button

Denna webbplats använder cookies. Genom att fortsätta använda webbplatsen godkänner du vår användning av cookies.  Lär dig mer