Tadej Justin & Bojan Miličić13 July 2023

Odgovorna uporaba velikih jezikovnih modelov

Varovanje občutljivih podatkov

Se spomnite HAL-a 9000 iz filma 2001: Vesoljska odiseja? Tistega pametnega stroja, ki se je lahko pogovarjal kot človek? Danes so HAL-i vsepovsod okoli nas, in čeprav so izjemno zanimivi in uporabni, se napajajo z ogromnimi količinami naših podatkov.

Naš največji izziv danes torej le ni nadzorovanje teh sistemov, temveč zagotavljanje varnosti in varovanja vseh teh podatkov. Zaradi našega digitalnega odtisa, od zbiranja osebnih preferenc do intelektualne lastnine velikih podjetij, sta postala pojma varnosti podatkov in zasebnosti pomembnejša kot kdaj koli prej.

Od splošne uredbe Evropske unije o varstvu podatkov (GDPR) do odmevnih kršitev, kot je bil primer Cambridge Analytica, se je svet že sprijaznil z dejstvom, da živimo v dobi, ki je tesno povezana s podatki. Zato podjetja danes ne vlagajo le v podatke, temveč tudi v njihovo varovanje in zaščito.


Woman behind greenery

Fotorgrafija: Unsplash

Veliki jezikovni modeli: Spremembe v interakciji s podatki

Tehnološki svet se nenehno razvija, pojav velikih jezikovnih modelov (LLM), kot je GPT-4 podjetja OpenAI, pa je bistveno spremenil dinamiko interakcije in obdelave podatkov. Takšni modeli strojnega učenja lahko na podlagi vhodnih podatkov generirajo besedilo, ki je podobno tistemu, ki bi ga napisal človek, kar je zelo privlačna in uporabna rešitev za mnoge panoge.

Psevdonimizacija in anonimizacija: Kakšna je razlika?

Razumevanje konceptov psevdonimizacije in anonimizacije je ključnega pomena pri ravnanju s tako kompleksnimi modeli.

Pri psevdonimizaciji se polja z osebnimi podatki v podatkovnem zapisu nadomestijo z umetnimi identifikatorji ali psevdonimi, zaradi česar je podatkovni zapis manj prepoznaven. Kompleksni algoritmi velikih jezikovnih modelov lahko iz že psevdonimiziranih vhodnih podatkov ustvarijo izredno koherentne in kontekstualno bogate rezultate, zaradi česar so skrbi glede zasebnosti minimalne.

Furniture in fog

Fotorgrafija: Unsplash

Po drugi strani pa anonimizacija v celoti odstrani osebne informacije iz podatkov in zagotovi, da posameznik, ki ga podatki opisujejo, ostane anonimen. Ali torej model, kot je ChatGPT, anonimizira poizvedbe? Da in ne.

Da, če vnesemo tako navodilo, lahko najde in anonimizira željena polja. Vendar se morate zavedati, da v tem primeru verjetno pošiljate občutljive podatke v API ali strežnike nekega drugega subjekta. Veliki jezikovni modeli, ki delujejo po principu “SaaS”, so zapleten sistem, ki lahko vključuje izmenjavo podatkov z drugimi storitvami in bazami podatkov v neznani meri.

In odgovor je lahko tudi "ne", ker ChatGPT posebej ne anonimizira polj kot neka avtomatska funkcija. Prav tako ne shranjuje osebnih podatkov, posredovanih modelu med interakcijo. To pomeni, da se podatki, poslani API-ju, ne uporabljajo za izpopolnjevanje modelov, kar pomeni dodatno stopnjo zaščite podatkov.

Na koncu je za preprečevanje nenamernega izpostavljanja občutljivih podatkov med interakcijo z velikimi jezikovnimi modeli odgovoren uporabnik ali organizacija. Ključnega pomena je razumeti, da lahko pošiljanje podatkov v API zunaj našega podjetja nenamerno posreduje občutljive podatke drugi organizaciji.

Ohranjanje nadzora nad podatki

Vprašanje za milijon dolarjev je: Kako lahko zavarujemo svoje podatke med uporabo ChatGPT-ja in ostalih podobnih storitev? Vse se začne s poznavanjem delovanja teh modelov, upoštevanjem internih pravilnikov o obdelavi podatkov in s proaktivno psevdonimizacijo ali anonimizacijo podatkov še pred prvo interakcijo s takšnimi sistemi. Le tako lahko izkoristimo potencial LLM, ne da bi pri tem ogrozili zasebnost in varnost podatkov.

Ko se torej podajamo na to vznemirljivo novo področje, poskrbimo, da bomo po njem potovali odgovorno in da naši podatki - naše zlato - ne bodo ostali nezaščiteni.

Stage lights

Fotorgrafija: fabio na Unsplashu

Cookie Settings

We use third-party cookies to analyze web traffic. This allows us to deliver and improve our web content. Our website uses cookies for these purposes only.
Copyright © 2025 Medius Inc.All rights reserved.
Facebook iconInstagram iconLinkedIn icon