Hiljuti teatati, et Apple ja OpenAI alustasid koostööd, et integreerida ChatGPT iOS-i operatsioonisüsteemi. Koostöö on suunatud AI funktsioonide, nagu vestlusroboti ja otsingu täiustamisele tulevastes iPhone'ides, alustades iOS 18-st. Uudis koostööst kütab kirgi just kasutajaandmete turvalisuse kontekstis, mille tagamaid avab Tele2 jurist Kristi Rosenblatt.
Mida tähendab Apple’i ja OpenAI koostöö iPhone’i kasutajate jaoks? (1)
Ajal, mil vabalt kättesaadavaid suuri keelemudeleid ehk LLMe saadavad regulatiivsed murekohad ja küsimused, teatas Apple Intelligence AI kihi loomisest. See võimaldab tulevikus muuhulgas saada ligi ChatGPT-le otse oma telefonist kasutajakontot omamata. Selline tehisintellekti kiht muudab kindlasti kasutajakogemust ja seadmest saab kasutaja eelistustele kohandatud assistent.
ChatGPT on küll veebis vabalt kättesaadav olnud juba üle aasta, aga sellegipoolest võib otse seadmes olev lisafunktsioon paljudele inimestele olla esimene teadlik kokkupuude tehisintellektiga. Kasutajatel tekib õigustatud küsimus: millistele andmetele telefonis saab treenitav tehisintellekti mudel otsese ligipääsu ja mida salvestatakse?
ChatGPT kogub andmeid
Tavapäraselt kogub ChatGPT kasutajate poolt sisestatud andmed ja säilitab seda teavet selleks, et mudeleid koolitada. Mida suuremale ja kvaliteetsemale andmehulgale on mudelil ligipääs, seda täpsemaid vastuseid see annab. LLMi kasutamine saab seega täna tugineda teadlikkusele – andmete sisestamisel võiks alati iseendalt küsida, mis tundlikkusega infot jagatakse ning millise profiili nende pinnalt saaks luua.
GDPR on küll loodud kaitsma privaatsust, aga sellistest treenitavatest andmemudelitest andmete kustutamine või nende parandamine kui ühe enda õiguse kasutamine võib olla tehnoloogiliselt pea võimatu. Tehisintellekt ja tehnoloogia areng liigub meeletus tempos ning regulatiivselt leitakse lahendusi alles täna esile kerkinud küsimustele. Juhul, kui Apple seab rõhuasetuse kasutajate privaatsuse ja innovatsiooni tasakaalule, võib sellest saada kiirelt areneval turul teenäitaja.
Andmetest tulenevate riskide puhul ei peaks aga rääkima üksnes isikuandmetest. Ettevõttete seisukohast on täna ehk kõige olulisem üle vaadata, millisel tasemel on äri sisemine infoturbepoliitika, kuidas on andmed kaitstud ja pöörata tähelepanu ka sellele, kas ChatGPT kasutamine toob kaasa riske.
Oluline on ka oma töötajad panna mõtlema sellele, milliseid tagajärgi võiks mõne lepingu üleslaadimine analüüsi eesmärgil tuua, kui seal olev teave, näiteks mõne toote vahendamisest saadav tulu, peaks saama avalikuks kolmandatele isikutele. Ülevaate privaatsuse ja turvalisuse murekohtadest võib ju küsida ka näiteks ChatGPT-lt endalt.