Social

ChatGPT, folosit de angajați la locul de muncă. Securitatea informațiilor pusă în pericol

ChatGPT, folosit de angajați la locul de muncă. Securitatea informațiilor pusă în pericol
sursa foto MLYearning

Mulți lucrători din SUA apelează la ChatGPT pentru a fi ajutați în îndeplinirea sarcinilor de bază, potrivit unui sondaj Reuters/Ipsos, în ciuda temerilor care au determinat angajatori precum Microsoft și Google să limiteze utilizarea acestuia.

Companiile din întreaga lume se gândesc cum să folosească cel mai bine ChatGPT, un program de chatbot care folosește inteligența artificială generativă pentru a purta conversații cu utilizatorii și a răspunde la o multitudine de solicitări. Cu toate acestea, firmele și companiile de securitate și-au exprimat îngrijorarea că ar putea duce la scurgeri de proprietate intelectuală și de strategii.

ChatGPT, folosit la locul de muncă

Printre exemplele de activități pentru care persoanele folosesc ChatGPT în activitatea de zi cu zi se numără redactarea de e-mailuri, rezumarea documentelor și efectuarea de cercetări preliminare. Aproximativ 28% dintre respondenții la sondajul online privind inteligența artificială (AI) din perioada 11-17 iulie au declarat că folosesc în mod regulat ChatGPT la locul de muncă, în timp ce doar 22% au declarat că angajatorii lor au permis în mod explicit astfel de instrumente externe.

Sondajul Reuters/Ipsos, realizat pe un eșantion de 2.625 de adulți din Statele Unite, a avut un interval de credibilitate, o măsură a preciziei, de aproximativ 2 puncte procentuale. Aproximativ 10% dintre cei intervievați au declarat că șefii lor au interzis în mod explicit instrumentele externe de inteligență artificială, în timp ce aproximativ 25% nu știau dacă firma lor permite utilizarea tehnologiei.

ChatGPT a devenit aplicația cu cea mai rapidă creștere din istorie după lansarea sa în noiembrie. Aceasta a creat atât entuziasm, cât și alarmă, aducând dezvoltatorul său OpenAI în conflict cu autoritățile de reglementare, în special în Europa, unde colectarea masivă de date de către companie a atras critici din partea organismelor de supraveghere a confidențialității. Analizatorii umani de la alte companii pot citi oricare dintre discuțiile generate, iar cercetătorii au descoperit că o inteligență artificială similară AI ar putea reproduce datele pe care le-a absorbit în timpul antrenamentului, creând un risc potențial pentru informațiile de proprietate.

„Oamenii nu înțeleg modul în care sunt utilizate datele atunci când folosesc servicii de inteligență artificială generativă”, a declarat Ben King, vicepreședinte pentru încrederea clienților la firma de securitate corporativă Okta. „Pentru întreprinderi, acest lucru este esențial, deoarece utilizatorii nu au un contract cu multe inteligențe artificiale deoarece acestea sunt un serviciu gratuit, astfel încât corporațiile nu vor fi trecut riscul prin procesul lor obișnuit de evaluare”, a spus King.

OpenAI a refuzat să comenteze atunci când a fost întrebată despre implicațiile utilizării ChatGPT de către angajații individuali, dar a subliniat o postare recentă pe blogul companiei care asigură partenerii corporativi că datele lor nu vor fi folosite pentru a antrena mai departe chatbot-ul, cu excepția cazului în care aceștia au dat permisiunea explicită. Atunci când oamenii folosesc Google Bard, acesta colectează date precum textul, locația și alte informații de utilizare. Compania le permite utilizatorilor să șteargă activitatea anterioară din conturile lor și să solicite eliminarea conținutului introdus în AI. Google, deținută de Alphabet, a refuzat să comenteze atunci când i s-au cerut mai multe detalii. Microsoft nu a răspuns imediat la o solicitare de comentarii.

Sarcini obișnuite rezolvate cu AI

Un angajat din SUA al Tinder a declarat că lucrătorii de la aplicația de dating au folosit ChatGPT pentru „sarcini inofensive”, cum ar fi scrierea de e-mailuri, chiar dacă compania nu permite acest lucru în mod oficial. „Sunt e-mailuri obișnuite. Foarte lipsite de consecințe, cum ar fi să faci invitații amuzante în calendar pentru evenimente de echipă, e-mailuri de adio atunci când cineva pleacă.

Îl folosim, de asemenea, pentru cercetări generale”, a declarat angajatul, care a refuzat să fie numit pentru că nu a fost autorizat să vorbească cu reporterii. Angajatul a declarat că Tinder are o „regulă de interzicere a ChatGPT”, dar că angajații încă îl folosesc într-un „mod generic care nu dezvăluie nimic despre faptul că suntem la Tinder”, conform Reuters .