Azioni evitabili di ChatGPT sul posto di lavoro
ChatGPT e simili sono ottimi aiutanti sul posto di lavoro, ma anche un potenziale rischio per la sicurezza. Forcepoint, azienda specializzata in sicurezza informatica, spiega quali compiti è ancora meglio svolgere da soli.
Rispondere a domande, scrivere testi e persino creare codice sorgente: Strumenti di intelligenza artificiale generativa come ChatGPT, Bard e Copilot hanno capacità sorprendenti e sono molto popolari anche sul posto di lavoro. Non c'è da stupirsi, perché facilitano il lavoro.
Molti non si rendono conto che questi strumenti rappresentano un potenziale rischio per la sicurezza. I loro fornitori non solo utilizzano informazioni liberamente disponibili su Internet per addestrare i loro modelli di intelligenza artificiale e generare i risultati degli strumenti, ma anche i dati inseriti dagli utenti. I dati inseriti dall'utente stesso potrebbero finire nelle risposte di altri utenti.
Le aziende e i dipendenti dovrebbero quindi riflettere attentamente su quali compiti assegnare a ChatGPT. Forcepoint spiega per cosa non dovrebbero usare gli strumenti di IA generativa sul lavoro.
Scrivere le risposte alle richieste dei clienti o ai ticket di assistenza. Questi testi contengono quasi sempre informazioni personali sui clienti e sulla proprietà intellettuale dell'azienda. Si rischia di avvantaggiare la concorrenza e di avere problemi con le autorità di protezione dei dati.
Creare contenuti per il lancio di un prodotto o per altri annunci importanti dell'azienda. L'ultima acquisizione è ancora super-segreta e deve essere tenuta nascosta finché non ci sono tutte le firme? Una richiesta da parte di terzi potrebbe far apparire il messaggio nella loro risposta e quindi renderlo di dominio pubblico.
analizzare i prezzi, i risultati finanziari o i bilanci della propria azienda. Se un concorrente cerca informazioni sulla situazione finanziaria dell'azienda, potrebbe trovarle in questo modo. È quindi meglio utilizzare uno strumento memorizzato localmente o una calcolatrice.
Eseguire il debug del codice o scrivere nuovo codice. Se l'intelligenza artificiale generativa crea codice, questo potrebbe contenere malware o una backdoor. Se la si usa per il debug, il proprio codice può finire nelle mani di altri programmatori.
Riassumere contenuti personali come CV o presentazioni e documenti aziendali interni.. Tali contenuti non trovano posto su ChatGPT e simili. Soprattutto perché i gestori di questi strumenti potrebbero essere essi stessi vittime di una violazione dei dati e i dati sensibili potrebbero quindi uscire in questo modo.
"Gli strumenti di intelligenza artificiale generativa comportano notevoli rischi per la sicurezza. Tuttavia, limitarsi a bloccare l'accesso in ufficio è eccessivo e spesso inutile. Questi strumenti rendono i dipendenti più produttivi e spesso vi accedono comunque dall'esterno della rete aziendale", spiega Fabian Glöser, Team Lead Sales Engineering di Forcepoint. "È meglio sensibilizzare i dipendenti sui rischi e utilizzare soluzioni di sicurezza dei dati per proteggerli da gravi disattenzioni nel loro frenetico lavoro quotidiano".
Fonte: www.forcepoint.com