La ricerca ChatGPT, alleato o nemico in ambito lavorativo?, condotta da Kaspersky su 1.000 dipendenti italiani tra i 18 e i 55 anni, evidenzia come la metà dei rispondenti abbia preso in considerazione la possibilità di utilizzare in ambito lavorativo gli strumenti di IA generativa, come ad esempio ChatGPT, nonostante oltre il 40% non sia a conoscenza di come funzioni l’elaborazione delle informazioni. Inoltre, la maggioranza di coloro che la utilizza non sembra dare grande importanza alle problematiche legate alla privacy dei dati e alla veridicità dei contenuti e non ha informato, o pensa che non sia importante farlo, il proprio datore di lavoro.

Quasi la metà dei dipendenti intervistati concorda sul fatto che ChatGPT possa essere un valido aiuto nella creazione, revisione e traduzione di testi (48%) così come per annotazioni rapide, appunti durante le riunioni o riassunti (46%). Rimangono ancora attività meno sfruttate sviluppare e/o migliorare altre applicazioni di intelligenza artificiale, come chatbot (16%) o addirittura la scrittura di codice sorgente (9%)

Inoltre, circa il 57% dei dirigenti o responsabili non è a conoscenza dell’utilizzo dei tool di IA in azienda e il 32% dei dipendenti ritiene che non sia necessario informarli. Questo dato non stupisce visto che il 77% degli intervistati nasconderebbe ai colleghi di utilizzare gli strumenti di intelligenza artificiale, o lo ha fatto. Più del 60% delle aziende italiane non ha inoltre definito linee guida o regole da seguire nell’utilizzo degli strumenti di IA, esponendo così l’azienda a possibili rischi e il 14% dei dipendenti delle aziende che invece lo hanno fatto si lamenta che queste regole siano poco chiare e comprensibili.

uniliver gpt

Un altro dato poco rassicurante che emerge dalla ricerca è che solamente il 13% sa esattamente come funziona l’elaborazione delle informazioni da parte di ChatGPT, mentre la maggioranza ne ha solo una vaga idea (44%) o nessuna conoscenza (43%). Inoltre, il 50% dichiara di condividere dati personali, informazioni destinate esclusivamente ad uso interno, documenti sensibili e molto altro. Di questi, circa il 20% non ritiene importante mantenere private le proprie ricerche, mentre addirittura il 30% pur sapendo che non bisogna condividere dati sensibili, lo fa ugualmente non anonimizzando le informazioni e rendendo quindi possibile che vengano ricondotte a un individuo o azienda specifica, con conseguenze importanti su privacy e sicurezza.

Anche la veridicità e l’autorevolezza dei contenuti ottenuti dagli strumenti di intelligenza artificiale non preoccupano troppo i dipendenti: il 49%, infatti, è disposto a utilizzare le risposte ottenute senza controllare la correttezza delle informazioni.

“La nostra ricerca dimostra come le aziende non siano ancora pronte per sfruttare le potenzialità di questa nuova tecnologia; i dipendenti prendono con troppa leggerezza la condivisione di dati e informazioni sensibili così come la veridicità dei contenuti, mentre i dirigenti non hanno la piena visibilità su come vengano utilizzati gli strumenti di IA all’interno dell’azienda e mancano regole e linee guida chiare e definite. Questa combinazione è molto pericolosa ed espone le aziende a grandi problemi legati alla privacy dei dati e alla verifica dei contenuti” ha dichiarato Cesare D’Angelo, General Manager Italy & Mediterranean, Kaspersky.