Da GitHub Copilot alla ricerca di Bing basata su ChatGPT, l’intelligenza artificiale permea sempre più la nostra vita quotidiana. Sebbene sia una buona idea (le macchine fanno più lavoro e gli uomini possono concentrare il loro tempo su attività meno ripetitive e più soddisfacenti), è necessario avere una certa esperienza in un determinato campo per fidarsi dei risultati offerti dall’IA. Ben Kehoe, ex ricercatore di robotica cloud per iRobot, sostiene che le persone devono ancora assumersi la responsabilità finale di ciò che l’IA suggerisce e ciò significa che è l’uomo a dover stabilire se se i suggerimenti dell’IA sono validi.

Responsabilità per i risultati

Ci troviamo in una fase ancora immatura dell’IA, in cui questa tecnologia mostra enormi promesse ma non è sempre chiaro cosa diventerà una volta cresciuta. Ora abbiamo invenzioni come le auto a guida autonoma (che però sono tutt’altro che autonome) e lo stesso ChatGPT è sorprendente finché non inizia a inventare informazioni o a uscirsene con epiteti razziali. E così via. Non si tratta però di deprecare questi o altri usi dell’IA. Piuttosto, si tratta di ricordare che, come sostiene Kehoe, le persone non possono incolpare l’IA per i risultati dell’utilizzo di tale intelligenza artificiale.

“Molte delle proposte sull’IA che vedo affermano che l’IA sarà in grado di assumersi l’intera responsabilità di un determinato compito per una persona, ma per ora le persone sono responsabili se la loro Tesla si schianta contro un’altra auto e sono responsabili per qualsiasi cosa scelgano di fare con ChatGPT o per la violazione del copyright se DALL-E utilizza materiale protetto, ecc”, afferma Kehoe. Questa responsabilità, in un ambito come lo sviluppo software, diventa fondamentale quando si utilizzano strumenti di intelligenza artificiale come GitHub Copilot per lavoro.

github copilot code

Osservare gli osservatori

Non è difficile trovare sviluppatori che beneficiano di Copilot. Ecco ad esempio uno sviluppatore che ha apprezzato la rapidità dei suggerimenti dell’IA, ma che al tempo stesso ha trovato il programma “lento” e “instabile”. Ci sono molte altre recensioni contrastanti. Gli sviluppatori apprezzano il modo in cui Copilot approfondisce il codice, trova e suggerisce le API più importanti e molto altro ancora. Lo sviluppatore Edwin Miller osserva che i suggerimenti di Copilot sono “generalmente accurati”, il che è sia positivo che negativo. È positivo il fatto che ci si possa fidare di Copilot per molte cose, ma questo è anche il problema: ci si può fidare solo per alcune cose. Per sapere infatti quando i suoi suggerimenti non sono affidabili, dovete essere sviluppatori esperti.

Anche in questo caso, non si tratta di un grosso problema. Se Copilot aiuta gli sviluppatori a risparmiare tempo, è un bene, giusto? Lo è, ma significa anche che gli sviluppatori devono assumersi la responsabilità dei risultati dell’uso di Copilot e ciò potrebbe non essere sempre un’ottima opzione per gli sviluppatori più giovani. Quella che potrebbe essere una scorciatoia per uno sviluppatore esperto potrebbe portare a risultati negativi per uno meno esperto. In ogni caso, è probabilmente poco saggio per un principiante cercare di prendere queste scorciatoie, perché questo approccio potrebbe limitare il suo apprendimento dell’arte della programmazione.

Quindi, usiamo pure l’intelligenza artificiale per migliorare la nostra guida, la ricerca e la programmazione. Ma ricordiamoci anche che, fino a quando non si avrà piena fiducia nei suoi risultati, le persone esperte dovranno tenere le proverbiali mani sul volante.