L’Australian Competition & Consumer Commission (ACCC) ha avviato un procedimento legale contro Microsoft accusandola di aver fuorviato milioni di utenti dei piani Microsoft 365 Personal e Family. Secondo l’autorità, l’azienda avrebbe fatto credere ai consumatori che per continuare a utilizzare il servizio fosse necessario accettare l’integrazione di Copilot e pagare un prezzo più elevato, oppure cancellare l’abbonamento. In realtà esisteva una terza opzione, non comunicata chiaramente, per la quale i piani “Classic” mantenevano le stesse funzionalità precedenti senza Copilot e a un prezzo inferiore.

L’accusa sostiene che Microsoft abbia deliberatamente nascosto questa possibilità fino a quando gli utenti non decidevano di annullare il servizio, introducendo un comportamento considerato ingannevole e contrario alle norme sulla trasparenza. Il presidente dell’ACCC, Gina Cass-Gottlieb, ha dichiarato che questa condotta avrebbe negato agli utenti la possibilità di fare una scelta consapevole, spingendoli verso piani più costosi.

Microsoft ha risposto affermando di voler collaborare con le autorità e di ritenere la fiducia dei consumatori una priorità, ma la vicenda si inserisce in un quadro più ampio in cui le big tech sono sempre più sorvegliate sulla trasparenza dei modelli di business legati all’IA.

Australia Microsoft

Parallelamente, l’Australia ha rifiutato di introdurre eccezioni al diritto d’autore per consentire alle aziende di IA di utilizzare contenuti protetti per addestrare i modelli senza compensare i creatori. La ministra Michelle Rowland ha ribadito che gli autori australiani devono essere tutelati, un chiaro segnale politico in direzione opposta rispetto a chi spinge per un accesso indiscriminato ai dati.

Anche l’India si sta muovendo con decisione per regolamentare l’impatto dell’IA sui media digitali. Il Ministero dell’Elettronica e dell’Information Technology ha proposto una normativa che impone l’obbligo di identificare e segnalare i contenuti generati artificialmente tramite etichette visive o sonore permanenti. Le piattaforme dovranno integrare metadati univoci che coprano almeno il 10% della superficie del contenuto visivo o, nel caso dell’audio, essere riprodotti almeno nei primi dieci secondi.

L’obiettivo è mitigare il rischio legato ai deepfake, considerati una minaccia per l’ordine pubblico, la reputazione dei singoli individui e la stabilità democratica. La normativa prevede inoltre obblighi diretti per i creatori di contenuti, chiamati a dichiarare esplicitamente l’origine artificiale del materiale pubblicato.

(Immagine in apertura: Shutterstock)