Dark Patterns su siti e apps. L’indagine internazionale “Privacy Sweep” arriva anche in Italia.

Garante Privacy

Il Global privacy enforcement network (GPEN), rete internazionale che vede tra i componenti anche il Garante Nazionale Privacy italiano, ha avviato un’indagine atta a smascherare i siti web e le applicazioni che facciano uso di Dark Patterns (modelli di progettazione ingannevoli) per sviare l’utente nella gestione del consenso sulle piattaforme. Tra il 29 Gennaio e il 2 Febbraio di quest’anno l’indagine si è concentrata sui siti web italiani, per rilevare qualsiasi anomalia in tal senso.

I Dark Patterns sono una tecnologia in realtà molto nota nel mondo di difesa dei consumatori in ambito digitale. Il loro funzionamento può essere sintetizzato con l’utilizzo della tecnologia, del design, e delle procedure da seguire su un sito web che spingano l’utente a una determinata scelta favorevole alla piattaforma ma sfavorevole all’utente stesso. Sono metodi subdoli e che spesso finiscono per passare inosservati dalla parte razionale dell’utente, innestandosi soprattutto su dinamiche emotive e quindi irrazionali, o perlomeno difficilmente razionalizzabili. Essi costituiscono un crocevia tra lo sviluppo del sito web dal punto di vista del design e la psicologia dell’utente, rischiando di limitare la capacità di scelta consapevole di quest’ultimo.

 

L’EDPB (European Data Protection Board) si era già in precedenza occupata del fenomeno (conosciuto nel mondo economico-informatico col verbo “nudging”) rintracciando sei tipi di Dark patterns utilizzabili nell’ambiente digitale nelle Linee guida sui modelli di progettazione ingannevoli sulle interfacce delle piattaforme social:

  • Quando gli utenti si trovano di fronte a una enorme numero di richieste, informazioni, opzioni o possibilità finalizzate a spingerli a condividere più dati possibili e consentire involontariamente il trattamento dei dati personali contro le aspettative dell’interessato (overloading).

 

  • Quando le interfacce sono realizzate in modo tale che gli utenti dimentichino o non riflettano su aspetti legati alla protezione dei propri dati (skipping).

 

  • Quando le scelte degli utenti sono influenzate facendo appello alle loro emozioni o usando sollecitazioni visive (stirring).

 

  • Quando gli utenti sono ostacolati o bloccati nel processo di informazione sull’uso dei propri dati o nella gestione dei propri dati (hindering).
  • Quando gli utenti acconsentono al trattamento dei propri dati senza capire quali siano le finalità a causa di un’interfaccia incoerente o poco chiara (flickle).

 

  • Quando l’interfaccia è progettata in modo da nascondere le informazioni e gli strumenti di controllo della privacy agli utenti (leftinthedark).

 

Una serie di indicatori, che vanno dalla chiarezza dei testi alla progettazione dell’interfaccia, saranno utilizzati per analizzare i siti web e le app oggetto dell’indagine. Questi indicatori valuteranno la presenza di messaggi assillanti o ostacoli o interazioni obbligate che ostacolano scelte razionali. Ogni Autorità privacy potrà inoltre organizzare attività di sensibilizzazione sul tema in base ai risultati, contattare i titolari per segnalare le criticità emerse dall’indagine o avviare un’indagine nei loro confronti.

 

Sebbene la tutela dei consumatori anche contro queste ultime insidie informatiche possa sembrare scontata, in realtà essa è piuttosto recente in quanto comporta in molti casi il superamento dell’archetipo dell’ “homo economicus” adottato anche in celebri massime della Corte UE quale quella in “Gut Springenheide”. Questa attenzione segnala un altro passo verso il superamento della concezione che la mera fornitura all’utente di informazioni complete sui servizi e sui dati richiesti sia sufficiente per salvaguardarne la libertà di scelta.

Con l’imminente ingresso delle tecnologie AI, questo archetipo pare destinato al progressivo abbandono in favore di iniziative quali quelle di tutela contro queste nuove insidie del web.

 

Design Ingannevole, in arrivo un’indagine internazionale