X ora permette a chiunque di modificare le foto altrui con l'IA. Senza consenso.

X ora permette a chiunque di modificare le foto altrui con l’IA. Senza consenso.

Grok, l’intelligenza artificiale integrata in X (ex Twitter), ha una nuova funzionalità: consente a qualsiasi utente di modificare le immagini pubblicate da altri. Basta un semplice comando testuale e in pochi secondi l’IA restituisce una versione alterata della foto. Il problema? Non serve alcuna autorizzazione da parte di chi l’ha pubblicata, non arriva nessuna notifica, e al momento non esiste modo di disattivare questa opzione.

Il pulsante “Modifica immagine” compare su tutti i post con foto, indipendentemente dal tipo di account: utenti comuni, verificati, personaggi pubblici. Una volta elaborata, l’immagine modificata può essere condivisa liberamente sulla piattaforma.

La deriva era prevedibile

Le reazioni non si sono fatte attendere. Artisti e fotografi protestano per l’uso indiscriminato dei loro contenuti, ma la questione va ben oltre il diritto d’autore. Come sottolinea Mattia Marangon nella sua newsletter Edamame, il feed di X si è rapidamente riempito di immagini sessualizzate: foto normalissime trasformate in scatti in bikini o abiti succinti, spesso senza che le persone ritratte ne sappiano nulla.

Il punto sollevato da Marangon è semplice ma fondamentale: pubblicare una foto su un social non significa renderla “pubblica” nel senso di liberamente manipolabile. Una foto ha un contesto, un’intenzione. Condividerla significa mostrarla, magari farla commentare o ricondividere così com’è, non certo autorizzare chiunque a trasformarla in qualcos’altro.

Grok invece tratta ogni immagine come semplice materiale grezzo, un insieme di pixel da rielaborare a piacimento. E la facilità d’uso peggiora le cose: quello che prima avrebbe richiesto competenze tecniche e ore di lavoro (un deepfake, per intenderci) ora si fa in dieci secondi e con una riga di testo.

Nessuna soluzione reale

Qualcuno suggerisce di convertire le proprie foto in GIF prima di pubblicarle, così l’IA farebbe più fatica a riconoscerle. Ma è un palliativo: nulla impedisce di scaricare un’immagine e modificarla con strumenti esterni.

La verità è che manca qualsiasi forma di tutela strutturale. E mentre ci si abitua a vedere questo tipo di contenuti ogni giorno, il rischio, come nota ancora Marangon, è che la soglia di ciò che consideriamo accettabile si sposti progressivamente, fino a rendere normale quello che oggi ci indigna.

Fediverse reactions

Spargi la voce

Fiuta le novità (seguimi 🐾)

YOOTA
YOOTA
@yoota@yoota.it

Fiuto per le tech news

295 articoli
34 follower

Lascia un commento

Puoi lasciare solo commenti senza iscrizione che verranno preventivamente moderati e il tuo indirizzo IP sarà anonimizzato.

Biscotti! Non vengono installati cookie di tracciamento né raccolti dati personali ma questo sito è federato con ActivityPub ⁂, visitandolo quindi potresti fare connessioni esterne ai server di Mastodon o altri software. Affiliazioni: Alcuni articoli potrebbero contenere link di affiliazione. Se acquisti tramite questi link, potremmo ricevere una piccola commissione.