Grok, l’intelligenza artificiale integrata in X (ex Twitter), ha una nuova funzionalità: consente a qualsiasi utente di modificare le immagini pubblicate da altri. Basta un semplice comando testuale e in pochi secondi l’IA restituisce una versione alterata della foto. Il problema? Non serve alcuna autorizzazione da parte di chi l’ha pubblicata, non arriva nessuna notifica, e al momento non esiste modo di disattivare questa opzione.
Il pulsante “Modifica immagine” compare su tutti i post con foto, indipendentemente dal tipo di account: utenti comuni, verificati, personaggi pubblici. Una volta elaborata, l’immagine modificata può essere condivisa liberamente sulla piattaforma.
La deriva era prevedibile
Le reazioni non si sono fatte attendere. Artisti e fotografi protestano per l’uso indiscriminato dei loro contenuti, ma la questione va ben oltre il diritto d’autore. Come sottolinea Mattia Marangon nella sua newsletter Edamame, il feed di X si è rapidamente riempito di immagini sessualizzate: foto normalissime trasformate in scatti in bikini o abiti succinti, spesso senza che le persone ritratte ne sappiano nulla.
Il punto sollevato da Marangon è semplice ma fondamentale: pubblicare una foto su un social non significa renderla “pubblica” nel senso di liberamente manipolabile. Una foto ha un contesto, un’intenzione. Condividerla significa mostrarla, magari farla commentare o ricondividere così com’è, non certo autorizzare chiunque a trasformarla in qualcos’altro.
Grok invece tratta ogni immagine come semplice materiale grezzo, un insieme di pixel da rielaborare a piacimento. E la facilità d’uso peggiora le cose: quello che prima avrebbe richiesto competenze tecniche e ore di lavoro (un deepfake, per intenderci) ora si fa in dieci secondi e con una riga di testo.
Nessuna soluzione reale
Qualcuno suggerisce di convertire le proprie foto in GIF prima di pubblicarle, così l’IA farebbe più fatica a riconoscerle. Ma è un palliativo: nulla impedisce di scaricare un’immagine e modificarla con strumenti esterni.
La verità è che manca qualsiasi forma di tutela strutturale. E mentre ci si abitua a vedere questo tipo di contenuti ogni giorno, il rischio, come nota ancora Marangon, è che la soglia di ciò che consideriamo accettabile si sposti progressivamente, fino a rendere normale quello che oggi ci indigna.


Mastodon
Blog
Telegram
Bluesky
Lascia un commento