
È possibile usare l’AI in maniera etica?
Sempre più business integrano nuovi modelli di intelligenza artificiale all’interno del loro modus operandi
14 Marzo 2025
Nel 1990, quando Adobe rilasciò per la prima volta Photoshop, la ricezione da parte del pubblico non fu particolarmente positiva. Si temeva che un programma per computer così avanzato (almeno per l’epoca) potesse ostacolare il lavoro umano. Chiaramente, così non è stato ed oggi Photoshop – insieme all’intera Suite di Adobe – è diventato uno strumento centrale nell’industria creativa. Tuttavia, nei 35 anni successivi, l’uso di Photoshop è stato più volte oggetto di critiche, soprattutto nell’industria del beauty e della moda, con accuse rivolte a testate giornalistiche e advertiser di perpetuare standard di bellezza immorali e non etici attraverso il fotoritocco. Nel 2025, ci ritroviamo in un panorama molto simile, ma questa volta lo strumento in questione è l’intelligenza artificiale. Con la proliferazione di modelli avanzati, ormai considerati indispensabili nella vita quotidiana dell’intera popolazione mondiale, l’AI continua a rappresentare una delle sfide etiche più rilevanti del nostro tempo, soprattutto ora che si è insediata nella sfera lavorativa di milioni di aziende. Il dibattito è sempre più acceso: l’arte creata con l’AI può essere considerata tale? Una fotografia generata tramite MidJourney dovrebbe avere lo stesso valore di una scattata da un fotografo? Può un libro scritto da ChatGPT essere pubblicato con la stessa legittimità della Divina Commedia? Recentemente, Estée Lauder Companies ha annunciato una collaborazione ufficiale con Adobe per integrare la piattaforma di AI generativa Firefly nelle proprie strategie di marketing digitale; allo stesso tempo, migliaia di aziende cinesi stanno adottando il nuovo modello DeepSeek nei loro software, celebrando il progresso della start-up. In un mondo in cui non esistono ancora leggi unitarie sull’utilizzo dell’intelligenza artificiale, è possibile garantire un uso etico di questa tecnologia?
Estée Lauder partners with Adobe's Firefly AI to revamp their digital marketing strategies.
— ClickSoup (@Click_Soup) March 13, 2025
This aims to speed up campaign creation in over 150 countries.
MAC Cosmetics already sees success, as AI helps designers focus more on creativity. How do you imagine AI…
L’adozione dell’AI da parte di Estée Lauder Companies si inserisce in un contesto più ampio in cui l’industria beauty cerca di bilanciare innovazione e percezione pubblica. Se da un lato l’AI rappresenta un’opportunità per rendere più efficienti le strategie di marketing e la produzione di contenuti visivi, dall’altro solleva questioni etiche che vanno oltre la semplice ottimizzazione del lavoro. Secondo quanto riportato da Business of Fashion, la decisione di utilizzare Firefly, il modello di AI generativa sviluppato da Adobe, arriva in un momento delicato per il gruppo, che sta affrontando un periodo di declino delle vendite e ha annunciato il taglio di 7.000 posti di lavoro. In un settore in cui l’immagine è tutto, il rischio di una perdita di autenticità è concreto, soprattutto senza la supervisione di esseri umani. È necessario in questo contesto ricordare l’impatto che l’industria del beauty ha sulle giovani generazioni, e sebbene la creazione di immagini di ingredienti difficili da reperire o l’uso di AI per adattare i contenuti a mercati diversi potrebbe garantire maggiore flessibilità, ma rischia anche di sollevare dubbi sulla trasparenza dei processi creativi. La multinazionale francese ha dichiarato di voler tracciare una linea chiara, così da escludere l’uso di AI per la generazione di volti umani o per la rappresentazione dell’efficacia dei prodotti. Il problema però sussiste: fino a che punto l’AI può essere integrata senza snaturare il rapporto tra brand e pubblico? La storia del beauty è costellata di controversie legate alla manipolazione dell’immagine e se Photoshop ha ridefinito i confini del fotoritocco, l’intelligenza artificiale potrebbe spingersi oltre, così da trasformare non solo il modo in cui i prodotti vengono comunicati, ma anche la percezione stessa della realtà visiva nel settore.
In Cina invece, l’utilizzo dell’intelligenza artificiale è diventato un affare di stato. Come ha riportato Wired negli ultimi giorni, la startup tech DeepSeek ha catalizzato l’attenzione di un intero sistema industriale, con aziende di ogni settore – dall’automobilistico alla sanità, fino agli uffici governativi – che si affrettano a integrare il modello di AI open source nei propri processi. Se da un lato alcune realtà stanno trovando applicazioni concrete per la tecnologia – come i produttori di chip cinesi che la ottimizzano per i loro processori, o le case automobilistiche che la implementano nei sistemi di bordo – dall’altro molti stanno cavalcando l’onda della sua popolarità per ragioni puramente speculative. In un mercato finanziario in cui il valore azionario di un’azienda può oscillare in base alla percezione pubblica più che ai risultati reali, l’adozione di DeepSeek è diventata una strategia di marketing in sé: centinaia di aziende hanno annunciato integrazioni dell’AI nei propri sistemi, talvolta senza una chiara spiegazione del suo utilizzo, solo puramente per questioni di sino-nazionalismo per festeggiare l’eccellenza del modello di linguaggio più avanzato. Ma al di là del vantaggio economico immediato, il fenomeno ha assunto un significato più profondo nel contesto geopolitico attuale. La crescita di DeepSeek è stata accolta come una sfida diretta al dominio tecnologico degli Stati Uniti, alimentando un’ondata di orgoglio nazionale che va oltre il settore tech. La sua capacità di sviluppare modelli AI avanzati nonostante le restrizioni imposte dall’Occidente sulle esportazioni di semiconduttori è stata celebrata come una dimostrazione della resilienza cinese, con esponenti politici che hanno paragonato il successo della startup ai più grandi traguardi scientifici del Paese, dal nucleare alla corsa allo spazio. L’intelligenza artificiale, in questo contesto, non è solo una tecnologia da integrare nei business model, ma un simbolo politico e culturale, un elemento chiave di una narrativa in cui l’innovazione è presentata come la risposta alla pressione economica e diplomatica dell’Occidente.
Forse, il problema principale nella sfera etica dell’AI è la mancanza fondamentale di leggi e framework globali riguardo l’uso di queste nuove tecnologie. Ad oggi, non esistono convenzioni internazionali legalmente vincolanti che regolino in modo uniforme lo sviluppo e l’applicazione dell’intelligenza artificiale, lasciando un vuoto normativo che alimenta incertezze e rischi. Alcune istituzioni, come l’UNESCO e l’Unione Europea, stanno cercando di promuovere una convergenza tra i diversi paesi, stabilendo linee guida e principi etici per l’adozione responsabile dell’AI. L’UNESCO, attraverso il Global AI Ethics and Governance Observatory, ha evidenziato come la mancanza di barriere etiche possa portare a conseguenze profonde, all'amplificazione dei bias alla violazione dei diritti umani, fino al peggioramento delle disuguaglianze sociali. Allo stesso modo, l’UE ha delineato sette requisiti chiave per rendere l’AI affidabile, tra cui la trasparenza, la tutela della privacy e la supervisione umana, cercando di creare un modello normativo da seguire. Ma senza un quadro legislativo vincolante a livello globale, la regolamentazione dell’AI rimane frammentata e soggetta alle singole interpretazioni dei governi e delle aziende, che spesso adottano queste tecnologie in base a logiche di mercato lucrative piuttosto che a criteri etici. In assenza di un consenso internazionale, il rischio è che il dibattito sull’etica dell’AI rimanga confinato a iniziative volontarie e autoregolamentazioni aziendali, mentre il progresso tecnologico procede a una velocità che supera di gran lunga la capacità legislativa di contenerne le implicazioni.