L'insicurezza della sicurezza nel mondo dopo le AI

Gli studi sull'intelligenza artificiale hanno una lunghissima storia, esattamente lunga quanto quella dell'informatica.
Io stesso, oltre 30 anni fa, mi occupai di sistemi esperti, software con capacità di apprendimento, comprensione digitale del linguaggio, traduzione automatica intelligente, e chat-bot (che ai tempi non si chiamavano nemmeno così).


Nell'ultimo anno, con la diffusione di AI come Midjourney, Dall-E o Chat-GPT, si è registrata una crescita e una proliferazione incredibile di software estremamente performanti che si sono imposti in ambito lavorativo, hanno occupato i mass media ed hanno acquisito una enorme diffusione popolare.
Di settimana in settimana, si registrano nuove versioni sempre più sorprendenti di AI che agiscono in ambiti precedentemente riservati in maniera esclusiva agli esseri umani.
I prossimi mesi faranno registrare ulteriori cambiamenti. Al momento, non si è ancora percepita la relazione tra AI e robotica, ma molto presto ne avremo contezza. C'è solo da attendere.

Questo scenario - in formazione ed evoluzione - suscita preoccupazioni di vario genere, e problematiche serie nel campo della sicurezza, del diritto, del lavoro, della privacy, della gestione sociale, sul piano economico, sul funzionamento militare, sul piano politico, etc.
Sono tematiche molto delicate, estremamente vaste, che non sono state mai realmente affrontate e, men che meno, risolte.

Un intervento istituzionale per la "sicurezza" in ambito AI è stato effettuato dalla Casa Bianca, mettendo in moto un meccanismo "gentilmente ci fate una cortesia?" che appare intollerabile, non accettabile, totalmente insopportabile. Spieghiamo cosa è accaduto.

La Casa Bianca ha pubblicato un fact sheet in seguito al colloquio tra l’amministrazione Biden e le Big Tech. Quindi nessuna normativa, nessun impianto giuridico, nessuna azione concreta, e nessun fatto che riguardi il settore nella sua interezza. Solo un colloquio "tra amici" specifici: Amazon, Anthropic, Google, Inflection, Meta, Microsoft ed OpenAI e l'amministrazione Biden
Il risultato di questo incontro ha prodotto un pessimo risultato: l’amministrazione Biden si è assicurata impegni volontari da parte di queste aziende per lavorare ad uno sviluppo sicuro, protetto e trasparente delle loro tecnologie di AI. Rassicurante? Hanno preso un impegno di buona volontà.

Aziende private, che generano una quantità enorme di denaro e di potere dovrebbero, stando a quanto emerge, comportarsi in maniera sicura e trasparente perseguendo un impegno di buona volontà.
Buona volontà a prescindere dagli interessi dell'azienda, chiaramente. Credibile?

Titan Image Generator è un modello text-to-image che è in grado di creare immagini partendo da un prompt testuale. La parte interessante è che questo strumento include automaticamente una speciale filigrana invisibile nei file generati. Tale filigrana consente di riconoscere l'immagine come non reale ma generata da una AI. La presenza della filigrana si può verificare attraverso un’API pubblica. Questa caratteristica di Titan dovrebbe essere un risultato dell'impegno volontario assunto con la Casa Bianca.

Invece, quello che sarebbe auspicabile è un intervento normativo rapido, solido ed imponente, regolando in maniera seria e qualificata l'intero ambito. L'auspicio, è chiaro, è destinato a rimanere tale. Ad oggi non esiste ancora un sistema normativo serio, etico e tutelante nell'ambito dei social, delle tecnologie di chat e, più in generale, in quasi tutto l'ambito informatico.

In Italia, ad esempio, il fatto stesso che ancora oggi, delle aziende private extra nazionali  (nella migliore delle ipotesi), possano allegramente chiedere documenti, telefono ed altri dati sensibili, che possano conservarli che abbiamo disponibilità di archiviazione di dati, foto, testi, che possano usarli per finalità di analisi comportamentale, emotiva, psicologica, che possano sfruttarli economicamente, che posano venderli, comprarli, che possano liberamente usarli senza esplicito consenso per nutrire delle AI, che possano elaborali, interpretarli, profilare e trarne modelli previsionali individuali e sociali, che possano detenere un oligopolio globale della comunicazione umana, etc è pauroso, terrificante, o peggio. Tuttavia, ciò accade. Accade costantemente in tutto il mondo, senza sosta, dall'inizio dell'era informatica, senza un intervento etico e normativo (e fiscale) degno di valore.
Con le AI saremo tutelati meglio? Auspichiamo.


ATTENZIONE: questo articolo non è stato scritto da una intelligenza artificiale.

Commenti

Post più popolari