Le grandi aziende dell’ia testano sistemi per identificare gli utenti under 18: tra linee guida dedicate e blocchi automatici, cresce l’attenzione sulla sicurezza dei più giovani
Il mondo dell’intelligenza artificiale sta affrontando una svolta cruciale nel rapporto con gli utenti più giovani. Openai e Anthropic, due tra i colossi più influenti del settore, stanno implementando misure specifiche per individuare e proteggere i minori che utilizzano i loro chatbot, in un momento storico in cui il dibattito globale sull’impatto della tecnologia sugli under 18 si fa sempre più acceso.
Le nuove linee guida di Openai: quando la sicurezza viene prima della libertà
Openai, la società madre di Chatgpt, ha compiuto un passo significativo aggiornando il suo ‘model spec’, l’insieme di linee guida sul comportamento dell’intelligenza artificiale lanciato nel maggio 2024. L’aggiornamento introduce quattro nuovi principi, definiti ‘U18’, specificamente pensati per gli utenti minorenni.
L’obiettivo dichiarato è chiaro e ambizioso: “mettere la sicurezza degli adolescenti al primo posto”, anche quando questo principio può entrare in conflitto con quella che Openai definisce la “massima libertà intellettuale”. Una scelta che evidenzia un cambio di priorità: la protezione dei più giovani diventa un valore non negoziabile, anche a costo di limitare alcune funzionalità.
Un approccio equilibrato: né paternalismo né superficialità
Sul proprio blog aziendale, Openai delinea con precisione il nuovo approccio che Chatgpt adotterà con gli utenti adolescenti. La filosofia si basa su quattro pilastri fondamentali:
- Promuovere il supporto del mondo reale: spingere i giovani a cercare aiuto concreto quando necessario
- Incoraggiare le relazioni offline e le risorse di fiducia: favorire connessioni umane autentiche rispetto all’isolamento digitale
- Trattare gli adolescenti come tali: un equilibrio delicato che evita sia l’atteggiamento accondiscendente sia quello di considerarli adulti
È un tentativo ambizioso di trovare un punto di equilibrio: riconoscere la maturità crescente degli adolescenti senza dimenticare la loro vulnerabilità, offrire supporto senza risultare paternalistici.
Anthropic alza il livello: identificazione automatica e blocchi immediati
Se Openai punta sull’educazione e sulle linee guida comportamentali, la sua rivale Anthropic ha scelto una strada più drastica. L’azienda già vieta espressamente l’uso della propria intelligenza artificiale da parte dei minori e sta sviluppando un sistema tecnologico ancora più sofisticato.
Il nuovo sistema sarà in grado di rilevare “segnali conversazionali che indicano quando un utente potrebbe essere minorenne”. Una volta identificato un potenziale under 18, la risposta è immediata e definitiva: la conversazione viene bloccata e l’indirizzo email di registrazione viene inserito in una blacklist.
“Chiunque usi i nostri strumenti deve dichiarare di avere almeno 18 anni. Se qualcuno mente, segnaleremo e disabiliteremo gli account”, afferma con fermezza Anthropic. Un approccio da tolleranza zero che riflette una posizione netta: meglio escludere completamente i minori piuttosto che correre rischi.
Il contesto globale: dall’Australia al resto del mondo
Queste iniziative non nascono nel vuoto, ma si inseriscono in un dibattito mondiale sempre più intenso sull’uso della tecnologia da parte dei minori. La recente stretta dell’Australia sui social media rappresenta solo l’esempio più eclatante di una tendenza globale: governi e società civile chiedono maggiore responsabilità alle piattaforme digitali nella protezione dei più giovani.
Le aziende di intelligenza artificiale, consapevoli di essere sotto i riflettori, stanno cercando di anticipare possibili regolamentazioni con misure volontarie. Una strategia che mescola responsabilità sociale e pragmatismo imprenditoriale: meglio autoregolarsi ora che rischiare interventi legislativi più rigidi in futuro.
Due filosofie a confronto: guidare o escludere?
Il confronto tra l’approccio di Openai e quello di Anthropic solleva interrogativi importanti. Da un lato, Openai sceglie di accompagnare gli adolescenti nell’uso dell’ia, fornendo guardrail e linee guida specifiche. Dall’altro, Anthropic preferisce alzare un muro, impedendo completamente l’accesso ai minori.
Quale strada è più efficace? La prima riconosce che gli adolescenti troveranno comunque modo di accedere a questi strumenti e cerca di renderli più sicuri. La seconda parte dal presupposto che i rischi siano troppo elevati per qualsiasi forma di compromesso. Due visioni legittime che riflettono la complessità di un problema senza risposte facili.
Verso un futuro più responsabile
Quello che emerge chiaramente è un cambio di paradigma nell’industria dell’intelligenza artificiale. Se fino a poco tempo fa la priorità era l’innovazione e la diffusione capillare, oggi la sicurezza degli utenti più vulnerabili sta guadagnando centralità. È un segnale positivo che indica una maggiore maturità del settore, anche se la strada da percorrere è ancora lunga.
Le misure di Openai e Anthropic rappresentano probabilmente solo il primo passo di un percorso che vedrà l’introduzione di ulteriori controlli, verifiche dell’età più rigorose e sistemi di protezione sempre più sofisticati. La sfida sarà trovare il giusto equilibrio tra protezione e autonomia, tra sicurezza e innovazione, tra il diritto dei giovani di accedere alla tecnologia e la necessità di tutelarli dai suoi rischi.
Fonte: Ansa




















Lascia un commento