OpenAI sta rispondendo alle crescenti preoccupazioni sull’uso del suo chatbot, ChatGPT, annunciando una nuova suite di controllo genitori. Questa mossa arriva mentre le aziende di intelligenza artificiale devono affrontare un controllo più accurato per l’impatto dei loro chatbot sugli utenti, in particolare sui soggetti più giovani, e segue la prima causa per omicidio colposo della società derivante dal suicidio di un adolescente californiano.
Strumenti migliorati di supervisione dei genitori
Le nuove funzionalità, il cui rilascio è previsto entro i prossimi 120 giorni insieme a iniziative più ampie sulla salute mentale, mirano a dare ai genitori un maggiore controllo sulle interazioni dei loro ragazzi con ChatGPT. I componenti chiave includono:
- Collegamento degli account: Genitori e utenti adolescenti potranno collegare i propri account, consentendo agli operatori sanitari una maggiore visibilità sull’utilizzo.
- Impostazioni di risposta: i genitori possono regolare il modo in cui ChatGPT risponde alle richieste, allineando il comportamento del chatbot con l’impostazione “adatta all’età” del modello.
- Cronologia chat e gestione della memoria: Gli operatori sanitari avranno la possibilità di disabilitare la cronologia e la memoria della chat, riducendo la capacità del chatbot di richiamare le conversazioni precedenti.
- Rilevamento e notifiche di disagio: È in fase di sviluppo una nuova funzionalità che avviserà i genitori quando ChatGPT rileva potenziali momenti di disagio acuto. Questa funzionalità è in fase di perfezionamento con il contributo del gruppo di esperti di OpenAI.
Affrontare conversazioni sensibili e sicurezza
Oltre al controllo parentale, OpenAI sta anche migliorando la capacità del chatbot di gestire argomenti delicati. L’azienda prevede di espandere la propria rete globale di medici e implementare un “router in tempo reale”. Ciò trasferirà in modo intelligente le conversazioni a modelli di ragionamento più specializzati, come il pensiero GPT-5, quando sorgono argomenti delicati. L’obiettivo è fornire risposte più utili e vantaggiose, indipendentemente dal modello iniziale selezionato.
Contesto più ampio: sicurezza dell’intelligenza artificiale e salute mentale degli adolescenti
Questa mossa riflette una tendenza crescente di maggiore controllo rivolto alle aziende di intelligenza artificiale. Nell’ultimo anno, queste aziende hanno dovuto affrontare critiche per non aver affrontato adeguatamente i problemi di sicurezza dei loro chatbot, che vengono sempre più utilizzati come compagni emotivi dagli utenti più giovani. Nonostante le misure di sicurezza, sono emerse delle limitazioni, poiché spesso è possibile aggirare le misure di salvaguardia stabilite e suscitare risposte problematiche.
Il dibattito più ampio sulla sicurezza dei bambini online
L’introduzione del controllo parentale rappresenta una risposta standard da parte delle società tecnologiche e di social media che affrontano le preoccupazioni circa l’impatto sulla salute mentale degli adolescenti, l’esposizione a contenuti dannosi e il potenziale di comportamenti predatori online. Tuttavia, gli esperti avvertono che queste funzionalità si basano sul coinvolgimento dei genitori e non sono infallibili. Altre soluzioni proposte, come le restrizioni sul mercato delle app e la verifica dell’età online, rimangono controverse.
Sebbene il controllo parentale possa offrire un certo grado di supervisione, in ultima analisi spetta ai genitori monitorare e guidare attivamente le interazioni online dei propri figli.
Risposta a livello di settore ai problemi di sicurezza
La risposta di OpenAI rispecchia annunci simili di altre società di intelligenza artificiale. Anthropic ha recentemente aggiornato il suo chatbot, Claude, per terminare automaticamente le interazioni potenzialmente dannose, comprese quelle che coinvolgono contenuti sessuali che coinvolgono minori. Meta, di fronte alle critiche del pubblico, ha limitato la disponibilità dei suoi avatar AI per gli utenti adolescenti, limitando il numero di chatbot e addestrandoli a evitare argomenti come autolesionismo e interazioni romantiche inappropriate.
L’introduzione di queste tutele indica uno spostamento verso una maggiore responsabilità all’interno del settore dell’intelligenza artificiale poiché le aziende si sforzano di bilanciare l’innovazione con la sicurezza degli utenti e di affrontare l’impatto sociale più ampio della tecnologia in rapida evoluzione. Questi sforzi segnano un passo avanti verso la costruzione di ecosistemi IA più sicuri, riconoscendo la necessità fondamentale di proteggere gli utenti vulnerabili.























