OpenAI reaguje na rostoucí obavy z používání svého chatbota ChatGPT oznámením nové sady rodičovské kontroly. Tento krok následuje po zvýšené kontrole společností zabývajících se umělou inteligencí ohledně dopadu jejich chatbotů na uživatele, zejména mladé, a přichází po prvním soudním sporu o neoprávněnou smrt po sebevraždě kalifornského teenagera.
Vylepšená rodičovská kontrola
Nové funkce, které mají být vydány během příštích 120 dnů spolu s širšími iniciativami v oblasti duševního zdraví, jsou navrženy tak, aby rodičům poskytly větší kontrolu nad interakcemi jejich dospívajících s ChatGPT. Mezi klíčové komponenty patří:
- Propojení účtů: Rodiče a dospívající budou moci propojit své účty, což zákonným zástupcům umožní lépe sledovat využití.
- Nastavení odezvy: Rodiče si budou moci přizpůsobit, jak ChatGPT reaguje na požadavky, a sladit chování chatbota s nastavením „přiměřeným věku“.
- Historie chatu a správa paměti: Strážci budou mít možnost vypnout historii chatu a paměť, čímž se sníží schopnost chatbota pamatovat si předchozí konverzace.
- Detekce krizí a upozornění: Vyvíjí se nová funkce, která upozorní rodiče, když ChatGPT zaznamená potenciální momenty akutního stresu. Tato funkce je vylepšována na základě zpětné vazby od expertního týmu OpenAI.
Řešení citlivých konverzací a zajištění bezpečnosti
OpenAI kromě rodičovské kontroly také zlepšuje schopnost chatbota zpracovávat citlivá témata. Společnost plánuje rozšířit svou globální síť lékařů a zavést „směrovač v reálném čase“. To umožní konverzaci inteligentně přejít na specializovanější modely uvažování, jako je myšlení GPT-5, když se objeví citlivá témata. Cílem je poskytnout užitečnější a ziskovější odpovědi bez ohledu na výchozí model.
Širší kontext: Bezpečnost umělé inteligence a duševní zdraví dospívajících
Tento krok odráží rostoucí trend zvýšené kontroly společností vyvíjejících umělou inteligenci. V uplynulém roce tyto společnosti čelily kritice za to, že dostatečně neřešily bezpečnostní obavy týkající se jejich chatbotů, které mladí uživatelé stále častěji využívají jako emocionální společníky. Navzdory bezpečnostním opatřením byly zjištěny nedostatky, protože často je možné obejít zavedené ochranné mechanismy a získat problematické reakce.
Širší diskuse o bezpečnosti dětí na internetu
Zavedení rodičovské kontroly je standardní reakcí technologických společností a společností zabývajících se sociálními médii, které reagují na obavy z dopadu na duševní zdraví dospívajících, vystavení škodlivému obsahu a potenciálu online predace. Odborníci však upozorňují, že tyto funkce závisí na zapojení rodičů a nejsou spolehlivé. Další navrhovaná řešení, jako jsou omezení obchodu s aplikacemi a online ověřování věku, zůstávají kontroverzní.
Zatímco rodičovská kontrola může poskytnout určitý stupeň dohledu, odpovědnost v konečném důsledku spočívá na rodičích, kteří aktivně sledují a řídí online interakce svých dětí.
Reakce průmyslu na bezpečnostní problémy
Odpověď OpenAI odráží podobná oznámení od jiných společností zabývajících se umělou inteligencí. Anthropic nedávno aktualizoval svého chatbota Claude, aby automaticky zastavil potenciálně škodlivé interakce, včetně těch, které zahrnují sexuální obsah zahrnující nezletilé. Meta, která čelí veřejné kritice, omezila dostupnost svých AI avatarů pro teenagery, omezila počet chatbotů a vycvičila je, aby se vyhnuli tématům, jako je sebepoškozování a nevhodné romantické vztahy.
Zavedení těchto ochran poukazuje na posun k větší odpovědnosti v rámci odvětví AI, protože společnosti se snaží vyvážit inovace s bezpečností uživatelů a řešit širší sociální dopad rychle se vyvíjejících technologií. Toto úsilí je krokem k vytvoření bezpečnějších ekosystémů umělé inteligence, který uznává zásadní potřebu chránit zranitelné uživatele.