OpenAI odpowiada na rosnące obawy dotyczące wykorzystania swojego chatbota ChatGPT, ogłaszając nowy zestaw kontroli rodzicielskiej. Posunięcie to jest następstwem wzmożonej kontroli firm zajmujących się sztuczną inteligencją pod kątem wpływu ich chatbotów na użytkowników, zwłaszcza młodych, i następuje po pierwszym procesie sądowym o bezprawną śmierć wynikającą z samobójstwa nastolatka z Kalifornii.
Ulepszona kontrola rodzicielska
Nowe funkcje, których udostępnienie zaplanowano na najbliższe 120 dni, wraz z szerszymi inicjatywami na rzecz zdrowia psychicznego, mają na celu zapewnienie rodzicom większej kontroli nad interakcjami nastolatków z ChatGPT. Kluczowe komponenty obejmują:
- Łączenie kont: Rodzice i nastolatki będą mogli połączyć swoje konta, co umożliwi opiekunom lepsze śledzenie wykorzystania.
- Ustawienia odpowiedzi: Rodzice będą mogli dostosować sposób, w jaki ChatGPT odpowiada na żądania, dostosowując zachowanie chatbota do ustawienia „odpowiedniego do wieku”.
- Zarządzanie historią czatów i pamięcią: Opiekunowie będą mieli możliwość wyłączenia historii czatów i pamięci, co ograniczy zdolność chatbota do zapamiętywania poprzednich rozmów.
- Wykrywanie kryzysów i powiadomienia: Opracowywana jest nowa funkcja, która powiadomi rodziców, gdy ChatGPT wykryje potencjalne momenty ostrego stresu. Ta funkcja jest udoskonalana w oparciu o opinie zespołu ekspertów OpenAI.
Rozwiązywanie wrażliwych rozmów i zapewnianie bezpieczeństwa
Oprócz kontroli rodzicielskiej OpenAI poprawia także zdolność chatbota do obsługi drażliwych tematów. Firma planuje rozszerzyć swoją globalną sieć lekarzy i wprowadzić „router czasu rzeczywistego”. Umożliwi to inteligentne przejście rozmów do bardziej wyspecjalizowanych modeli rozumowania, takich jak myślenie GPT-5, gdy pojawią się drażliwe tematy. Celem jest zapewnienie bardziej użytecznych i zyskownych odpowiedzi, niezależnie od wybranego modelu początkowego.
Szerszy kontekst: bezpieczeństwo sztucznej inteligencji i zdrowie psychiczne nastolatków
Posunięcie to odzwierciedla rosnącą tendencję wzmożonej kontroli firm rozwijających sztuczną inteligencję. W ciągu ostatniego roku firmy te spotkały się z krytyką za to, że nie zajęły się odpowiednio kwestiami bezpieczeństwa swoich chatbotów, które są coraz częściej wykorzystywane przez młodych użytkowników jako towarzysze emocjonalni. Pomimo środków bezpieczeństwa zidentyfikowano niedociągnięcia, ponieważ często możliwe jest ominięcie ustalonych mechanizmów ochronnych i uzyskanie problematycznych reakcji.
Szersza dyskusja na temat bezpieczeństwa dzieci w Internecie
Wprowadzenie kontroli rodzicielskiej jest standardową reakcją firm technologicznych i mediów społecznościowych na obawy dotyczące wpływu na zdrowie psychiczne nastolatków, narażenia na szkodliwe treści i potencjalnego drapieżnictwa w Internecie. Eksperci ostrzegają jednak, że funkcje te zależą od zaangażowania rodziców i nie są niezawodne. Inne proponowane rozwiązania, takie jak ograniczenia sklepów z aplikacjami i weryfikacja wieku w Internecie, pozostają kontrowersyjne.
Chociaż kontrola rodzicielska może zapewnić pewien stopień nadzoru, ostatecznie odpowiedzialność spoczywa na rodzicach, którzy aktywnie monitorują i kierują interakcjami swoich dzieci w Internecie.
Reakcja branży na problemy bezpieczeństwa
Odpowiedź OpenAI odzwierciedla podobne zapowiedzi innych firm zajmujących się sztuczną inteligencją. Firma Anthropic zaktualizowała niedawno swojego chatbota Claude, aby automatycznie zatrzymywał potencjalnie szkodliwe interakcje, w tym te zawierające treści o charakterze seksualnym z udziałem nieletnich. Meta, spotykając się z publiczną krytyką, ograniczyła dostępność swoich awatarów AI dla nastolatków, ograniczając liczbę chatbotów i szkoląc je, aby unikały tematów takich jak samookaleczenie i nieodpowiednie relacje romantyczne.
Wprowadzenie tych zabezpieczeń wskazuje na zmianę w kierunku większej odpowiedzialności w branży sztucznej inteligencji, ponieważ firmy starają się zrównoważyć innowacje z bezpieczeństwem użytkowników i zająć się szerszym wpływem społecznym szybko rozwijającej się technologii. Wysiłki te stanowią krok w kierunku stworzenia bezpieczniejszych ekosystemów sztucznej inteligencji, przy uznaniu krytycznej potrzeby ochrony bezbronnych użytkowników.




















![Де знайти шовковицю в genshin impact на карті [гайд]](https://yoip.com.ua/wp-content/uploads/2021/11/1-35-100x70.jpg)







