OpenAI introduceert ouderlijk toezicht voor ChatGPT te midden van groeiende veiligheidsproblemen

63

OpenAI reageert op de toenemende zorgen over het gebruik van zijn chatbot, ChatGPT, door een nieuwe reeks ouderlijk toezicht aan te kondigen. Deze stap komt omdat AI-bedrijven steeds meer onder de loep worden genomen vanwege de impact van hun chatbots op gebruikers, met name jongere individuen, en volgt op de eerste rechtszaak wegens onrechtmatige dood van het bedrijf naar aanleiding van de zelfmoord van een tiener uit Californië.

Verbeterde hulpmiddelen voor ouderlijk toezicht

De nieuwe functies, die binnen de komende 120 dagen zullen worden uitgebracht, naast bredere initiatieven op het gebied van de geestelijke gezondheidszorg, zijn bedoeld om ouders meer controle te geven over de interacties van hun tieners met ChatGPT. Belangrijke componenten zijn onder meer:

  • Accountkoppeling: Ouders en tienergebruikers kunnen hun accounts koppelen, waardoor zorgverleners meer inzicht krijgen in het gebruik.
  • Reactie-instellingen: Ouders kunnen aanpassen hoe ChatGPT reageert op aanwijzingen, waardoor het gedrag van de chatbot wordt afgestemd op de ‘leeftijdsgeschikte’ instelling van het model.
  • Chatgeschiedenis en geheugenbeheer: Zorgverleners hebben de mogelijkheid om de chatgeschiedenis en het geheugen uit te schakelen, waardoor de chatbot minder goed in staat is eerdere gesprekken te herinneren.
  • Detectie en meldingen van nood: Er is een nieuwe functie in ontwikkeling die ouders op de hoogte stelt wanneer ChatGPT potentiële momenten van acute nood detecteert. Deze functie wordt verfijnd met input van het panel van experts van OpenAI.

Gevoelige gesprekken en veiligheid aanpakken

Naast ouderlijk toezicht verbetert OpenAI ook het vermogen van de chatbot om gevoelige onderwerpen te behandelen. Het bedrijf is van plan zijn Global Physician Network uit te breiden en een ‘real-time router’ te implementeren. Dit zal op intelligente wijze gesprekken overschakelen naar meer gespecialiseerde redeneermodellen, zoals GPT-5-denken, wanneer gevoelige onderwerpen zich voordoen. Het doel is om meer nuttige en nuttige reacties te bieden, ongeacht het aanvankelijk geselecteerde model.

Bredere context: AI-veiligheid en geestelijke gezondheid van tieners

Deze stap weerspiegelt een groeiende trend van verscherpt toezicht gericht op AI-bedrijven. Het afgelopen jaar hebben deze bedrijven kritiek gekregen omdat ze er niet in slaagden de veiligheidsproblemen adequaat aan te pakken met hun chatbots, die door jongere gebruikers steeds vaker als emotionele metgezellen worden gebruikt. Ondanks veiligheidsmaatregelen zijn de beperkingen aan het licht gekomen, omdat het vaak mogelijk is om gevestigde veiligheidsmaatregelen te omzeilen en problematische reacties uit te lokken.

Het grotere debat over kindveiligheid online

De introductie van ouderlijk toezicht is een standaardreactie van technologie- en socialemediabedrijven die de zorgen aanpakken over de gevolgen voor de geestelijke gezondheid van tieners, de blootstelling aan schadelijke inhoud en de mogelijkheid van roofzuchtig gedrag online. Deskundigen waarschuwen echter dat deze functies afhankelijk zijn van de betrokkenheid van ouders en niet onfeilbaar zijn. Andere voorgestelde oplossingen, zoals beperkingen op de app-marktplaats en online leeftijdsverificatie, blijven controversieel.

Hoewel ouderlijk toezicht een zekere mate van toezicht kan bieden, ligt de verantwoordelijkheid uiteindelijk bij de ouders om de online interacties van hun kinderen actief te monitoren en te begeleiden.

Industriebrede reactie op veiligheidsproblemen

De reactie van OpenAI weerspiegelt soortgelijke aankondigingen van andere AI-bedrijven. Anthropic heeft onlangs zijn chatbot, Claude, bijgewerkt om automatisch potentieel schadelijke interacties te beëindigen, inclusief interacties met seksuele inhoud waarbij minderjarigen betrokken zijn. Meta, geconfronteerd met publieke kritiek, heeft de beschikbaarheid van zijn AI-avatars voor tienergebruikers beperkt, het aantal chatbots beperkt en hen getraind om onderwerpen als zelfbeschadiging en ongepaste romantische interacties te vermijden.

De introductie van deze waarborgen duidt op een verschuiving naar een grotere verantwoordelijkheid binnen de AI-industrie, omdat bedrijven ernaar streven innovatie in evenwicht te brengen met gebruikersveiligheid en de bredere maatschappelijke impact van de snel evoluerende technologie aan te pakken. Deze inspanningen markeren een stap in de richting van het bouwen van veiliger AI-ecosystemen, waarbij de cruciale noodzaak wordt erkend om kwetsbare gebruikers te beschermen.