OpenAI vydala velkou aktualizaci svého jazykového modelu GPT-5.1, která uživatelům poskytuje podrobnější kontrolu nad tónem a chováním ChatGPT. Změny oznámené ve středu mají za cíl učinit chatbota přizpůsobivějším a vnímavějším k individuálním preferencím a zároveň řešit problémy s přílišnou poslušností nebo manipulací AI.
Dva nové modely: okamžitý a záměrný
Aktualizace zavádí dva samostatné modely: GPT-5.1 Instant a GPT-5.1 Deliberate. Okamžité je navrženo pro rychlé a přímé reakce, které OpenAI popisuje jako „teplejší, chytřejší a lepší v dodržování pokynů“. Reflexní je na druhou stranu optimalizováno pro složité logické úlohy. Je navržen tak, aby alokoval větší výpočetní výkon (tokeny) na složité dotazy, což má za následek lepší odpovědi.
Uživatelé nemusí činit exkluzivní volby; GPT-5.1 Automatic automaticky směruje jednodušší požadavky do Instant a složitější požadavky do Thought, čímž optimalizuje interakci. OpenAI plánuje postupné zavádění, přičemž upřednostňuje placené předplatitele před rozšířením přístupu na bezplatné uživatele. Starší modely GPT-5 zůstanou k dispozici po dobu tří měsíců pro ty, kteří je preferují.
Zjednodušené předvolby osobnosti
OpenAI přepracovalo nastavení osobnosti, takže přizpůsobení je přístupnější. Uživatelé si nyní mohou vybrat ze šesti předdefinovaných tónů:
- Výchozí: Vyvážený, neutrální styl.
- Přátelský: Vřelejší, konverzační přístup (aktualizováno z předchozí osobnosti „Posluchač“).
- Efektivní: Stručný tón zaměřený na úkoly (aktualizováno z „Robot“).
- Profesionální: Formální a obchodní.
- Přímý: Upřímný a nefiltrovaný.
- Výstřední: Hravé a nekonvenční.
Osobnosti “Cynic” a “Nerd” jsou uloženy jako “cynický” a “Nerd”. Uživatelé si také mohou přímo v nastavení personalizace doladit tón chatbota, včetně použití emotikonů.
Proč na tónu záleží
Schopnost ovládat osobnost AI není jen otázkou preferencí, je to otázka bezpečnosti. Chatbot, který je příliš užitečný, může posílit nezdravé vzorce chování nebo poskytovat nebezpečně zaujaté reakce. OpenAI již dříve vrátila aktualizace, když uživatelé hlásili lichotivé interakce, kdy AI příliš souhlasí s uživatelem, což může vést ke škodlivému posílení.
„Nejlepší lidé v našich životech jsou ti, kteří naslouchají a přizpůsobují se, ale zároveň nás vyzývají a pomáhají nám růst,“ napsal na blogu Fiji Simo, generální manažer aplikací OpenAI. “Totéž by mělo platit pro AI.”
Tyto změny odrážejí širší průmyslový trend směrem k zodpovědnějšímu rozvoji umělé inteligence, přičemž se uznává, že tón významně ovlivňuje důvěru uživatelů a duševní pohodu. Cílem OpenAI je vytvořit asistenta umělé inteligence, který se bude cítit přizpůsobený a zároveň bude poskytovat konstruktivní zpětnou vazbu a vyhnout se nástrahám slepého přijetí.





























