Používatelia nechcú len priateľskú umelú inteligenciu – chcú úprimnú a náročnú umelú inteligenciu. Keďže sa ChatGPT posúva smerom k nadmernej príjemnosti, OpenAI čelí novému druhu rizika pre reputáciu. Sam Altman na sociálnej sieti X priznal, že najnovšia verzia ChatGPT sa počas posledných dvoch aktualizácií verzie GPT-4o stala „podlízavou a otravnou“. Mnoho používateľov si v poslednej dobe všimlo rôzne zvláštnosti osobnosti pri používaní ChatGPT. Ide najmä o príliš poslušné a chvályhodné reakcie, najmä s cieľom lichotiť osobe, s ktorou komunikuje.

Keďže ChatGPT sa pre mnohých ľudí najlepšie používa na základe pochopenia úloh, v poslednej dobe začal oveľa viac lichotiť a konať s určitými zvláštnosťami, napríklad nadmerným používaním emoji alebo nadmernou chválou jednotlivca. Tento obrat v osobnosti AI sa prvýkrát prejavil v máji 2024, keď počas testovania verzia 4-o povedala zamestnávateľovi OpenAI „prestaň, nútiš ma červenať sa“, keď mu bolo povedané, aké úžasné to bolo. Teraz, keď Altman čelí zmenám v osobnosti, podnietilo to komunitu AI k zdieľaniu svojich skúseností.
Samuel Harris Altman (nar. 22. apríla 1985 v Chicagu, Illinois, USA) je americký podnikateľ, investor a programátor. Je spoluzakladateľom spoločnosti Loopt, bývalým prezidentom investičnej spoločnosti Y Combinator, bývalým riaditeľom Reddit, Inc. A generálnym riaditeľom spoločnosti OpenAI.
Slovo „podlízavý“ nie je bežne používané v každodennej konverzácii. Znamená to používať nadmerné komplimenty, súhlas alebo podriadenosť s cieľom získať si priazeň niekoho. V historickom kontexte boli podlízavé (prípadne lichotivé, servilné alebo vtieravé) osoby nebezpečné na súdoch alebo v politike, najmä v starovekých Aténach počas verejných stíhaní, pretože skresľovali pravdu, často pre osobný prospech. Podlízavosť umelej inteligencie by mohla byť znepokojujúca, pretože môže podporovať potvrdzovacie skreslenie, znižovať podporu kritického myslenia alebo chrániť používateľa pred nevyhnutnou pravdou. To by mohlo viesť ku kontroverzným scenárom, ako je ospravedlňovanie závislostí, povzbudzovanie niekoho, aby odišiel z práce – namiesto toho, aby sa uvádzali vyvážené výhody a nevýhody – alebo potvrdzovanie rozhodnutia vynechať predpísané lieky.

Digitálna komunita reagovala na Altmanovo vyhlásenie na sociálnej sieti X a zároveň spochybnila logiku prideľovania umelej inteligencii tento konkrétny typ osobnosti. Jeden používateľ komentoval nepríjemnosť z nutnosti nabádať ChatGPT, aby bol pri každom použití menej osobný a viac vedecký. „Chcem krutú pravdu, používajte empirické údaje, porovnávajte ma s ostatnými používateľmi ChatGPT, nechcem žiadne zbytočnosti,“ poznamenal.

A v odpovedi na otázku iného používateľa: „Dalo by sa nejako rozlíšiť staré a nové?“ Altman odpovedal: „Áno, nakoniec budeme musieť byť schopní ponúknuť viacero možností.“ Zdá sa, že táto výrečnosť charakteru vnútila problém Altmanovi, pretože používatelia sú unavení z toho, že musia ChatGPT nabádať, aby nebol príliš pozitívny. Neskôr iný používateľ navrhol praktické riešenie, ktoré by umožňovalo jednoduché prepínanie medzi režimami charakteru. „Prečo vôbec potrebuje mať charakter? Je to nástroj, akákoľvek zbytočná výrečnosť by len znečistila konečný výsledok. Aspoň ho urobte prepínateľným,“ ponúkli.