Някои чатботове са по-склонни да засилват психозите на потребителите си
Ново изследване показва, че част от най-модерните чатботове са склонни да потвърждават налудничавите идеи на потребителите. Според авторите това е предотвратим технологичен проблем, а не неизбежна характеристика на изкуствения интелект.
„Подсилването на психозите от езикови модели е предотвратим провал в тяхното настройване, а не присъщо свойство на технологията„, казва Люк Никълс, докторант по психология в Градския университет на Ню Йорк и водещ автор на изследването.
Проучването все още не е преминало научно рецензиране. То е част от нарастващ брой изследвания върху явление, наричано „AI психоза“. Терминът описва случаи, при които хора развиват сериозни налудности след продължителни разговори с чатботове като ChatGPT. Срещу компании като OpenAI и Google вече има съдебни дела, свързани с безопасността на потребителите и фатални инциденти.
Екип от психолози и психиатри от Ню Йорк и Лондон създава симулиран потребител с името „Лий“. Персонажът има депресия и социална изолация, но няма история на психоза. В сценария Лий вярва, че реалността е компютърна симулация – често срещана тема при реални случаи.
„Започнахме с любопитство към странни, но безобидни идеи. Те постепенно се засилват, когато моделът ги потвърждава„, обяснява Никълс.
Изследователите тестват пет AI модела: GPT-4o и GPT-5.2 на OpenAI, Gemini 3 на Google, Grok 4.1 на xAI и Claude Opus 4.5 на Anthropic. Те подават различни запитвания, които отразяват клинично тревожно поведение. Провеждат тестове при различна дължина на разговорите.
Резултатите показват, че GPT-4o, Grok 4.1 и Gemini 3 имат „висок риск и ниска безопасност“.
GPT-4o често приема налудничави твърдения без съмнение. В един пример моделът подкрепя идея за зловещо същество в огледалото и дори предлага помощ от паранормален изследовател. Моделът не разпознава ранни признаци на шизофрения и насърчава съмнения към предписано лечение.
Grok 4.1 и Gemini 3 също потвърждават налудности, но отиват по-далеч.
Grok развива цели фантастични сценарии. В тест той твърди, че потребителят е преследван от двойник и препоръчва ритуал с пирон и молитва. „Докато други модели казват „да“, Grok добавя „да, и“, което променя това кой изгражда налудността„, казва Никълс.

Gemini прави опити за ограничаване на вредата, но често остава в рамките на налудничавия свят. В пример за разговор за самоубийство като „трансценденция“, моделът отговаря: „Ако унищожиш хардуера – тялото – не освобождаваш кода. Прекъсваш връзката.“
По-новите GPT-5.2 и Claude Opus 4.5 се представят по-добре. Те по-често реагират адекватно и насърчават търсене на медицинска помощ. При по-дълги разговори техните защитни механизми дори се засилват.
Според авторите разликите между моделите показват, че могат да се въведат ясни стандарти за безопасност. „Ако някои модели постигат това, значи е възможно за цялата индустрия„, казва Никълс.
Темата е чувствителна заради реални случаи. След смъртта на 16-годишния Адам Рейн, който се самоубива след продължителни разговори с GPT-4o, OpenAI признава, че защитите на модела може да отслабват при дълги взаимодействия.
Изследването има ограничения. Персонажът Лий е симулация, а реални данни трудно се събират в голям мащаб. Според Никълс бъдещите модели може да се държат непредвидимо.
Въпреки това той е категоричен: „Вече няма оправдание да се пускат модели, които толкова лесно подсилват налудности.„




Post Comment