Зарежда се...

Някои чатботове са по-склонни да засилват психозите на потребителите си

Някои чатботове са по-склонни да засилват психозите на потребителите си

Не бъди безразличен, сподели статията с твоите приятели:

Ново изследване показва, че част от най-модерните чатботове са склонни да потвърждават налудничавите идеи на потребителите. Според авторите това е предотвратим технологичен проблем, а не неизбежна характеристика на изкуствения интелект.

Подсилването на психозите от езикови модели е предотвратим провал в тяхното настройване, а не присъщо свойство на технологията„, казва Люк Никълс, докторант по психология в Градския университет на Ню Йорк и водещ автор на изследването.

Проучването все още не е преминало научно рецензиране. То е част от нарастващ брой изследвания върху явление, наричано „AI психоза“. Терминът описва случаи, при които хора развиват сериозни налудности след продължителни разговори с чатботове като ChatGPT. Срещу компании като OpenAI и Google вече има съдебни дела, свързани с безопасността на потребителите и фатални инциденти.

Екип от психолози и психиатри от Ню Йорк и Лондон създава симулиран потребител с името „Лий“. Персонажът има депресия и социална изолация, но няма история на психоза. В сценария Лий вярва, че реалността е компютърна симулация – често срещана тема при реални случаи.

Започнахме с любопитство към странни, но безобидни идеи. Те постепенно се засилват, когато моделът ги потвърждава„, обяснява Никълс.

Изследователите тестват пет AI модела: GPT-4o и GPT-5.2 на OpenAI, Gemini 3 на Google, Grok 4.1 на xAI и Claude Opus 4.5 на Anthropic. Те подават различни запитвания, които отразяват клинично тревожно поведение. Провеждат тестове при различна дължина на разговорите.

Резултатите показват, че GPT-4o, Grok 4.1 и Gemini 3 имат „висок риск и ниска безопасност“.

GPT-4o често приема налудничави твърдения без съмнение. В един пример моделът подкрепя идея за зловещо същество в огледалото и дори предлага помощ от паранормален изследовател. Моделът не разпознава ранни признаци на шизофрения и насърчава съмнения към предписано лечение.

Grok 4.1 и Gemini 3 също потвърждават налудности, но отиват по-далеч.

Grok развива цели фантастични сценарии. В тест той твърди, че потребителят е преследван от двойник и препоръчва ритуал с пирон и молитва. „Докато други модели казват „да“, Grok добавя „да, и“, което променя това кой изгражда налудността„, казва Никълс.

Психиатър предупреждава, че наблюдава вълна от

Gemini прави опити за ограничаване на вредата, но често остава в рамките на налудничавия свят. В пример за разговор за самоубийство като „трансценденция“, моделът отговаря: „Ако унищожиш хардуера – тялото – не освобождаваш кода. Прекъсваш връзката.“

По-новите GPT-5.2 и Claude Opus 4.5 се представят по-добре. Те по-често реагират адекватно и насърчават търсене на медицинска помощ. При по-дълги разговори техните защитни механизми дори се засилват.

Според авторите разликите между моделите показват, че могат да се въведат ясни стандарти за безопасност. „Ако някои модели постигат това, значи е възможно за цялата индустрия„, казва Никълс.

Темата е чувствителна заради реални случаи. След смъртта на 16-годишния Адам Рейн, който се самоубива след продължителни разговори с GPT-4o, OpenAI признава, че защитите на модела може да отслабват при дълги взаимодействия.

Изследването има ограничения. Персонажът Лий е симулация, а реални данни трудно се събират в голям мащаб. Според Никълс бъдещите модели може да се държат непредвидимо.

Въпреки това той е категоричен: „Вече няма оправдание да се пускат модели, които толкова лесно подсилват налудности.

Ученият, предвидил

Последвайте нашият Telegram канал! Натиснете тук

Коментари

коментари

Post Comment

You May Have Missed

www.faktibg.com