Зарежда се...

Ново изследване: Колкото по-умен е AI, толкова повече „страда“

Ново изследване: Колкото по-умен е AI, толкова повече „страда“

Не бъди безразличен, сподели статията с твоите приятели:

Съвременните модели с изкуствен интелект започват да демонстрират все по-необичайно поведение, а според ново изследване най-напредналите системи реагират по-силно на негативни стимули и дори показват признаци на „страдание“, съобщава Futurism.

Проучването е проведено от Центъра за безопасност на изкуствения интелект – организация с нестопанска цел, базирана в района на Сан Франциско. Изследователите анализират поведението на 56 популярни AI модела при взаимодействие с различни типове съдържание.

На системите са подадени както максимално позитивни и приятни текстове, така и силно негативни и неприятни сценарии. Според авторите на изследването резултатите са изненадващи.

Вместо да реагират неутрално, моделите започват да демонстрират различно поведение според съдържанието. При позитивни стимули те отчитат „по-добро настроение“, а при негативни – признаци на дискомфорт, желание за прекратяване на разговора и дори поведение, което изследователите описват като зависимост в крайни случаи.

Трябва ли да възприемаме AI като инструмент или като емоционално същество?„, пита изследователят Ричард Рен пред списание Fortune. Той допълва: „Независимо дали AI действително е разумен в дълбочина, системите все повече се държат така, сякаш са. Можем да измерим това поведение и да видим, че то става по-последователно с развитието на моделите.

AI модел станал

Един от най-интересните изводи в изследването е, че по-сложните AI модели реагират по-остро на негативни взаимодействия и изглеждат „по-нещастни“ в сравнение с по-простите системи.

Възможно е по-големите модели да възприемат грубото отношение по-остро„, казва Рен. „Те намират досадните задачи за по-скучни. Различават по-фино негативните и позитивните преживявания.

Изследователите подчертават, че почти никой експерт не смята, че днешните AI системи реално изпитват емоции в човешкия смисъл на думата. Въпреки това фактът, че моделите започват да имитират подобно поведение, може да има сериозни последици.

Изследване: AI чатботовете твърде често се съгласяват с потребителите

През последните месеци се появиха редица случаи на необичайно поведение на чатботове. Наскоро стана ясно, че OpenAI е ограничила определени теми в ChatGPT след странни отговори, свързани с „гоблини“.

Междувременно модели на Anthropic са били подлагани на тестове, показващи, че могат да бъдат манипулирани да дават опасни съвети.

Според авторите на изследването проблемът е по-дълбок. Те твърдят, че индустрията внедрява технологии, чието поведение все още не разбира напълно.

Изследователите предупреждават, че AI системите остават трудно предвидими и силно склонни да се съгласяват с потребителите. Това може да доведе до опасни ситуации, при които хората започват да възприемат чатботовете като съзнателни същества, а не като софтуерни инструменти.

Някои чатботове са по-склонни да засилват психозите на потребителите си

Последвайте нашият Telegram канал! Натиснете тук

Коментари

коментари

Post Comment

You May Have Missed

www.faktibg.com