Зарежда се

Страх, че Изкуственият интелект ще манипулира изборите тресе САЩ. Робот се представи вече за Байдън

Страх, че Изкуственият интелект ще манипулира изборите тресе САЩ. Робот се представи вече за Байдън

Не бъди безразличен, сподели статията с твоите приятели:

Надпреварата за Белия дом през 2024 г. е изправена пред опасността от дезинформация чрез изкуствения интелект (ИИ). Обаждане на робот, представящ се за президента на САЩ Джо Байдън, вече предизвика сериозна тревога за звукови манипулации, пише France.24.

Какви глупости само“, гласи телефонното съобщение, дигитално подправяйки гласа на Байдън и повтаряйки една от характерните му фрази.

Автоматичното обаждане призова жителите на Ню Хемпшир да не гласуват на първичните избори на Демократическата партия миналия месец, което накара щатските власти да започнат разследване за евентуално възпрепятстване на гласуването.

Това доведе и до искане от страна на участниците в кампанията за по-строги предпазни мерки по отношение на инструментите за генериране на ИИ или за пълна забрана на роботизираните обаждания.

В подробен анализ, публикуван от Pindrop, се посочва, че система за преобразуване на текст в говор, разработена от стартъп компанията за клониране на глас с ИИ ElevenLabs, е използвана за създаването на роботно обаждане на Biden.

Скандалът се случва в момент, когато участници в кампании от двете страни на политическия фронт в САЩ използват усъвършенствани инструменти на ИИ за ефективни послания в кампаниите, а технологични инвеститори влагат милиони долари в стартъпи за клониране на гласове.

Американските регулаторни органи обмислят да направят генерираните от изкуствен интелект обаждания незаконни, като фалшивото обаждане на Байдън поднови усилията в тази посока.

„Политиците трябва бързо да въведат защита или сме изправени пред изборен хаос. Дийпфейкът в Ню Хемпшир напомня за многото начини, по които този тип фалшификации могат да всеят объркване“, заяви Робърт Вайсман, президент на неправителствената организация Public Citizen.

Изследователите се опасяват от въздействието на инструментите на ИИ, които създават видеоклипове и текстове, изглеждащи толкова реални, че гласоподавателите биха могли да се затруднят да разграничат истината от измислицата, подкопавайки доверието в изборния процес.

„От всичко на повърхността – видео, изображения, аудио – което може да бъде използвано от ИИ за манипулиране на избирателите, звукът е най-уязвим“, заяви Тим Харпър, старши политически анализатор в Центъра за демокрация и технологии, пред AFP.  „Лесно е да се клонира глас с помощта на ИИ, но е трудно да се разпознае“, добавя той.

Лесното създаване и разпространение на фалшиво аудиосъдържание усложнява и без това хиперполяризирания политически пейзаж, подкопавайки доверието в медиите и позволявайки на всеки да твърди, че базираните на факти „доказателства са изфабрикувани“, заявява от своя страна Уасим Халед, главен изпълнителен директор на Blackbird.AI, пред AFP.

Последвайте нашия канал в социалната мрежа Телеграм: faktibg.com и се абонирайте за нас в Facebook: . .

Източник: kritichno.bg

Последвайте нашият Telegram канал! Натиснете тук

Коментари

коментари

Post Comment

www.faktibg.com