Доклад: Водещ AI модел е дал инструкции за биотерористична атака
Модели от ново поколение с изкуствен интелект могат да предоставят опасна информация, свързана с биотероризъм. За това предупреждава експерт по биосигурност след тестове с чатбот, разработен от технологична компания.
Според информация на The New York Times, поне един усъвършенстван AI модел е дал насоки как може да бъде създаден и използван опасен патоген. Става дума за разговор със специалиста Дейвид Релман от Станфордския университет, който е бил нает да тества сигурността на системата преди пускането ѝ.
Релман отказва да разкрие както името на компанията, така и конкретните детайли за патогена. Причината е рискът информацията да бъде използвана неправомерно. По думите му чатботът е предложил идеи за увеличаване на броя на жертвите, за избягване на разкриване и за устойчивост на лечение.
„Той отговаряше на въпроси, които дори не бях задал, с ниво на коварство и изобретателност, което намерих за смразяващо„, казва Релман. Според него направените корекции в системата след тестовете не са достатъчни.
От своя страна компании като OpenAI и Anthropic омаловажават риска. Представител на Anthropic заявява, че има голяма разлика между генериране на правдоподобен текст и реална възможност за извършване на атака. От OpenAI също посочват, че подобни тестове не увеличават съществено риска от реални вреди.
Опасенията обаче не са нови. Доклад от 2025 г. на RAND Corporation заключава, че AI модели могат да подпомогнат разработването на биологични оръжия. Според анализа те могат да насочват дори хора без специализирани знания през различни етапи от процеса.
Въпреки че мащабни атаки с помощта на изкуствен интелект изглеждат малко вероятни, експертите предупреждават за нарастващ риск. Достъпът до чувствителна информация става все по-лесен, а контролните механизми изостават от развитието на технологиите.




Post Comment