Зарежда се...

Стартъп иска за има влияние върхо отговорите на чатботовете

Стартъп иска за има влияние върхо отговорите на чатботовете

Не бъди безразличен, сподели статията с твоите приятели:

Кампбел Браун е бивш журналист и първи ръководител на новините в Meta. Тя настоява, че системите за отговори на чатботовете не трябва да бъдат оставяни сами да решават сложни въпроси, свързани с политика, финанси, история, здравеопазване и други чувствителни области. Вместо това тя предлага структуриран човешки контрол и участие на експерти при оформянето на техните отговори. За да бъдат отговорите „по-достоверни“,е добре те да изключват „неудобни“ източници – като държавни китайски медии. Причината за това е, че те могат да не предоставят контекст или да имат „идеологическо оцветяване“.

Браун ръководи компанията Forum AI, която оценява как големите езикови модели се справят с теми с висок обществен риск. Стартъпът използва подход, при който водещи експерти създават критерии за оценка, а специално обучени AI системи след това тестват моделите в голям мащаб. 

За да се гарантира „верността“ на отговорите на изкуствения интелект, в екипа на Forum AI участват изявени американски политици, като бившият държавен секретар на САЩ Антъни Блинкен, бившият председател на Камарата на представителите Кевин Маккарти и Ан Нойбъргър, бивш координатор по киберсигурност в администрацията на Барак Обама.

Целта на компанията е да постигне около 90% съгласие между AI оценителите и човешките експерти. По думите на Браун този праг вече е достигнат в част от тестовете.

Тя посочва, че идеята за Forum AI се ражда преди около 17 месеца, когато за първи път излиза ChatGPT. Тогава, както казва тя, осъзнава, че този тип системи ще се превърнат в основен източник на информация. По думите ѝ качеството им не е достатъчно добро.

Децата ми ще станат много по-глупави, ако не решим този проблем„, казва тя, описвайки личната си мотивация.

Зукърбърг обяви премахването на фактчекърите от Facebook и редица мерки срещу цензурата

Браун критикува големите технологични компании, че се фокусират основно върху кодиране и математика, докато точността на информацията остава на заден план. Според нея това е по-трудната част от развитието на моделите, но не може да бъде пренебрегната.

Компанията ѝ твърди, че при тестове някои модели използват източници от китайски държавни медии дори по теми, които нямат връзка с Китай. Тя отбелязва и политически пристрастия в почти всички системи, както и липса на контекст и правилно представяне на аргументи.

Браун казва, че предишният опит на технологичните компании в модерацията на съдържание е показал колко трудно е да се постигне баланс между точност и мащаб. По думите ѝ това не е било решено успешно в социалните мрежи.

Тя смята, че бизнес клиентите могат да се окажат ключови за промяна. Според нея компании в сфери като кредитиране, застраховане и наемане на служители ще изискват по-висока точност заради правни рискове.

Forum AI е финансирана с около 3 милиона долара в рунд, воден от Lerer Hippeau. Компанията обаче признава, че превръщането на оценките за съответствие в стабилен бизнес остава предизвикателство.

Браун определя сегашните регулации като недостатъчни. По думите ѝ много от въведените проверки пропускат реални проблеми в моделите, особено в сложни и гранични случаи.

Тя прави извод, че доверието в изкуствения интелект остава ниско. Според нея потребителите често получават неточни или непълни отговори, докато в технологичния сектор очакванията са много по-високи от реалността.

Илон Мъск: ЕС ми предложи

Последвайте нашият Telegram канал! Натиснете тук

Коментари

коментари

Post Comment

You May Have Missed

www.faktibg.com