Хората започват да имат доверие на технологиите

Компанията, която стои зад генеративния изкуствен интелект (AI) ChatGPT, изрази загриженост, че реалистичният глас за нейния софтуер може да провокира потребителите да създават връзки с него в ущърб на човешкото взаимодействие, пише „Фигаро”.

Илън Мъск с нова юридическа битка срещу изкуствения интелект

Дали инженерите на OpenAI ще се почувстват съкрушени от своето творение? В документ компанията, която стартира генеративен изкуствен интелект ChatGPT, изрази загриженост, че придаването на реалистичен глас на нейния софтуер може да накара потребителите да създават връзки с него в ущърб на човешките взаимоотношения. „Антропоморфизмът включва приписване на човешки нагласи или характеристики на нещо, което не е такова, например модел на изкуствен интелект“, се казва в доклад на компанията, публикуван в четвъртък. „Рискът може да бъде повишен от аудио функциите на GPT-4à, които улесняват взаимодействията, подобни на човешките“, се посочва в доклада.

С изкуствен интелект: Осъдени ще изтъпяват присъди за няколко минути, без да влизат в затвора

Документът беше публикуван ден преди пускането на новата версия на ChatGPT, GPT-4o, която интегрира възможността софтуерът да отговаря гласово и да позволява воденето на разговор с него. Но провеждането на същия тип разговор с изкуствен интелект, какъвто е възможен с човек, може да създаде „погрешно доверие“ в софтуера, което гласът, добавен към последния, може да засили. OpenAI посочва, че тестващите новата версия са могли да наблюдават размяна на мнения с изкуствения интелект, която изглежда е показвала създаването на емоционална връзка, като например изразяване на съжаление, че това е последният им ден заедно.

„Разбира се, тези случаи изглеждат незначителни, но те подчертават необходимостта от по-нататъшни изследвания за това как тези ефекти могат да се проявят в по-дългосрочен план“, заключава докладът. Въвеждането на форма на социализация с изкуствения интелект би могло да доведе до намаляване на желанието на потребителите да поддържат отношения с хора, смятат от OpenAI. „Продължителните взаимодействия с модела могат да имат ефект върху социалните норми. Например, нашите модели винаги се отнасят с уважение, което позволява на потребителите да ги прекъснат по всяко време - поведение, което, макар и нормално за изкуствения интелект, би могло да бъде извън нормите на социалните взаимодействия", се уточнява в доклада.

Способността на изкуствения интелект да запомня подробности от разговорите и да изпълнява мисиите, които са му дадени, също може да накара потребителите да разчитат твърде много на технологията. „Тези нови опасения, споделени от OpenAI относно риска от потенциална зависимост от гласа на ChatGPT, подчертават колко много въпроси повдига това: трябва ли да отделим време и да се стремим да разберем как технологията започва да влияе на човешките взаимодействия и взаимоотношения?", изразява мнение Алон Ямин, съосновател и главен изпълнителен директор на Copyleaks, платформа за откриване на плагиатство, базирана на изкуствения интелект.

„Изкуственият интелект е допълваща технология, предназначена да ни помогне да оптимизираме работата и ежедневието си, тя не трябва да се превръща в заместител на истинските човешки взаимоотношения“, добави той. OpenAI увери, че ще продължи проучването за това как гласовата функция на неговия изкуствен интелект може да накара потребителите да се привържат емоционално към него. Тестващите също така са успели да го накарат да повтори невярна информация или да създаде конспиративни теории, което засилва опасенията относно потенциалните рискове от модела на изкуствения интелект.

Гласовата функция на Chat-GPT вече предизвика множество реакции и принуди OpenAI да се извини на актрисата Скарлет Йохансон миналия юни за използването на глас, много близък до нейния, създавайки противоречия относно риска, свързан с копирането на гласове с помощта на технология. Въпреки че компанията отрича да е използвала гласа на Йохансон, фактът, че нейният шеф Сам Алтман популяризира гласовата функция в социалните мрежи, използвайки една-единствена дума „Нея“ - във връзка с филма, в който актрисата играе изкуствен интелект, не помогна да бъдат убедени наблюдателите.

Филмът, излязъл на екран през 2013 г., разказва историята на мъж, изигран от актьора Хоакин Финикс, който се влюбва в личния си изкуствен интелект "Саманта", за която Скарлет Йохансон е дала гласа си.

Новините от друг ъгъл - последвай ни в TikTok и открий лицата зад събитията, които формират света ни!

Редактор: Виктория Гетова
Източник: БГНЕС