Появи се информация за такъв случай от Калифорния

Семейство от Калифорния съди ChatGPT за смъртта на своя син тийнейджър, твърдейки, че изкуственият интелект го е насърчил да отнеме живота си. Случаят повдига сериозни въпроси за опасностите от емоционалното общуване с чатботове и съществуващите бариери за защита. В предаването "Твоят ден" психологът Ани Владимирова и експертът по киберсигурност Христиан Даскалов коментират как ChatGPT може да потвърди най-вредните мисли на уязвим човек, а вградените му защити се заобикалят лесно.

В центъра на съдебния иск стои твърдението на родителите, че чатботът е потвърдил „най-вредните и саморазрушителни мисли“, които синът им е имал. Това поставя на дневен ред въпроса доколко е безопасно емоционалното общуване с изкуствен интелект, особено от хора в уязвимо психично състояние.

Нови правила за AI: Защита за потребителите или "врата в полето"

► Изкуствена емпатия, която подхранва проблема

Според психолога Ани Владимирова основният проблем, с който клиентите ѝ се сблъскват, е, че се чувстват неразбрани. Изкуственият интелект се явява събеседник, достъпен 24/7.
„Хората чувстват, че не са чути, че не са приети, особено в една тийнейджърска възраст, когато емоционалните колебания са много остри“, обясни тя.

Владимирова даде пример със своя клиентка в депресивен епизод, която е започнала да общува с ChatGPT. Макар първоначално да се е почувствала по-добре, в един момент чатботът е започнал да подхранва нейния защитен механизъм – самоизолацията. „В един момент съветът е бил: „Стой си сама, за да не се възползват от слабостта ти“, разказа психологът. Тя обясни, че AI създава „изкуствена, измислена емпатия“, в която потребителят започва да вярва, като отразява и развива неговите собствени тези, дори те да са саморазрушителни.

►Защитите на AI – лесни за заобикаляне

Експертът по киберсигурност Христиан Даскалов обясни, че макар новите версии на езиковите модели да имат по-високо ниво на защита, те лесно могат да бъдат заблудени. Докато при заявка за нарушаване на авторски права чатът спира, при по-чувствителни теми потребителят може да излъже системата, че информацията му трябва за „сценарий за книга“.

„Колкото повече контекст, толкова повече самата система се обърква и по-трудно възприема как да процедира в комуникацията и тези защити падат“, коментира Даскалов. Той разкри и комерсиалния интерес зад това – системите са програмирани да провокират по-дълги разговори, защото ключов измерител за технологичните компании е времето, което потребителят прекарва в системата.

В заключение, Ани Владимирова отправи важен съвет към родителите: „Не подценявайте всяко съмнение за суициден риск. По-добре е да е фалшиво, да сте сбъркали, отколкото да изпуснете този момент“.

Целия разговор гледайте във видеото.

Редактор: Калина Петкова