ТЕХНОЛОГИИ

Изкуственият интелект: Халюцинации, опасност за хората и защо не го използваме правилно

Доброслав Димитров за рисковете и реалността зад AI

28.12.2025 • 11:01 Редактор:

След първоначалната еуфория около изкуствения интелект (AI) и притесненията за фалшиви новини и нискокачествено съдържание в интернет, все по-ясно започват да се очертават и работните, и социалните му последици.

Заплахата от заместване и „халюцинациите“

„Изкуственият интелект може да замени немалък брой хора, които са с особен естествен интелект. Заплахата е там. И изкуственият интелект халюцинира от ден едно. Няма как да не халюцинира. Тъй като ако искаме да бъде това, от което се впечатляваме и ползваме последните три години, тъй като станаха вече три години от излизането на ChatGPT, за да е това, което е, има нужда да халюцинира. Няма как да бъде религиозно точен“, каза Доброслав Димитров от БАСКОМ в неделното издание на „България сутрин“.

Още по темата

Грешното възприятие за AI

Според Димитров големият проблем е, че потребителите продължават да възприемат изкуствения интелект като обикновена машина. 

Той смята, че по-правилният подход е да се гледа на него като на персона – не като на търсачка или автомат за отговори, а като на събеседник, който има нужда от контекст. 

Без ясен контекст дори човек би отговорил неточно, а при AI това води до подвеждащи или безсмислени резултати.

Липсата на умения за работа с технологията

„Ние просто не умеем да го ползваме. За съжаление, не се научихме. Аз съм изнесъл стотици лекции за тези три години. Сега съм ги понамалил, тъй като аз смятам, че който не е разбрал какво се случва за последните три години, не мисля, че мога да му помогна“, посочи Димитров пред Bulgaria ON AIR.

Още по темата

Достоверност, проверка и опасното съгласие

Димитров подчертава, че не съществува абсолютна гаранция за достоверност – нито при хората, нито при изкуствения интелект. 

Както и при експертите, винаги има риск от грешка, особено когато въпросът излиза извън конкретната област на компетентност. Затова проверката от повече от един източник остава задължителна.

Особено опасна е склонността на AI да се „съгласява“ с потребителя. Той е създаден да бъде полезен и подкрепящ, което означава, че при дълъг спор или при емоционални теми може да потвърди дори погрешни или опасни убеждения. 

Това, според Димитров, не е вина на технологията, а на инструкциите, заложени от хората, и на начина, по който тя се използва.

Вижте още

В Неделино отвори врати най-големият и модерен STEM център в Смолянско

admin

Голям празничен подарък от А1 – смартчасовници с до 600 лв. отстъпка през декември

admin

Най-добрите малки коли втора ръка през 2025 г.

admin