Новини
Търси

Лекуването с ChatGPT е рисковано, предупреди киберекспертът Любомир Тулев

Лекуването с ChatGPT е рисковано, предупреди киберекспертът Любомир Тулев
Снимка: БТА

До 1 август България трябва да посочи пред Брюксел три органа, които да отговарят за прилагането на Закона за

До колко може да се доверим на ChatGPT за своето здравословно състояние - от проверка на лекарства до диагностициране по симптоми. Темата обсъди експертът по киберсигурност Любомир Тулев пред NOVA NEWS. Бави се и законодателството, което трябва да регулира както опасностите, така и позитивното приложение на технологиите, се бави. 

Според киберсигурност Любомир Тулев подобна практика е изключително рискована. „Лекуването с ChatGPT, без да обидя никой, е сякаш да гледаш коментари във форума БГ-мама и да се лекуваш. Горе-долу е идентично“, заяви той. Тулев обясни, че приложението просто събира информация от интернет на база зададения въпрос, но не може да извърши реален анализ на състоянието на конкретен човек.

По думите на Тулев проблемът с дезинформацията и злонамереното използване на изкуствен интелект, като например „дийп фейк“ видеата, е в основата на новия европейски закон, известен като EU AI Act. Той е влязъл в сила за целия Европейски съюз още на 1 август 2024 г., но все още не е транспониран у нас.

Тулев обясни, че този закон разделя употребата на изкуствен интелект на четири категории.

Недопустим риск: Това са приложения, които са тотално забранени. Например, такива за социално изключване, както и технологии, които могат да променят поведението на хората. „Представи си някакво плюшено мече, детска играчка, вътре има механизъм, с който въпросното мече говори. Ако вътре има изкуствен интелект, осъзнаваме, че това мече може да провокира нашето дете в една или друга посока, която може да е различна от това, което родителят иска да възпитава“, даде пример експертът.

Високорискова употреба: Тук попадат сектори като медицината. Законът изисква много добър анализ на риска и стриктни контролиращи мерки.

Приемливи рискове: В тази категория влизат „дийп фейк“ видеата. Според закона, всяко съдържание, генерирано чрез изкуствен интелект, трябва задължително да бъде обозначено с воден знак, за да е ясно на потребителите, че е фалшиво.

Приемливи приложения: Тук изкуственият интелект може да се използва свободно, без специални обозначения.

До 1 август 2026 г. България трябва да посочи пред Брюксел три органа, които да отговарят за прилагането на закона. 

Последвайте Таралеж в google news бутон
Редактор

Коментари (0)