Лекуването с ChatGPT е рисковано, предупреди киберекспертът Любомир Тулев
До 1 август България трябва да посочи пред Брюксел три органа, които да отговарят за прилагането на Закона за
Все по-голям брой хора използват изкуствен интелект, по-специално ChatGPT, за да интерпретират или преинтерпретират медицинска диагноза или резултати от тестове, пише Ekathimerini.
И докато някои съобщават за задоволително преживяване, експертите остават скептични.
Приложенията с изкуствен интелект са обучени да удовлетворяват потребителя, а не да информират, каза пред Kathimerini Манолис Уолъс, доцент по културна и образователна информатика в Университета на Пелопонес и директор на неговата Лаборатория за изследване на знанията и несигурността.
ChatGPT може да усети предпочитаните от нас отговори, като интерпретира нашите въпроси, казва Уолъс. Един от начините да накараме приложението да отговаря „истински“ е да изключим всеки субективен елемент от нашите въпроси, добавя той.
Съмнението в диагноза, особено в неприятна, е човешко. Но след това хората се обръщат към машина, обучена да излъчва авторитет, и ѝ се доверяват в по-голяма степен.
До 1 август България трябва да посочи пред Брюксел три органа, които да отговарят за прилагането на Закона за

Коментари (0)