Повод за нова вълна от дебати стана последният модел на Anthropic – Claude Mythos
Компаниите за изкуствен интелект все по-често предупреждават обществото за потенциалните рискове от собствените си технологии, но същевременно продължават активно да ги развиват и предлагат на пазара, съобщи BBC.
Повод за нова вълна от дебати стана последният модел на Anthropic – Claude Mythos. Компанията твърди, че системата притежава изключително напреднали способности за откриване на киберзаплахи и софтуерни уязвимости, които според нея могат да имат сериозни последици за икономиката, обществената сигурност и националната безопасност, ако технологията бъде използвана неправомерно.
Anthropic предупреждава, че подобни инструменти могат да бъдат опасни в неподходящи ръце, а около представянето на модела се появиха и прогнози за сериозни рискове за дигиталната сигурност. Част от експертите по киберсигурност обаче поставят под съмнение мащаба на тези твърдения и предупреждават, че опасенията може да са преувеличени.
Критици на индустрията твърдят, че компаниите за изкуствен интелект често акцентират върху апокалиптични сценарии, за да отклонят вниманието от вече съществуващи проблеми, свързани с технологията – включително екологични последствия, трудова експлоатация и социални ефекти. Други смятат, че драматичните предупреждения помагат за изграждането на образ на AI компаниите като единствени способни да контролират и управляват развитието на технологията.
Дебатът не е нов. Още през 2019 г. OpenAI първоначално отказа да публикува модела GPT-2 с аргумента, че може да бъде използван злонамерено. Системата все пак беше пусната публично. По-късно главният изпълнителен директор на компанията Сам Алтман призна, че част от ранните опасения около модела са били преувеличени.
През годините редица водещи фигури в технологичния сектор, сред които Сам Алтман, Дарио Амодей, Бил Гейтс и Демис Хасабис, многократно предупреждаваха за потенциалните рискове от развитието на изкуствения интелект. През 2023 г. те подкрепиха обща позиция, според която ограничаването на риска от AI трябва да бъде глобален приоритет, сравним с опасности като пандемии и ядрена война.
Според Емили Бендър, цитирана от BBC, подобен тип реторика се е превърнала в стандартен модел в индустрията за изкуствен интелект. Фокусът върху хипотетични катастрофални сценарии често измества вниманието от реалните последици, които технологиите вече оказват върху обществото.