Новини
Търси

Вирусният ChatGPT тренд крие рискове: Къде отиват личните ви данни и снимки?

Вирусният ChatGPT тренд крие рискове: Къде отиват личните ви данни и снимки?
pixabay

Експерти предупреждават, че качването на съдържание в AI платформи повдига въпроси за съхранението и използването му

Според експерт по киберсигурност, новата тенденция, която е на мода в момента, може да позволи на изкуствения интелект да събере достатъчно данни, за да се представи за някой друг. Потребителите са изложени на риск от кражба на самоличност, кражба на лични данни и измама.

Тенденциите в онлайн пространството се разпространяват бързо и повечето потребители не се замислят много, преди да се включат в новата тенденция. Последната такава тенденция е създаването на карикатура въз основа на всичко, което ChatGPT знае за даден потребител по отношение на работата и личния му живот. За да създаде образа, чатботът изисква снимка.

Голям брой хора използват ChatGPT като личен съветник, което му позволява лесно да разбере професиите на потребителите, както и неща, свързани с личния им живот.

Проблемът с тази тенденция, както и с подобни на нея, е, че не знаем къде отиват нашите данни, къде се съхраняват и колко дълго остават там.

Проблемът с тази тенденция, както и с подобни на нея, е, че не знаем къде отиват нашите данни, къде се съхраняват и колко дълго остават там.

„За по-малко от час изкуственият интелект може да събере достатъчно данни, за да се представи убедително за някого. Снимките могат да се използват за създаване на фалшиво видео, което изглежда много реалистично. Потребителите са изложени на риск от кражба на самоличност и злоупотреба, както и от увреждане на репутацията им. Много често хората не знаят къде се съхраняват тези данни, колко дълго се пазят или кой има достъп до тях“, обяснява д-р Джанет Бастиман, главен директор по данните.

Тя посочва, че тези данни могат да бъдат злоупотребени по различни начини. Снимките могат да бъдат използвани за създаване на фалшиво видео, което изглежда много реалистично и може дори да съдържа компрометиращо съдържание, като порнография.

Изпълнителният директор и съосновател на Cytidel, Матю Конлон, казва, че подобни тенденции са се случвали и преди, но сега събирането на данни е в много по-голям мащаб.

Д-р Андрю Болстър, който работи в друга компания за киберсигурност,- Black Duck, си спомня инцидент от последното десетилетие, който има силно сходство с настоящия ChatGPT.

„Тенденциите изглеждат безобидни, но често могат да имат последствия. През 2010-те години в социалните медии имаше лавина от викторини и игри, които изглеждаха безобидни.

Но данните, събрани от проследяването на дейностите и взаимодействията на потребителите с тези „куки“, директно допринесоха за скандала с данните на Cambridge Analytica през 2018 г.“, казва той.

 

Последвайте Таралеж в google news бутон
Редактор

Коментари (0)